Ssylka

Миниатюрный GPT-2 на C: краткий обзор

Реализация GPT-2 на C в объеме 3000 байт демонстрирует возможность создания минималистичной, но функциональной версии языковой модели, несмотря на ограничения в ресурсах.
Миниатюрный GPT-2 на C: краткий обзор
Изображение носит иллюстративный характер

Оптимизация производительности достигается за счет KV-кэширования, эффективного перемножения матриц и опционального OMP-параллелизма, позволяя малой модели GPT-2 выдавать ответ за несколько секунд.

Программа включает в себя библиотеку для матричной математики, слои нейронной сети, модель-трансформер и модуль частотного кодирования, а также функциональность для загрузки весов и данных для частотного кодирования.

Архитектура трансформера включает в себя слои нормализации, функцию активации GELU и механизм «причинного внимания», который учитывает только прошлое, но не будущее при генерации текста.


Новое на сайте