Ssylka

Миниатюрный GPT-2 на C: краткий обзор

Реализация GPT-2 на C в объеме 3000 байт демонстрирует возможность создания минималистичной, но функциональной версии языковой модели, несмотря на ограничения в ресурсах.
Миниатюрный GPT-2 на C: краткий обзор
Изображение носит иллюстративный характер

Оптимизация производительности достигается за счет KV-кэширования, эффективного перемножения матриц и опционального OMP-параллелизма, позволяя малой модели GPT-2 выдавать ответ за несколько секунд.

Программа включает в себя библиотеку для матричной математики, слои нейронной сети, модель-трансформер и модуль частотного кодирования, а также функциональность для загрузки весов и данных для частотного кодирования.

Архитектура трансформера включает в себя слои нормализации, функцию активации GELU и механизм «причинного внимания», который учитывает только прошлое, но не будущее при генерации текста.


Новое на сайте

14779Взлом аккаунта министра: криптовалютная афера на платформе X 14778Google под прицелом антимонопольной комиссии Японии 14777Хор для тех, кто не умеет петь: как Zest Choir меняет отношение к музыке 14776Поглотила ли покупка Instagram конкуренцию на рынке соцсетей? 14775Как у прилавка с суши возникла уэльская морская трава? 14774Почему муравьи становятся новой целью международных браконьеров? 14773Как пятеро друзей из Dude Perfect стали символом семейного развлечения? 14772Может ли Хельсинки стать новой столицей европейских стартапов? 14771Кто стоял за великой железнодорожной кражей: элита преступного мира? 14770Meta возобновляет обучение искусственного интеллекта на публичных данных европейских... 14769Солнечная буря приносит северное сияние в необычные широты 14768Как WNBA-драфт стал витриной культурной идентичности? 14767Музей Кука вновь открыт: тайна благотворителя остаётся нераскрытой 14766Воссоединение