Модель V3, разработанная китайской компанией DeepSeek, выделяется среди аналогов благодаря внушительному размеру, включающему 671 миллиард параметров, 37 миллиардов из которых активируются при каждом запросе. Обучение на 14,8 триллионах токенов и открытая лицензия делают её привлекательной для разработчиков, хотя и требуют значительных вычислительных ресурсов.
По результатам тестов V3 превосходит такие модели как Llama 3.1, GPT-4o и Qwen 2.5, демонстрируя высокую производительность в задачах генерации текста, включая написание кода, перевод и создание эссе. Особенно выделяется её способность интегрировать сгенерированный код в уже существующие проекты.
Несмотря на затраты в 5,5 миллионов долларов и 3 миллиона часов на обучение, что меньше, чем у GPT-4, V3 требует мощного оборудования для эффективной работы. Открытый доступ к модели по разрешительной лицензии позволяет использовать её в коммерческих разработках и способствует развитию сообщества.
Изображение носит иллюстративный характер
По результатам тестов V3 превосходит такие модели как Llama 3.1, GPT-4o и Qwen 2.5, демонстрируя высокую производительность в задачах генерации текста, включая написание кода, перевод и создание эссе. Особенно выделяется её способность интегрировать сгенерированный код в уже существующие проекты.
Несмотря на затраты в 5,5 миллионов долларов и 3 миллиона часов на обучение, что меньше, чем у GPT-4, V3 требует мощного оборудования для эффективной работы. Открытый доступ к модели по разрешительной лицензии позволяет использовать её в коммерческих разработках и способствует развитию сообщества.