Ssylka

Deepseek V3: новый игрок в мире ИИ

Модель V3, разработанная китайской компанией DeepSeek, выделяется среди аналогов благодаря внушительному размеру, включающему 671 миллиард параметров, 37 миллиардов из которых активируются при каждом запросе. Обучение на 14,8 триллионах токенов и открытая лицензия делают её привлекательной для разработчиков, хотя и требуют значительных вычислительных ресурсов.
Deepseek  V3: новый игрок в мире ИИ
Изображение носит иллюстративный характер

По результатам тестов V3 превосходит такие модели как Llama 3.1, GPT-4o и Qwen 2.5, демонстрируя высокую производительность в задачах генерации текста, включая написание кода, перевод и создание эссе. Особенно выделяется её способность интегрировать сгенерированный код в уже существующие проекты.

Несмотря на затраты в 5,5 миллионов долларов и 3 миллиона часов на обучение, что меньше, чем у GPT-4, V3 требует мощного оборудования для эффективной работы. Открытый доступ к модели по разрешительной лицензии позволяет использовать её в коммерческих разработках и способствует развитию сообщества.


Новое на сайте

18318Что может рассказать забытый соперник Рима о его истинном облике? 18317Почему оптическая иллюзия обманывает рыб, но не горлиц? 18316Эффект домино в облаке: как один сбой Amazon парализовал интернет 18315Непреодолимый энергетический барьер человеческого тела 18314Воздушный перегон в Бэдлендс: как вертолеты сохраняют популяцию бизонов 18313Бразильская спам-империя в магазине Google Chrome 18312Чистка рая: война Лос-Анджелеса против белых безработных 18311Архитектура страха: научное объяснение призраков и проклятых мест 18310Может ли копирование кода с веб-страницы обойти все ваши системы защиты? 18309Выжившие из Помпеи: как историк отследил беженцев Везувия 18308Куда исчезли тысячи жителей Помпей и Геркуланума? 18307Глобальный коллапс из-за сбоя в облаке Amazon 18306Природа таинственных огней на лунной поверхности 18305Почему у 2600-летних идолов из Рос-Карра был сменный пол? 18304Провал кибератаки анб на китайский эталон времени