DeepSeek, выпустив open-source модель, бросает вызов монополии OpenAI в области генеративного ИИ, подобно тому, как Apache в свое время подорвал доминирование Netscape на рынке веб-серверов. Ключевое отличие заключается не только в технических аспектах (DeepSeek использует архитектуру Mixture of Experts), но и в целеполагании: OpenAI обременены обязательствами перед инвесторами, что заставляет их фокусироваться на моделях, требующих все больше ресурсов.
Риск для OpenAI заключается в том, что их ставка на расширение аппаратной мощи может оказаться уязвимой. DeepSeek продемонстрировал возможность значительной экономии ресурсов, что может вызвать панику среди инвесторов OpenAI, привыкших к парадигме «больше данных = лучше результат». Существует риск, что OpenAI, Microsoft будут скупать стартапы, разрабатывающие экономичные модели, чтобы не допустить их выхода на рынок.
Китайские компании, в отличие от OpenAI, делают ставку на open source, публикуя не только модели, но и документацию, что способствует распространению технологий. Подход MoE позволяет создавать модели, сравнимые по качеству с передовыми разработками OpenAI, но требующие меньше вычислительных ресурсов, что ставит под сомнение необходимость использования дорогостоящего оборудования Nvidia.
Пользователей вполне могут устроить упрощенные модели, укладывающиеся в определенные рамки по времени/памяти и потребляющие гораздо меньше ресурсов. Бизнес-модель OpenAI оказывается под угрозой, если разрыв между появлением топовой модели и модели, работающей на 85% от топовой, но существенно дешевле, будет небольшим.
Изображение носит иллюстративный характер
Риск для OpenAI заключается в том, что их ставка на расширение аппаратной мощи может оказаться уязвимой. DeepSeek продемонстрировал возможность значительной экономии ресурсов, что может вызвать панику среди инвесторов OpenAI, привыкших к парадигме «больше данных = лучше результат». Существует риск, что OpenAI, Microsoft будут скупать стартапы, разрабатывающие экономичные модели, чтобы не допустить их выхода на рынок.
Китайские компании, в отличие от OpenAI, делают ставку на open source, публикуя не только модели, но и документацию, что способствует распространению технологий. Подход MoE позволяет создавать модели, сравнимые по качеству с передовыми разработками OpenAI, но требующие меньше вычислительных ресурсов, что ставит под сомнение необходимость использования дорогостоящего оборудования Nvidia.
Пользователей вполне могут устроить упрощенные модели, укладывающиеся в определенные рамки по времени/памяти и потребляющие гораздо меньше ресурсов. Бизнес-модель OpenAI оказывается под угрозой, если разрыв между появлением топовой модели и модели, работающей на 85% от топовой, но существенно дешевле, будет небольшим.