Ssylka

DeepSeek: доступный ИИ меняет правила игры

Китайская компания DeepSeek представила две новые модели, V3 и R1, которые демонстрируют конкурентоспособную производительность при относительно низких затратах. V3 создана всего за 5.5 миллионов долларов, что ставит под сомнение необходимость миллиардных инвестиций, которые ранее считались обязательными для разработки продвинутых ИИ.
DeepSeek: доступный ИИ меняет правила игры
Изображение носит иллюстративный характер

DeepSeek применяет ряд подходов для снижения затрат, включая оптимизированную архитектуру Mixture of Experts (MoE) и использование синтетических данных для обучения. Эти стратегии позволяют достичь хороших результатов, не требуя огромных вычислительных мощностей и ресурсов, что делает ИИ более доступным. Кроме того, использование открытых весов (open-weights) позволило DeepSeek опираться на наработки других проектов, включая LLaMa от Meta (признан в РФ экстремистским), что значительно ускорило процесс разработки.

Модель DeepSeek R1 выделяется прозрачностью своего «мыслительного процесса». В отличие от моделей «черного ящика», R1 демонстрирует каждый шаг своих рассуждений, что ценно для исследований и разработки. Обе модели доступны для дообучения и адаптации, что открывает возможности для создания локальных решений, не требующих огромных вложений.

Несмотря на впечатляющие успехи, DeepSeek сталкивается с трудностями из-за высокой популярности, вызывающей перегрузку серверов. Пользователи, желающие получить доступ к моделям, могут испытывать затруднения. Кроме того, вопросы конфиденциальности данных остаются актуальными, поскольку компания базируется в Китае. Тем не менее, открытость моделей DeepSeek, по примеру LLaMa и Mistral, делает ИИ более доступным и потенциально может привести к снижению цен на ИИ-сервисы.


Новое на сайте