LLM в разработке: препятствия и перспективы

Применение больших языковых моделей (LLM) в разработке программного обеспечения сталкивается с фундаментальными проблемами. LLM предоставляются как единый, неразборный продукт, что противоречит принципу декомпозиции задач на составные части, который является краеугольным камнем вычислительной техники. Невозможность тестирования, модификации и контроля над внутренними процессами LLM ограничивает их применение в качестве надежных компонентов программных продуктов.
LLM в разработке: препятствия и перспективы
Изображение носит иллюстративный характер

Проблемы с безопасностью, конфиденциальностью и юридической ответственностью также препятствуют широкому распространению LLM. Отсутствие прозрачности в обучении моделей и невозможность гарантировать, что они не используют чужие разработки, затрудняют интеграцию LLM в коммерческие решения. Кроме того, огромные вычислительные затраты на обучение LLM идут вразрез с тенденцией к снижению углеродного следа.

Вместо того, чтобы полагаться на LLM как на готовые сервисы, разработчикам следует стремиться к созданию искусственного интеллекта, который можно проверить, воспроизвести, объяснить и модифицировать. Ошибки ИИ должны быть исправимы, а его процессы должны быть прозрачными. Использование LLM в их текущем виде может привести к потере контроля над технологическим процессом и замедлить инновации.

Адаптация LLM под нужды конкретных компаний, например, дообучение на их уникальных данных, является перспективным направлением. Такой подход позволяет компаниям создавать корпоративных ИИ-ассистентов, способных работать с конфиденциальной информацией. Одним из способов такого дообучения является In-Context fine-tuning, объединяющий методы RAG и fine-tuning, который позволяет обучать модели на примерах запросов и ответов, создавая ассистентов без необходимости написания кода.


Новое на сайте

19987Китайские хакерские группы атакуют правительства и журналистов по всему миру 19986Как 30 000 аккаунтов Facebook оказались в руках вьетнамских хакеров? 19985LofyGang вернулась: как бразильские хакеры охотятся на геймеров через поддельные читы 19984Автономная проверка защиты: как не отстать от ИИ-атак 19983Взлом Trellix: хакеры добрались до исходного кода одной из ведущих компаний по... 19982Почему почти 3000 монет в норвежском поле перевернули представление о викингах? 19981Как поддельная CAPTCHA опустошает ваш счёт и крадёт криптовалюту? 19980Слежка за каждым шагом: как ИИ превращает государство в машину тотального контроля 19979Как хакеры грабят компании через звонок в «техподдержку» 19978Почему именно Нью-Йорк стал самым уязвимым городом восточного побережья перед... 19977Как одна команда git push открывала доступ к миллионам репозиториев 19976Зачем древние народы убивали ножами и мечами: оружие как основа власти 19975Как Python-бэкдор DEEPDOOR крадёт ваши облачные пароли незаметно? 19974Послание в бутылке: математика невозможного 19973Почему ИИ-инфраструктура стала новой целью хакеров быстрее, чем ждали все?
Ссылка