Почему большие языковые модели так и не научились думать

Фраза «так не строят цифровой разум» звучит почти обидно, если адресовать её индустрии, которая привлекла сотни миллиардов долларов инвестиций. Но именно к такому выводу подталкивает новый анализ возможностей больших языковых моделей — LLM. Речь не о мелких багах и не о галлюцинациях, к которым все уже привыкли. Речь о куда более серьёзной проблеме: эти модели, похоже, принципиально не способны рассуждать.
Почему большие языковые модели так и не научились думать
Изображение носит иллюстративный характер

Когда мы говорим о «рассуждении» в контексте ИИ, имеется в виду нечто конкретное. Человек умеет выстраивать цепочки логических связей, отсекать несущественное, строить гипотезы, проверять их и отбрасывать неработающие. LLM этого не делают. Они генерируют текст, статистически правдоподобный на основе обучающих данных. Разница колоссальная, хотя на выходе иногда выглядит похоже.
Проблема в том, что провалы в рассуждениях — не побочный эффект, который можно исправить патчем. Это следствие самой архитектуры. Модель предсказывает следующее слово, опираясь на вероятности. Она не «понимает» задачу, не строит её внутреннюю модель. Она находит паттерн в данных. Когда паттерн подходит — результат впечатляет. Когда нет — модель уверенно несёт чушь, потому что у неё нет механизма отличить верное рассуждение от неверного.
Новый анализ указывает на то, что LLM, возможно, подходят к своему технологическому потолку. Увеличение параметров, данных для обучения, вычислительных мощностей — всё это даёт убывающую отдачу. Модели становятся чуть лучше в одних задачах и непредсказуемо проваливаются в других. Масштабирование, которое несколько лет считалось универсальным рецептом, перестаёт работать как раньше.
Сторонники LLM часто возражают: мол, модели уже сдают юридические экзамены, пишут код, переводят тексты. Всё так. Но юридический экзамен — это задача на распознавание образцов в хорошо документированной области. Попросите ту же модель разобраться в нестандартной ситуации, где нужно применить принцип к новым обстоятельствам, и результаты резко просядут. Именно здесь и проявляется разница между имитацией рассуждения и собственно рассуждением.
Концепция «цифрового разума» предполагает, что машина способна мыслить на уровне человека. Что она может не просто воспроизводить шаблоны, а порождать новое знание, адаптироваться к незнакомым условиям, осознавать ограничения собственной компетенции. LLM ничего из этого не умеют. Они не знают, чего они не знают. И у них нет внутренней мотивации это выяснять.
Критики текущего подхода говорят довольно прямо: если вы хотите построить цифровой разум, предсказание следующего токена — неправильный фундамент. Это всё равно что пытаться научить кого-то физике, заставляя заучивать ответы в конце учебника без объяснения формул. На знакомых задачках результат будет приличный. На новых — катастрофа.
Это не означает, что LLM бесполезны. Они прекрасно справляются с задачами, где нужна компиляция, суммаризация, генерация текста по шаблону. Но называть это «интеллектом» — натяжка. А вкладывать ресурсы в бесконечное масштабирование архитектуры, которая упирается в свои фундаментальные ограничения, — стратегия как минимум спорная.
Вопрос в том, что дальше. Может, нужна совершенно другая архитектура. Может, гибрид. Может, какой-то подход, о котором пока никто не думал. Одно ясно: простое наращивание мощности LLM к человеческому уровню интеллекта не приведёт. И чем раньше индустрия это признает, тем меньше денег и времени уйдёт на тупиковую ветку.


Новое на сайте

19710Фальшивые установщики и ISO-файлы: как киберпреступники зарабатывают на майнинге и троянах 19709Почему большие языковые модели так и не научились думать 19708WhatsApp предупредил 200 пользователей о поддельном iOS-приложении со шпионским по:... 19707Открытый код под давлением ИИ: уязвимостей стало втрое больше за один квартал 19706Мышей с диабетом первого типа вылечили, создав «смешанный» иммунитет 19705Кости для азартных игр придумали коренные американцы 12 тысяч лет назад? 19704Артемида II летит навстречу солнцу на пике его ярости 19703Комета, которая вращается задом наперёд 19702Microsoft обнаружила вредоносную кампанию с доставкой малвари через WhatsApp 19701Фишинг с динамическими PDF: как бразильская группировка атакует латинскую Америку и Европу 19700Почему блокировка AI-инструментов делает компании уязвимее, чем сами угрозы? 19699Экстремальные пожары, засухи и штормы возможны даже при умеренном потеплении 19698Крапивница от воды: редчайший диагноз, который врачи не могли разгадать 19697Северокорейские хакеры заразили npm-пакет Axios, нацелившись на кошельки разработчиков
Ссылка