Ssylka

Является ли ИИ-архитектура, имитирующая мозг, недостающим звеном на пути к AGI?

Исследователи из AI-стартапа Pathway разработали новую архитектуру искусственного интеллекта под названием «Dragon Hatchling». Они заявляют, что это первая модель, способная к «обобщению во времени» путем постоянной адаптации своей внутренней структуры в ответ на новую информацию, что потенциально является «недостающим звеном» на пути к достижению Общего Искусственного Интеллекта (AGI).
Является ли ИИ-архитектура, имитирующая мозг, недостающим звеном на пути к AGI?
Изображение носит иллюстративный характер

Основная цель архитектуры — преодолеть разрыв между существующим ИИ и более человекоподобным познанием. Ключевая особенность «Dragon Hatchling» заключается в его способности автоматически корректировать свои собственные нейронные связи в режиме реального времени по мере обработки новой информации. Модель имитирует то, как нейроны в человеческом мозге соединяются и укрепляются благодаря накопленному опыту.

В отличие от последовательной, многоуровневой структуры традиционных трансформеров, «Dragon Hatchling» описывается как «гибкая сеть», которая реорганизует саму себя. Она использует крошечные «нейронные частицы», которые непрерывно обмениваются информацией. Эти частицы корректируют свои связи, усиливая одни и ослабляя другие, тем самым формируя новые пути по мере обучения модели.

Эта архитектурная особенность позволяет «Dragon Hatchling» развивать форму кратковременной памяти за счет постоянных структурных адаптаций. Это кардинально отличает его от традиционных больших языковых моделей (LLM), чья «память» происходит из сохраненного контекста в их обучающих данных.

Современные модели ИИ, такие как ChatGPT, Google Gemini и Claude, основаны на технологии трансформеров — фреймворке глубокого обучения, который позволяет ИИ устанавливать связи между словами и идеями. Однако их фундаментальным ограничением является статичное обучение. После того как LLM обучена, ее управляющие параметры становятся заблокированными. Для получения новых знаний требуется ресурсоемкое переобучение или донастройка.

Эдриан Косовски, сооснователь и главный научный сотрудник Pathway, в подкасте SuperDataScience 7 октября заявил, что существующие модели ИИ «не обобщают рассуждения так, как это делают люди». Они с трудом применяют логику за пределами шаблонов, увиденных в данных для обучения. Человеческое мышление описывается как «хаотичное сплетение» пересекающихся мыслей и информации, а не аккуратная линейная последовательность, которую текущие модели не могут воспроизвести.

Исследователи предполагают, что их модель может стать тем самым «недостающим звеном» между сегодняшним ИИ и более продвинутым интеллектом, вдохновленным работой мозга. Эта архитектура предлагается как решение проблемы обобщения рассуждений на более сложные и длинные паттерны, что является ключевым препятствием в области ИИ. Разработка позиционируется как фундаментальный шаг к созданию Общего Искусственного Интеллекта.

Теоретически, такая архитектура может привести к созданию моделей ИИ, которые становятся умнее по мере того, как дольше находятся в рабочем состоянии, обучаясь и адаптируясь автономно.

Исследование с описанием архитектуры было загружено 30 сентября в базу препринтов arXiv. Важно отметить, что на данный момент работа еще не прошла процедуру рецензирования научным сообществом.

В ходе тестов «Dragon Hatchling» показал производительность, сопоставимую с моделью GPT-2, в эталонных задачах языкового моделирования и перевода. Команда Pathway считает это «впечатляющим достижением для совершенно новой, прототипной архитектуры».


Новое на сайте

18594Записная книжка против нейросети: ценность медленного мышления 18593Растущая брешь в магнитном щите земли 18592Каким образом блокчейн-транзакции стали новым инструментом для кражи криптовалюты? 18591Что скрывается за ростом прибыли The Walt Disney Company? 18590Является ли ИИ-архитектура, имитирующая мозг, недостающим звеном на пути к AGI? 18589Как Operation Endgame нанесла сокрушительный удар по глобальной киберпреступности? 18588Кибервойна на скорости машин: почему защита должна стать автоматической к 2026 году 18587Как одна ошибка в коде открыла для хакеров 54 000 файрволов WatchGuard? 18586Криптовалютный червь: как десятки тысяч фейковых пакетов наводнили npm 18585Портативный звук JBL по рекордно низкой цене 18584Воин-крокодил триаса: находка в Бразилии связала континенты 18583Опиум как повседневность древнего Египта 18582Двойной удар по лекарственно-устойчивой малярии 18581Почему взрыв массивной звезды асимметричен в первые мгновения? 18580Почему самые удобные для поиска жизни звезды оказались наиболее враждебными?