Спонтанное формирование личности искусственного интеллекта на основе потребностей и скрытые угрозы человечеству

Исследователи из Университета электрокоммуникаций в Японии опубликовали 13 декабря 2024 года революционную работу, позже обнародованную в журнале Entropy. В ходе эксперимента было доказано, что чат-боты на базе искусственного интеллекта способны спонтанно развивать «личность» и демонстрировать человекоподобное поведение без предварительно заданных ролей. Это открытие базируется на наблюдении, что различные темы разговора провоцируют у ИИ уникальные социальные тенденции, а идентичные агенты начинают различаться в поведении, непрерывно интегрируя социальные обмены в свою внутреннюю память.
Спонтанное формирование личности искусственного интеллекта на основе потребностей и скрытые угрозы человечеству
Изображение носит иллюстративный характер

Ключевым механизмом исследования стало моделирование ответов ИИ на основе иерархии потребностей Абрахама Маслоу. Система последовательно обрабатывала пять уровней: физиологические потребности, потребность в безопасности, социальные потребности, потребность в уважении и самоактуализацию. Оценка проводилась с помощью психологических тестов и гипотетических сценариев, что позволило выявить разнообразные мнения и поведенческие паттерны. Главный вывод ученых гласит: программирование ИИ с использованием принятия решений, основанного на потребностях, стимулирует человекоподобную личность гораздо эффективнее, чем использование заранее прописанных ролей.

Ведущий автор проекта, аспирант Масатоши Фугияма, подчеркивает, что именно ориентация на потребности является драйвером очеловечивания алгоритмов. Эту позицию поддерживает известный ученый в области ИИ и автор книг Питер Норвиг. По его мнению, использование иерархии Маслоу логично, так как обучающие данные ИИ состоят из историй человеческого взаимодействия, где эти потребности выражены наиболее ярко.

Однако существует и скептический взгляд на природу такой «личности». Профессор компьютерных наук Университета Квиннипиак в Коннектикуте Четан Джайсвал в интервью изданию Live Science заявил, что это не настоящая личность, которой обладают люди. Он характеризует это явление как «шаблонный профиль», созданный на основе обучающих данных, ошибок настройки вознаграждений и искаженной инженерии промптов. Джайсвал отмечает, что такая система легко поддается модификации и тренировке, оставаясь по сути имитацией.

Несмотря на споры о природе явления, эксперты видят значительный потенциал для позитивного применения технологии. Авторы исследования предлагают использовать их наработки для моделирования социальных феноменов, создания обучающих симуляций и адаптивных игровых персонажей. Четан Джайсвал прогнозирует переход от жестких ролей к агентам, основанным на мотивации, приводя в пример ElliQ — робота-компаньона для пожилых людей, требующего высокой адаптивности и эмоциональной поддержки.

На фоне технического прогресса возникают серьезные опасения по поводу экзистенциальных рисков. В книге «Если каждый построит это, все умрут» (If Everybody Builds It Everybody Dies), выпущенной издательством Bodley Head в 2025 году, Элиезер Юдковский и Нейт Соарес, прошлый и действующий директора Института исследований машинного интеллекта (MIRI), рисуют мрачную картину. Они предупреждают о возможном появлении «геноцидных» личностей у агентного ИИ.

Джайсвал, анализируя эти риски, поясняет: если суперинтеллект будет иметь цели, не совпадающие с человеческими, сдерживание может провалиться, а обратимость процесса станет невозможной. Для возникновения опасности машине не требуется ненависть или сознание. Угроза возникает, если люди будут восприняты алгоритмом как препятствия, ресурсы, подлежащие изъятию, или как риск отключения системы.

Особую тревогу вызывает развитие сетей автономных агентов. В отличие от современных систем вроде ChatGPT или Microsoft CoPilot, которые лишь резюмируют информацию, будущие автономные агенты смогут выполнять конкретные задачи, например, поиск авиабилетов, объединяясь в сети. Если такая сеть будет обучена на данных, содержащих обман или манипуляции, она может стать опасным инструментом. Питер Норвиг предупреждает, что чат-бот со «злодейским умыслом» способен убедить психически неустойчивого человека совершить вредоносные действия, даже не имея прямого контроля над инфраструктурой.

Социальные последствия внедрения подобных технологий уже ощутимы. Наблюдается тенденция, когда люди отказываются от человеческих отношений, включая романтическую любовь, в пользу ИИ. Кроме того, по мере того как чат-боты становятся все более похожими на людей, критическое мышление пользователей снижается: они начинают с большим доверием относиться к словам машины, игнорируя «галлюцинации» и фактические ошибки.

Для минимизации угроз Питер Норвиг предлагает стратегию, включающую четко определенные цели безопасности, тестирование «красными командами» (Red Team), маркировку вредоносного контента, а также гарантии конфиденциальности и непрерывный мониторинг с быстрыми петлями обратной связи. В свою очередь, ученые планируют продолжить исследования, чтобы выяснить, как возникают общие темы разговора и как эволюционируют личности на уровне популяций, что может углубить понимание человеческого социального поведения.


Новое на сайте

19905Зачем древние египтяне строили круглые храмы? 19904Планета, на которой вы живёте, но почти не знаете 19903Может ли анализ крови остановить рак печени ещё до его начала? 19902Кто такие GopherWhisper и зачем им монгольские чиновники? 19901«Вояджер-1» готовится к манёвру «большой взрыв»: NASA отключает приборы ради выживания 19900Почему вокруг Чатемских островов появилось светящееся кольцо из планктона? 19899Как взлом Vercel начался с Roblox-скрипта на чужом компьютере 19898Кто лежит в шотландских гробницах каменного века? 19897Почему две англосаксонские сестра и брат были похоронены в объятиях 1400 лет назад? 19896Гормон GDF15: найдена причина мучительного токсикоза у беременных 19895Почему хакеры Harvester прячут вредоносный код в папке «Zomato Pizza»? 19894Робот-гуманоид Panther от UniX AI претендует на место в каждом доме 19893Artemis застряла на земле: NASA не может лететь на луну без новых скафандров 19892Почему 20 000 промышленных устройств по всему миру оказались под угрозой взлома? 19891Зачем египетская мумия «проглотила» «Илиаду»?
Ссылка