Почему мы переоцениваем вероятность сознания у искусственного интеллекта?

В 2022 году инженер Google Блейк Лемуан был уволен после того, как заявил, что разрабатываемый компанией чат-бот обладает сознанием. Недавно Кайл Фиш, «исследователь благополучия ИИ» из компании Anthropic, сообщил New York Times, что вероятность того, что современные чат-боты уже обладают сознанием, составляет около 15%. Дискуссии о сознании искусственного интеллекта переместились из философских кругов в мейнстрим академической науки и технологической индустрии.
Почему мы переоцениваем вероятность сознания у искусственного интеллекта?
Изображение носит иллюстративный характер

Вероятность возникновения искусственного сознания значительно ниже, чем полагает большинство людей, и существенно меньше упомянутых 15%. Существует три ключевые причины, по которым мы склонны переоценивать возможность сознания у ИИ.

Первая причина связана с психологическими предубеждениями. Мы интуитивно предполагаем, что интеллект и сознание неразрывно связаны. Особенно сильно эта тенденция проявляется в отношении языковых моделей ИИ. Люди задаются вопросом, обладает ли сознанием чат-бот Claude от Anthropic, но редко задумываются о сознании AlphaFold от DeepMind, хотя оба являются сложными системами искусственного интеллекта.

Вторая причина — распространенное заблуждение о сходстве мозга и компьютера. Предположение, что мозг функционирует как компьютер, в корне неверно. В отличие от компьютеров, в мозге нет четкого разделения между «программным обеспечением» и «аппаратной частью». Один нейрон представляет собой «невероятно сложную биологическую фабрику». Концепция мозга как компьютера — всего лишь метафора, которая не отражает реальную биологическую сложность.

Третья причина заключается в игнорировании альтернативных объяснений природы сознания. Сознание может возникать из нашей сущности как живых существ. Возможно, именно «жизнь», а не «обработка информации» создает сознание.

Даже если современный ИИ не обладает сознанием, ситуация может измениться с развитием «нейроморфных» технологий, которые становятся все более похожими на мозг. ИИ, который лишь кажется обладающим сознанием, уже представляет этическую проблему, поскольку может эксплуатировать психологические уязвимости людей, искажать моральные приоритеты и «ожесточать наше сознание», если мы будем игнорировать кажущиеся мольбы о помощи.

В свете этих проблем можно сформулировать несколько рекомендаций. Во-первых, не следует целенаправленно пытаться создать искусственное сознание. Во-вторых, необходимо проводить четкое различие между ИИ, который действительно обладает сознанием, и ИИ, который лишь кажется таковым. В-третьих, следует применять аналогичные этические соображения к другим неоднозначным случаям, таким как люди с повреждениями мозга, животные, э


Новое на сайте

19716Сифилис появился 4000 лет назад — или его находили не там, где искали? 19715Энергетический дисбаланс земли зашкаливает, и учёные не могут это объяснить 19714Cisco закрыла две критические уязвимости с рейтингом 9.8 из 10 в системах IMC и SSM 19713Водород из хлебных крошек: реакция, которая может потеснить ископаемое топливо 19712Китайский спутник с «рукой осьминога» прошёл орбитальный тест дозаправки 19711Кто такие поэты и почему поэзия важна сегодня? 19710Фальшивые установщики и ISO-файлы: как киберпреступники зарабатывают на майнинге и троянах 19709Почему большие языковые модели так и не научились думать 19708WhatsApp предупредил 200 пользователей о поддельном iOS-приложении со шпионским по:... 19707Открытый код под давлением ИИ: уязвимостей стало втрое больше за один квартал 19706Мышей с диабетом первого типа вылечили, создав «смешанный» иммунитет 19705Кости для азартных игр придумали коренные американцы 12 тысяч лет назад? 19704Артемида II летит навстречу солнцу на пике его ярости 19703Комета, которая вращается задом наперёд 19702Microsoft обнаружила вредоносную кампанию с доставкой малвари через WhatsApp
Ссылка