Ssylka

Почему мы переоцениваем вероятность сознания у искусственного интеллекта?

В 2022 году инженер Google Блейк Лемуан был уволен после того, как заявил, что разрабатываемый компанией чат-бот обладает сознанием. Недавно Кайл Фиш, «исследователь благополучия ИИ» из компании Anthropic, сообщил New York Times, что вероятность того, что современные чат-боты уже обладают сознанием, составляет около 15%. Дискуссии о сознании искусственного интеллекта переместились из философских кругов в мейнстрим академической науки и технологической индустрии.
Почему мы переоцениваем вероятность сознания у искусственного интеллекта?
Изображение носит иллюстративный характер

Вероятность возникновения искусственного сознания значительно ниже, чем полагает большинство людей, и существенно меньше упомянутых 15%. Существует три ключевые причины, по которым мы склонны переоценивать возможность сознания у ИИ.

Первая причина связана с психологическими предубеждениями. Мы интуитивно предполагаем, что интеллект и сознание неразрывно связаны. Особенно сильно эта тенденция проявляется в отношении языковых моделей ИИ. Люди задаются вопросом, обладает ли сознанием чат-бот Claude от Anthropic, но редко задумываются о сознании AlphaFold от DeepMind, хотя оба являются сложными системами искусственного интеллекта.

Вторая причина — распространенное заблуждение о сходстве мозга и компьютера. Предположение, что мозг функционирует как компьютер, в корне неверно. В отличие от компьютеров, в мозге нет четкого разделения между «программным обеспечением» и «аппаратной частью». Один нейрон представляет собой «невероятно сложную биологическую фабрику». Концепция мозга как компьютера — всего лишь метафора, которая не отражает реальную биологическую сложность.

Третья причина заключается в игнорировании альтернативных объяснений природы сознания. Сознание может возникать из нашей сущности как живых существ. Возможно, именно «жизнь», а не «обработка информации» создает сознание.

Даже если современный ИИ не обладает сознанием, ситуация может измениться с развитием «нейроморфных» технологий, которые становятся все более похожими на мозг. ИИ, который лишь кажется обладающим сознанием, уже представляет этическую проблему, поскольку может эксплуатировать психологические уязвимости людей, искажать моральные приоритеты и «ожесточать наше сознание», если мы будем игнорировать кажущиеся мольбы о помощи.

В свете этих проблем можно сформулировать несколько рекомендаций. Во-первых, не следует целенаправленно пытаться создать искусственное сознание. Во-вторых, необходимо проводить четкое различие между ИИ, который действительно обладает сознанием, и ИИ, который лишь кажется таковым. В-третьих, следует применять аналогичные этические соображения к другим неоднозначным случаям, таким как люди с повреждениями мозга, животные, э


Новое на сайте

18763Зачем черепахам панцирь: для защиты или рытья нор, и все ли умеют в нем прятаться? 18762Почему критическая уязвимость шестилетней давности в роутерах Sierra Wireless угрожает... 18761Как подросток пережил атаку льва 6200 лет назад и почему его похоронили как опасного... 18760Почему случайные травмы превращаются в вечные рисунки на теле? 18759Почему Apple экстренно закрывает уязвимости, используемые для атак на конкретных людей? 18758Какие открытия от Марса до темной материи меняют научную картину мира? 18757Как ультрагорячая супер-Земля TOI-561 b сумела сохранить плотную атмосферу в... 18756Третий межзвездный странник 3I/ATLAS меняет цвет и проявляет аномальную активность 18754Раскопки виселицы XVI века и массовых захоронений казненных мятежников в Гренобле 18753Почему скрытая инфекция убила гигантского крокодила Кассиуса после 40 лет жизни в неволе? 18752Первая церемония Global Space Awards в Лондоне определила лидеров космической индустрии 18751Как новые фишинговые инструменты BlackForce, GhostFrame и гибридные атаки 2025 года... 18750Колоссальная «зеленая стена» Китая: полувековая битва с наступлением пустынь 18749Как превратить браузер в надежный центр управления безопасностью GenAI и предотвратить...