Почему мы переоцениваем вероятность сознания у искусственного интеллекта?

В 2022 году инженер Google Блейк Лемуан был уволен после того, как заявил, что разрабатываемый компанией чат-бот обладает сознанием. Недавно Кайл Фиш, «исследователь благополучия ИИ» из компании Anthropic, сообщил New York Times, что вероятность того, что современные чат-боты уже обладают сознанием, составляет около 15%. Дискуссии о сознании искусственного интеллекта переместились из философских кругов в мейнстрим академической науки и технологической индустрии.
Почему мы переоцениваем вероятность сознания у искусственного интеллекта?
Изображение носит иллюстративный характер

Вероятность возникновения искусственного сознания значительно ниже, чем полагает большинство людей, и существенно меньше упомянутых 15%. Существует три ключевые причины, по которым мы склонны переоценивать возможность сознания у ИИ.

Первая причина связана с психологическими предубеждениями. Мы интуитивно предполагаем, что интеллект и сознание неразрывно связаны. Особенно сильно эта тенденция проявляется в отношении языковых моделей ИИ. Люди задаются вопросом, обладает ли сознанием чат-бот Claude от Anthropic, но редко задумываются о сознании AlphaFold от DeepMind, хотя оба являются сложными системами искусственного интеллекта.

Вторая причина — распространенное заблуждение о сходстве мозга и компьютера. Предположение, что мозг функционирует как компьютер, в корне неверно. В отличие от компьютеров, в мозге нет четкого разделения между «программным обеспечением» и «аппаратной частью». Один нейрон представляет собой «невероятно сложную биологическую фабрику». Концепция мозга как компьютера — всего лишь метафора, которая не отражает реальную биологическую сложность.

Третья причина заключается в игнорировании альтернативных объяснений природы сознания. Сознание может возникать из нашей сущности как живых существ. Возможно, именно «жизнь», а не «обработка информации» создает сознание.

Даже если современный ИИ не обладает сознанием, ситуация может измениться с развитием «нейроморфных» технологий, которые становятся все более похожими на мозг. ИИ, который лишь кажется обладающим сознанием, уже представляет этическую проблему, поскольку может эксплуатировать психологические уязвимости людей, искажать моральные приоритеты и «ожесточать наше сознание», если мы будем игнорировать кажущиеся мольбы о помощи.

В свете этих проблем можно сформулировать несколько рекомендаций. Во-первых, не следует целенаправленно пытаться создать искусственное сознание. Во-вторых, необходимо проводить четкое различие между ИИ, который действительно обладает сознанием, и ИИ, который лишь кажется таковым. В-третьих, следует применять аналогичные этические соображения к другим неоднозначным случаям, таким как люди с повреждениями мозга, животные, э


Новое на сайте

19171Вредоносное по VoidLink: созданная с помощью ИИ угроза для облачных систем и финансового... 19170Палеонтологические поиски и научные убеждения Томаса Джефферсона 19169Спасут ли обновленные протоколы безопасности npm от атак на цепочки поставок? 19168Почему критическая уязвимость BeyondTrust и новые записи в каталоге CISA требуют... 19167Севернокорейская хакерская группировка Lazarus маскирует вредоносный код под тестовые... 19166Государственные хакеры используют Google Gemini для кибершпионажа и клонирования моделей... 19165Можно ли построить мировую сверхдержаву на чашках чая и фунтах сахара? 19164Уязвимые обучающие приложения открывают доступ к облакам Fortune 500 для криптомайнинга 19163Почему ботнет SSHStalker успешно атакует Linux уязвимостями десятилетней давности? 19162Microsoft устранила шесть уязвимостей нулевого дня и анонсировала радикальные изменения в... 19161Эскалация цифровой угрозы: как IT-специалисты КНДР используют реальные личности для... 19160Скрытые потребности клиентов и преимущество наблюдения над опросами 19159Академическое фиаско Дороти Паркер в Лос-Анджелесе 19158Китайский шпионский фреймворк DKnife захватывает роутеры с 2019 года 19157Каким образом корейские детские хоры 1950-х годов превратили геополитику в музыку и...
Ссылка