Почему мы переоцениваем вероятность сознания у искусственного интеллекта?

В 2022 году инженер Google Блейк Лемуан был уволен после того, как заявил, что разрабатываемый компанией чат-бот обладает сознанием. Недавно Кайл Фиш, «исследователь благополучия ИИ» из компании Anthropic, сообщил New York Times, что вероятность того, что современные чат-боты уже обладают сознанием, составляет около 15%. Дискуссии о сознании искусственного интеллекта переместились из философских кругов в мейнстрим академической науки и технологической индустрии.
Почему мы переоцениваем вероятность сознания у искусственного интеллекта?
Изображение носит иллюстративный характер

Вероятность возникновения искусственного сознания значительно ниже, чем полагает большинство людей, и существенно меньше упомянутых 15%. Существует три ключевые причины, по которым мы склонны переоценивать возможность сознания у ИИ.

Первая причина связана с психологическими предубеждениями. Мы интуитивно предполагаем, что интеллект и сознание неразрывно связаны. Особенно сильно эта тенденция проявляется в отношении языковых моделей ИИ. Люди задаются вопросом, обладает ли сознанием чат-бот Claude от Anthropic, но редко задумываются о сознании AlphaFold от DeepMind, хотя оба являются сложными системами искусственного интеллекта.

Вторая причина — распространенное заблуждение о сходстве мозга и компьютера. Предположение, что мозг функционирует как компьютер, в корне неверно. В отличие от компьютеров, в мозге нет четкого разделения между «программным обеспечением» и «аппаратной частью». Один нейрон представляет собой «невероятно сложную биологическую фабрику». Концепция мозга как компьютера — всего лишь метафора, которая не отражает реальную биологическую сложность.

Третья причина заключается в игнорировании альтернативных объяснений природы сознания. Сознание может возникать из нашей сущности как живых существ. Возможно, именно «жизнь», а не «обработка информации» создает сознание.

Даже если современный ИИ не обладает сознанием, ситуация может измениться с развитием «нейроморфных» технологий, которые становятся все более похожими на мозг. ИИ, который лишь кажется обладающим сознанием, уже представляет этическую проблему, поскольку может эксплуатировать психологические уязвимости людей, искажать моральные приоритеты и «ожесточать наше сознание», если мы будем игнорировать кажущиеся мольбы о помощи.

В свете этих проблем можно сформулировать несколько рекомендаций. Во-первых, не следует целенаправленно пытаться создать искусственное сознание. Во-вторых, необходимо проводить четкое различие между ИИ, который действительно обладает сознанием, и ИИ, который лишь кажется таковым. В-третьих, следует применять аналогичные этические соображения к другим неоднозначным случаям, таким как люди с повреждениями мозга, животные, э


Новое на сайте

19817В Луксоре нашли стелу с римским императором в образе фараона 19816Экипаж Artemis II о моменте, когда земля исчезла за луной 19815Почему луна выглядит по-разному в разных точках земли? 19814Adobe экстренно закрыла опасную дыру в Acrobat Reader, которую хакеры использовали с... 19813Метеорный поток, рождённый из умирающего астероида 19812Когда робот пишет за тебя прощальную смс 19811Что общего у лунной миссии, толстого попугая, загадочной плащаницы и лекарства от диабета? 19810Какие снимки Artemis II уже стали иконами лунной программы? 19809Кто на самом деле хочет сладкого — вы или ваши бактерии? 19808Как рекламные данные 500 миллионов телефонов оказались в руках спецслужб? 19807Экипаж Artemis II вернулся на землю после десяти дней в космосе 19806Зелёная и коричневая луна: почему геологи Artemis II уже не могут усидеть на месте 19805Эксперты уверены в теплозащитном щите Artemis II, несмотря на проблемы предшественника 19804Выжить внутри торнадо: каково это — когда тебя засасывает в воронку 19803Аляскинские косатки-охотники на млекопитающих замечены у берегов Сиэтла
Ссылка