В 2022 году инженер Google Блейк Лемуан был уволен после того, как заявил, что разрабатываемый компанией чат-бот обладает сознанием. Недавно Кайл Фиш, «исследователь благополучия ИИ» из компании Anthropic, сообщил New York Times, что вероятность того, что современные чат-боты уже обладают сознанием, составляет около 15%. Дискуссии о сознании искусственного интеллекта переместились из философских кругов в мейнстрим академической науки и технологической индустрии.
Вероятность возникновения искусственного сознания значительно ниже, чем полагает большинство людей, и существенно меньше упомянутых 15%. Существует три ключевые причины, по которым мы склонны переоценивать возможность сознания у ИИ.
Первая причина связана с психологическими предубеждениями. Мы интуитивно предполагаем, что интеллект и сознание неразрывно связаны. Особенно сильно эта тенденция проявляется в отношении языковых моделей ИИ. Люди задаются вопросом, обладает ли сознанием чат-бот Claude от Anthropic, но редко задумываются о сознании AlphaFold от DeepMind, хотя оба являются сложными системами искусственного интеллекта.
Вторая причина — распространенное заблуждение о сходстве мозга и компьютера. Предположение, что мозг функционирует как компьютер, в корне неверно. В отличие от компьютеров, в мозге нет четкого разделения между «программным обеспечением» и «аппаратной частью». Один нейрон представляет собой «невероятно сложную биологическую фабрику». Концепция мозга как компьютера — всего лишь метафора, которая не отражает реальную биологическую сложность.
Третья причина заключается в игнорировании альтернативных объяснений природы сознания. Сознание может возникать из нашей сущности как живых существ. Возможно, именно «жизнь», а не «обработка информации» создает сознание.
Даже если современный ИИ не обладает сознанием, ситуация может измениться с развитием «нейроморфных» технологий, которые становятся все более похожими на мозг. ИИ, который лишь кажется обладающим сознанием, уже представляет этическую проблему, поскольку может эксплуатировать психологические уязвимости людей, искажать моральные приоритеты и «ожесточать наше сознание», если мы будем игнорировать кажущиеся мольбы о помощи.
В свете этих проблем можно сформулировать несколько рекомендаций. Во-первых, не следует целенаправленно пытаться создать искусственное сознание. Во-вторых, необходимо проводить четкое различие между ИИ, который действительно обладает сознанием, и ИИ, который лишь кажется таковым. В-третьих, следует применять аналогичные этические соображения к другим неоднозначным случаям, таким как люди с повреждениями мозга, животные, э
Вероятность возникновения искусственного сознания значительно ниже, чем полагает большинство людей, и существенно меньше упомянутых 15%. Существует три ключевые причины, по которым мы склонны переоценивать возможность сознания у ИИ.
Первая причина связана с психологическими предубеждениями. Мы интуитивно предполагаем, что интеллект и сознание неразрывно связаны. Особенно сильно эта тенденция проявляется в отношении языковых моделей ИИ. Люди задаются вопросом, обладает ли сознанием чат-бот Claude от Anthropic, но редко задумываются о сознании AlphaFold от DeepMind, хотя оба являются сложными системами искусственного интеллекта.
Вторая причина — распространенное заблуждение о сходстве мозга и компьютера. Предположение, что мозг функционирует как компьютер, в корне неверно. В отличие от компьютеров, в мозге нет четкого разделения между «программным обеспечением» и «аппаратной частью». Один нейрон представляет собой «невероятно сложную биологическую фабрику». Концепция мозга как компьютера — всего лишь метафора, которая не отражает реальную биологическую сложность.
Третья причина заключается в игнорировании альтернативных объяснений природы сознания. Сознание может возникать из нашей сущности как живых существ. Возможно, именно «жизнь», а не «обработка информации» создает сознание.
Даже если современный ИИ не обладает сознанием, ситуация может измениться с развитием «нейроморфных» технологий, которые становятся все более похожими на мозг. ИИ, который лишь кажется обладающим сознанием, уже представляет этическую проблему, поскольку может эксплуатировать психологические уязвимости людей, искажать моральные приоритеты и «ожесточать наше сознание», если мы будем игнорировать кажущиеся мольбы о помощи.
В свете этих проблем можно сформулировать несколько рекомендаций. Во-первых, не следует целенаправленно пытаться создать искусственное сознание. Во-вторых, необходимо проводить четкое различие между ИИ, который действительно обладает сознанием, и ИИ, который лишь кажется таковым. В-третьих, следует применять аналогичные этические соображения к другим неоднозначным случаям, таким как люди с повреждениями мозга, животные, э