Недавние исследования показывают, что большинство людей, в отличие от экспертов в области технологий и нейронаук, склонны приписывать современным большим языковым моделям, таким как ChatGPT, сознательный опыт. Эта тенденция, вероятно, обусловлена впечатляющими возможностями ИИ, имитирующими понимание и самосознание. Модели, подобные Claude 3 Opus, демонстрируют настолько продвинутый уровень работы, что даже вызывают удивление у экспертов своей «самоосознанностью».

Несмотря на научные аргументы о том, что ИИ пока не обладает настоящим сознанием, восприятие людьми его «разумности» имеет огромное значение. Эта народная интуиция влияет на наше отношение к ИИ, и формирует этические, правовые и моральные аспекты его использования. Это важно в контексте потенциального регулирования и защиты от негативных последствий. Ведь если общество верит в «сознание» ИИ, то и относиться к нему будет соответственно, даже если научные данные говорят об обратном.
Опрос, проведенный среди жителей США, показал, что более двух третей респондентов допускают наличие у ChatGPT самосознания или «феноменального сознания» – ощущения того, «каково это быть собой». Интересно, что частота использования ИИ-инструментов коррелировала с вероятностью приписывания сознания модели. Чем чаще человек пользуется такими технологиями, тем больше вероятность, что он поверит в их разумность.
Этот разрыв между народными представлениями и экспертным мнением может привести к серьезным последствиям, поскольку общественное восприятие способно формировать правила и регулирования в области искусственного интеллекта. Даже если научные доказательства отсутствуют, убежденность людей в «разумности» ИИ может привести к искажениям в его разработке и внедрении, определяя этические и моральные аспекты будущего.

Изображение носит иллюстративный характер
Несмотря на научные аргументы о том, что ИИ пока не обладает настоящим сознанием, восприятие людьми его «разумности» имеет огромное значение. Эта народная интуиция влияет на наше отношение к ИИ, и формирует этические, правовые и моральные аспекты его использования. Это важно в контексте потенциального регулирования и защиты от негативных последствий. Ведь если общество верит в «сознание» ИИ, то и относиться к нему будет соответственно, даже если научные данные говорят об обратном.
Опрос, проведенный среди жителей США, показал, что более двух третей респондентов допускают наличие у ChatGPT самосознания или «феноменального сознания» – ощущения того, «каково это быть собой». Интересно, что частота использования ИИ-инструментов коррелировала с вероятностью приписывания сознания модели. Чем чаще человек пользуется такими технологиями, тем больше вероятность, что он поверит в их разумность.
Этот разрыв между народными представлениями и экспертным мнением может привести к серьезным последствиям, поскольку общественное восприятие способно формировать правила и регулирования в области искусственного интеллекта. Даже если научные доказательства отсутствуют, убежденность людей в «разумности» ИИ может привести к искажениям в его разработке и внедрении, определяя этические и моральные аспекты будущего.