Когда искусственный интеллект спорит с нашей моралью: исследование оправданного отказа от помощи

Исследование, опубликованное 27 января 2025 года в журнале Scientific Reports, проливает свет на то, как люди воспринимают моральные суждения, вынесенные искусственным интеллектом (ИИ), особенно когда эти суждения противоречат человеческой морали. В центре внимания оказался так называемый «оправданный отказ от сотрудничества» — ситуация, когда человек решает не помогать другим, имеющим плохую репутацию. Эта область, где человеческое моральное суждение часто бывает субъективным и не всегда однозначным.
Когда искусственный интеллект спорит с нашей моралью: исследование оправданного отказа от помощи
Изображение носит иллюстративный характер

В рамках исследования, проведенного докторами профессорами Хитоши Ямамото из Университета Риссё и Такахисой Сузуки из Университета Цуда, использовалась модель рабочего места. В этой модели участники должны были оценить решения менеджеров — человеческого и искусственного интеллекта — о том, стоит ли помогать другим сотрудникам на основе их репутации. Эксперименты, в которых приняли участие жители Японии, продемонстрировали интересную закономерность: люди склонны больше доверять суждениям ИИ, когда он оправдывает отказ от помощи в ситуациях, когда человек, скорее всего, осудил бы такое поведение.

Результаты показали, что, когда ИИ выносил позитивное решение (оправдывая отказ в помощи), противоположное негативному суждению человека, люди гораздо охотнее соглашались с его вердиктом. Это явление можно объяснить восприятием ИИ как более объективного арбитра, способного принимать решения, свободные от предвзятости и скрытых человеческих мотивов. Таким образом, контекст принятия решений имеет решающее значение для формирования доверия к моральным суждениям ИИ.

Исследование также поднимает вопрос о существовании двух противоположных установок по отношению к ИИ: «алгоритмическая антипатия», когда люди склонны не доверять решениям, принятым алгоритмами, и «алгоритмическая симпатия», когда алгоритмы воспринимаются как более надежные и объективные, чем люди. Как показало это исследование, последняя установка доминирует в тех случаях, когда ИИ выступает в качестве альтернативы «неидеальному» человеческому моральному суждению.

Использование ИИ в повседневной жизни и сложных системах принятия решений растет, и поэтому понимание того, как люди принимают моральные суждения, вынесенные ИИ, становится все более важным. Эти результаты не только помогают понять, почему и как люди принимают решения ИИ в социальных и этических контекстах, но и дают ценные сведения для разработки ИИ-систем, которые будут соответствовать общественным ожиданиям.

Особое значение имеет понимание механизмов принятия решений ИИ в ситуациях «оправданного отказа от сотрудничества», поскольку именно здесь человеческое моральное суждение может быть особенно сложным и противоречивым. Вопрос о том, насколько мы готовы доверить искусственному интеллекту принимать моральные решения за нас, остается открытым, но исследование показывает, что наше доверие к ИИ во многом зависит от контекста и результатов его решений.

Работа докторов профессоров Ямамото и Сузуки подчеркивает, что восприятие объективности искусственного интеллекта играет ключевую роль в принятии его решений. В ситуациях, где человеческая предвзятость может стать проблемой, ИИ может рассматриваться как более беспристрастная альтернатива. Это открывает новые перспективы для использования ИИ в процессах принятия решений в различных областях, включая этические вопросы.

По мере того, как ИИ становится все более интегрированным в нашу жизнь, понимание того, как мы оцениваем его моральные суждения, становится все более важным. Исследование подчеркивает необходимость учитывать контекст и потенциальные предрассудки как человеческие, так и алгоритмические, при разработке систем искусственного интеллекта, способных принимать этически обоснованные решения. Это исследование — важный шаг на пути к пониманию сложной динамики взаимодействия человека и искусственного интеллекта в сфере морали.


Новое на сайте

19521Банковский троян VENON на Rust атакует Бразилию с помощью девяти техник обхода защиты 19520Бонобо агрессивны не меньше шимпанзе, но всё решают самки 19519Почему 600-килограммовый зонд NASA падает на Землю из-за солнечной активности? 19518«Липовый календарь»: как расписание превращает работников в расходный материал 19517Вредоносные Rust-пакеты и ИИ-бот крадут секреты разработчиков через CI/CD-пайплайны 19516Как хакеры за 72 часа превратили npm-пакет в ключ от целого облака AWS 19515Как WebDAV-диск и поддельная капча помогают обойти антивирус? 19514Могут ли простые числа скрываться внутри чёрных дыр? 19513Метеорит пробил крышу дома в Германии — откуда взялся огненный шар над Европой? 19512Уязвимости LeakyLooker в Google Looker Studio открывали доступ к чужим базам данных 19511Почему тысячи серверов оказываются открытой дверью для хакеров, хотя могли бы ею не быть? 19510Как исследователи за четыре минуты заставили ИИ-браузер Perplexity Comet попасться на... 19509Может ли женщина без влагалища и шейки матки зачать ребёнка естественным путём? 19508Зачем учёные из Вены создали QR-код, который невозможно увидеть без электронного... 19507Девять уязвимостей CrackArmor позволяют получить root-доступ через модуль безопасности...
Ссылка