Ssylka

Когда искусственный интеллект спорит с нашей моралью: исследование оправданного отказа от помощи

Исследование, опубликованное 27 января 2025 года в журнале Scientific Reports, проливает свет на то, как люди воспринимают моральные суждения, вынесенные искусственным интеллектом (ИИ), особенно когда эти суждения противоречат человеческой морали. В центре внимания оказался так называемый «оправданный отказ от сотрудничества» — ситуация, когда человек решает не помогать другим, имеющим плохую репутацию. Эта область, где человеческое моральное суждение часто бывает субъективным и не всегда однозначным.
Когда искусственный интеллект спорит с нашей моралью: исследование оправданного отказа от помощи
Изображение носит иллюстративный характер

В рамках исследования, проведенного докторами профессорами Хитоши Ямамото из Университета Риссё и Такахисой Сузуки из Университета Цуда, использовалась модель рабочего места. В этой модели участники должны были оценить решения менеджеров — человеческого и искусственного интеллекта — о том, стоит ли помогать другим сотрудникам на основе их репутации. Эксперименты, в которых приняли участие жители Японии, продемонстрировали интересную закономерность: люди склонны больше доверять суждениям ИИ, когда он оправдывает отказ от помощи в ситуациях, когда человек, скорее всего, осудил бы такое поведение.

Результаты показали, что, когда ИИ выносил позитивное решение (оправдывая отказ в помощи), противоположное негативному суждению человека, люди гораздо охотнее соглашались с его вердиктом. Это явление можно объяснить восприятием ИИ как более объективного арбитра, способного принимать решения, свободные от предвзятости и скрытых человеческих мотивов. Таким образом, контекст принятия решений имеет решающее значение для формирования доверия к моральным суждениям ИИ.

Исследование также поднимает вопрос о существовании двух противоположных установок по отношению к ИИ: «алгоритмическая антипатия», когда люди склонны не доверять решениям, принятым алгоритмами, и «алгоритмическая симпатия», когда алгоритмы воспринимаются как более надежные и объективные, чем люди. Как показало это исследование, последняя установка доминирует в тех случаях, когда ИИ выступает в качестве альтернативы «неидеальному» человеческому моральному суждению.

Использование ИИ в повседневной жизни и сложных системах принятия решений растет, и поэтому понимание того, как люди принимают моральные суждения, вынесенные ИИ, становится все более важным. Эти результаты не только помогают понять, почему и как люди принимают решения ИИ в социальных и этических контекстах, но и дают ценные сведения для разработки ИИ-систем, которые будут соответствовать общественным ожиданиям.

Особое значение имеет понимание механизмов принятия решений ИИ в ситуациях «оправданного отказа от сотрудничества», поскольку именно здесь человеческое моральное суждение может быть особенно сложным и противоречивым. Вопрос о том, насколько мы готовы доверить искусственному интеллекту принимать моральные решения за нас, остается открытым, но исследование показывает, что наше доверие к ИИ во многом зависит от контекста и результатов его решений.

Работа докторов профессоров Ямамото и Сузуки подчеркивает, что восприятие объективности искусственного интеллекта играет ключевую роль в принятии его решений. В ситуациях, где человеческая предвзятость может стать проблемой, ИИ может рассматриваться как более беспристрастная альтернатива. Это открывает новые перспективы для использования ИИ в процессах принятия решений в различных областях, включая этические вопросы.

По мере того, как ИИ становится все более интегрированным в нашу жизнь, понимание того, как мы оцениваем его моральные суждения, становится все более важным. Исследование подчеркивает необходимость учитывать контекст и потенциальные предрассудки как человеческие, так и алгоритмические, при разработке систем искусственного интеллекта, способных принимать этически обоснованные решения. Это исследование — важный шаг на пути к пониманию сложной динамики взаимодействия человека и искусственного интеллекта в сфере морали.


Новое на сайте

7986Как предотвратить болезнь Альцгеймера: комплексный подход 7985Можно ли построить универсальный интерфейс на основе роя агентов LLM? 7983Мода на изменчивость: от расцвета бодипозитива до возвращения «худобы» 7982Как безопасно устранить сбои в программном обеспечении под нагрузкой? 7981Как эффективно восстановить бизнес-требования к существующей системе? 7980Как получить информацию о процессах и их модулях, не читая чужую память? 7979Как каннабис влияет на когнитивные функции мозга в разном возрасте? 7978Как эффективно использовать аудиозаписи и транскрипцию в приложении заметки на iOS 18? 7977Возможно ли чтение мыслей в реальном времени? 7976Почему обратная связь стала невыносимой и как это исправить? 7975Метеорологические промахи Фила из Панксатони: наука против традиции в День сурка 7974Может ли измерение создавать реальность? 7973Как управлять временем: Спин-волновое синхронное взаимодействие наноосцилляторов 7972Может ли супер-Земля стать колыбелью жизни, а мутация - ключом к зомбированию?