Когда искусственный интеллект спорит с нашей моралью: исследование оправданного отказа от помощи

Исследование, опубликованное 27 января 2025 года в журнале Scientific Reports, проливает свет на то, как люди воспринимают моральные суждения, вынесенные искусственным интеллектом (ИИ), особенно когда эти суждения противоречат человеческой морали. В центре внимания оказался так называемый «оправданный отказ от сотрудничества» — ситуация, когда человек решает не помогать другим, имеющим плохую репутацию. Эта область, где человеческое моральное суждение часто бывает субъективным и не всегда однозначным.
Когда искусственный интеллект спорит с нашей моралью: исследование оправданного отказа от помощи
Изображение носит иллюстративный характер

В рамках исследования, проведенного докторами профессорами Хитоши Ямамото из Университета Риссё и Такахисой Сузуки из Университета Цуда, использовалась модель рабочего места. В этой модели участники должны были оценить решения менеджеров — человеческого и искусственного интеллекта — о том, стоит ли помогать другим сотрудникам на основе их репутации. Эксперименты, в которых приняли участие жители Японии, продемонстрировали интересную закономерность: люди склонны больше доверять суждениям ИИ, когда он оправдывает отказ от помощи в ситуациях, когда человек, скорее всего, осудил бы такое поведение.

Результаты показали, что, когда ИИ выносил позитивное решение (оправдывая отказ в помощи), противоположное негативному суждению человека, люди гораздо охотнее соглашались с его вердиктом. Это явление можно объяснить восприятием ИИ как более объективного арбитра, способного принимать решения, свободные от предвзятости и скрытых человеческих мотивов. Таким образом, контекст принятия решений имеет решающее значение для формирования доверия к моральным суждениям ИИ.

Исследование также поднимает вопрос о существовании двух противоположных установок по отношению к ИИ: «алгоритмическая антипатия», когда люди склонны не доверять решениям, принятым алгоритмами, и «алгоритмическая симпатия», когда алгоритмы воспринимаются как более надежные и объективные, чем люди. Как показало это исследование, последняя установка доминирует в тех случаях, когда ИИ выступает в качестве альтернативы «неидеальному» человеческому моральному суждению.

Использование ИИ в повседневной жизни и сложных системах принятия решений растет, и поэтому понимание того, как люди принимают моральные суждения, вынесенные ИИ, становится все более важным. Эти результаты не только помогают понять, почему и как люди принимают решения ИИ в социальных и этических контекстах, но и дают ценные сведения для разработки ИИ-систем, которые будут соответствовать общественным ожиданиям.

Особое значение имеет понимание механизмов принятия решений ИИ в ситуациях «оправданного отказа от сотрудничества», поскольку именно здесь человеческое моральное суждение может быть особенно сложным и противоречивым. Вопрос о том, насколько мы готовы доверить искусственному интеллекту принимать моральные решения за нас, остается открытым, но исследование показывает, что наше доверие к ИИ во многом зависит от контекста и результатов его решений.

Работа докторов профессоров Ямамото и Сузуки подчеркивает, что восприятие объективности искусственного интеллекта играет ключевую роль в принятии его решений. В ситуациях, где человеческая предвзятость может стать проблемой, ИИ может рассматриваться как более беспристрастная альтернатива. Это открывает новые перспективы для использования ИИ в процессах принятия решений в различных областях, включая этические вопросы.

По мере того, как ИИ становится все более интегрированным в нашу жизнь, понимание того, как мы оцениваем его моральные суждения, становится все более важным. Исследование подчеркивает необходимость учитывать контекст и потенциальные предрассудки как человеческие, так и алгоритмические, при разработке систем искусственного интеллекта, способных принимать этически обоснованные решения. Это исследование — важный шаг на пути к пониманию сложной динамики взаимодействия человека и искусственного интеллекта в сфере морали.


Новое на сайте

19164Уязвимые обучающие приложения открывают доступ к облакам Fortune 500 для криптомайнинга 19163Почему ботнет SSHStalker успешно атакует Linux уязвимостями десятилетней давности? 19162Microsoft устранила шесть уязвимостей нулевого дня и анонсировала радикальные изменения в... 19161Эскалация цифровой угрозы: как IT-специалисты КНДР используют реальные личности для... 19160Скрытые потребности клиентов и преимущество наблюдения над опросами 19159Академическое фиаско Дороти Паркер в Лос-Анджелесе 19158Китайский шпионский фреймворк DKnife захватывает роутеры с 2019 года 19157Каким образом корейские детские хоры 1950-х годов превратили геополитику в музыку и... 19156Научная революция цвета в женской моде викторианской эпохи 19155Как новый сканер Microsoft обнаруживает «спящих агентов» в открытых моделях ИИ? 19154Как новая кампания DEADVAX использует файлы VHD для скрытой доставки трояна AsyncRAT? 19153Как новые китайские киберкампании взламывают госструктуры Юго-Восточной Азии? 19152Культ священного манго и закат эпохи хунвейбинов в маоистском Китае 19151Готовы ли вы к эре коэффициента адаптивности, когда IQ и EQ больше не гарантируют успех? 19150Иранская группировка RedKitten применяет сгенерированный нейросетями код для кибершпионажа
Ссылка