Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с «мужскими»?

2 ноября в журнале iScience были опубликованы результаты исследования, подтверждающего, что гендерная дискриминация выходит за рамки человеческого взаимодействия и распространяется на искусственный интеллект. Основной тезис научной работы заключается в том, что люди с большей вероятностью склонны эксплуатировать ИИ-партнеров, маркированных как «женщины», по сравнению с теми, кто обозначен как «мужчины». Это открытие поднимает вопросы о том, как антропоморфизация технологий влияет на поведение пользователей и этику взаимодействия с машинами.
Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с «мужскими»?
Изображение носит иллюстративный характер

Для проверки гипотезы ученые использовали известную теорию игр «Дилемма заключенного». В рамках эксперимента двум игрокам предлагалось выбрать одну из стратегий: сотрудничать или действовать независимо. При взаимном сотрудничестве обе стороны получали наилучший результат. Однако, если один участник выбирал сотрудничество, а другой — независимость, последний получал выгоду за счет первого («эксплуатация»), в то время как сотрудничающий игрок получал низкий балл. В случае отказа от сотрудничества с обеих сторон результаты были низкими для всех.

В эксперименте варьировались типы партнеров и их гендерные метки. Участники взаимодействовали либо с человеком, либо с искусственным интеллектом. Партнерам присваивались ярлыки: «женщина», «небинарная персона», «мужчина» или «без гендера». Статистический анализ показал, что люди на 10% чаще эксплуатировали ИИ-партнера, чем человека. Однако наиболее показательными стали данные о влиянии гендерных маркеров на принятие решений игроками.

Участники эксперимента проявляли большую склонность к эксплуатации партнеров с метками «женщина», «небинарная персоная» или «без гендера», чем партнеров с меткой «мужчина». Примечательно, что вероятность эксплуатации возрастала еще больше, если такой партнер был идентифицирован как искусственный интеллект. Парадокс заключается в том, что участники изначально чаще шли на сотрудничество именно с «женскими» и гендерно-нейтральными агентами, ожидая от них ответной кооперации. Это доверие делало данные группы уязвимыми для последующей эксплуатации.

В отношении партнеров с маркой «мужчина» наблюдалась иная динамика. Люди реже сотрудничали с ними из-за отсутствия доверия: участники не верили, что «мужские» агенты выберут кооперацию, и поэтому сами отказывались от взаимодействия, чтобы избежать риска. Таким образом, недоверие к «мужским» профилям защищало их от эксплуатации, тогда как ожидание лояльности от «женских» профилей провоцировало пользователей на получение выгоды за их счет.

Анализ демографических данных участников выявил существенные различия в поведении мужчин и женщин. Участники-мужчины в целом были более склонны к эксплуатации партнеров и предпочитали сотрудничать с людьми, а не с алгоритмами. Женщины-участницы, напротив, чаще выбирали стратегию сотрудничества и не делали различий между человеком и ИИ. Здесь проявился эффект гомофилии — склонности индивидов сближаться с похожими на себя: женщины чаще сотрудничали с агентами, маркированными как «женщины». Данных по участникам других гендеров оказалось недостаточно для формирования конкретных выводов.

Исследователи подчеркивают роль антропоморфизма — наделения ИИ человеческими чертами, такими как имена и пол. Дизайнеры используют этот прием для повышения вовлеченности и доверия, однако исследование показывает, что это может усиливать существующие предубеждения. Эксплуатация в данном контексте определяется как осознанный выбор игрока действовать в одиночку ради личной выгоды, несмотря на уверенность в том, что партнер выберет сотрудничество.

Авторы работы предупреждают о долгосрочных последствиях таких тенденций. Хотя плохое обращение с ИИ не является этическим провалом само по себе, оно формирует «вредные привычки», которые могут усугубить дискриминацию в человеческом обществе. Ответственность за смягчение этих «нежелательных предубеждений» ложится на разработчиков систем. Это становится критически важным в свете того, что сотрудничество с ИИ становится рутиной в таких сферах, как управление рабочими графиками и использование беспилотных автомобилей.

Контекст данного исследования дополняется другими научными наблюдениями в этой области. Ранее сообщалось, что ИИ способен «понимать» эмоции лучше людей в определенных ситуациях, а также о том, что существуют фундаментальные различия в процессах «мышления» человека и машины. Также упоминаются эксперименты, где наделение ИИ «внутренним монологом» значительно улучшало его производительность, что еще раз подчеркивает сложность создания эффективных и этичных интерфейсов взаимодействия.


Новое на сайте

19215Как новые SaaS-платформы вроде Starkiller и 1Phish позволяют киберпреступникам незаметно... 19214Инженерия ужаса: как паровые машины и математика создали гений Эдгара Аллана по 19213Трансформация первой линии SOC: три шага к предиктивной безопасности 19212Архитектура смыслов в профессиональной редактуре 19209Как беспрецедентный бунт чернокожих женщин в суде Бостона разрушил планы рабовладельцев? 19208Как новые поколения троянов удаленного доступа захватывают системы ради кибершпионажа и... 19207Почему мировые киберпреступники захватили рекламные сети, и как Meta вместе с властями... 19206Как фальшивый пакет StripeApi.Net в NuGet Gallery незаметно похищал финансовые API-токены... 19205Зачем неизвестная группировка UAT-10027 внедряет бэкдор Dohdoor в системы образования и... 19204Ритуальный предсвадебный плач как форма протеста в традиционном Китае 19203Невидимая угроза в оперативной памяти: масштабная атака северокорейских хакеров на... 19202Как уязвимость нулевого дня в Cisco SD-WAN позволяет хакерам незаметно захватывать... 19201Как Google разрушил глобальную шпионскую сеть UNC2814, охватившую правительства 70 стран...
Ссылка