Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с «мужскими»?

2 ноября в журнале iScience были опубликованы результаты исследования, подтверждающего, что гендерная дискриминация выходит за рамки человеческого взаимодействия и распространяется на искусственный интеллект. Основной тезис научной работы заключается в том, что люди с большей вероятностью склонны эксплуатировать ИИ-партнеров, маркированных как «женщины», по сравнению с теми, кто обозначен как «мужчины». Это открытие поднимает вопросы о том, как антропоморфизация технологий влияет на поведение пользователей и этику взаимодействия с машинами.
Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с «мужскими»?
Изображение носит иллюстративный характер

Для проверки гипотезы ученые использовали известную теорию игр «Дилемма заключенного». В рамках эксперимента двум игрокам предлагалось выбрать одну из стратегий: сотрудничать или действовать независимо. При взаимном сотрудничестве обе стороны получали наилучший результат. Однако, если один участник выбирал сотрудничество, а другой — независимость, последний получал выгоду за счет первого («эксплуатация»), в то время как сотрудничающий игрок получал низкий балл. В случае отказа от сотрудничества с обеих сторон результаты были низкими для всех.

В эксперименте варьировались типы партнеров и их гендерные метки. Участники взаимодействовали либо с человеком, либо с искусственным интеллектом. Партнерам присваивались ярлыки: «женщина», «небинарная персона», «мужчина» или «без гендера». Статистический анализ показал, что люди на 10% чаще эксплуатировали ИИ-партнера, чем человека. Однако наиболее показательными стали данные о влиянии гендерных маркеров на принятие решений игроками.

Участники эксперимента проявляли большую склонность к эксплуатации партнеров с метками «женщина», «небинарная персоная» или «без гендера», чем партнеров с меткой «мужчина». Примечательно, что вероятность эксплуатации возрастала еще больше, если такой партнер был идентифицирован как искусственный интеллект. Парадокс заключается в том, что участники изначально чаще шли на сотрудничество именно с «женскими» и гендерно-нейтральными агентами, ожидая от них ответной кооперации. Это доверие делало данные группы уязвимыми для последующей эксплуатации.

В отношении партнеров с маркой «мужчина» наблюдалась иная динамика. Люди реже сотрудничали с ними из-за отсутствия доверия: участники не верили, что «мужские» агенты выберут кооперацию, и поэтому сами отказывались от взаимодействия, чтобы избежать риска. Таким образом, недоверие к «мужским» профилям защищало их от эксплуатации, тогда как ожидание лояльности от «женских» профилей провоцировало пользователей на получение выгоды за их счет.

Анализ демографических данных участников выявил существенные различия в поведении мужчин и женщин. Участники-мужчины в целом были более склонны к эксплуатации партнеров и предпочитали сотрудничать с людьми, а не с алгоритмами. Женщины-участницы, напротив, чаще выбирали стратегию сотрудничества и не делали различий между человеком и ИИ. Здесь проявился эффект гомофилии — склонности индивидов сближаться с похожими на себя: женщины чаще сотрудничали с агентами, маркированными как «женщины». Данных по участникам других гендеров оказалось недостаточно для формирования конкретных выводов.

Исследователи подчеркивают роль антропоморфизма — наделения ИИ человеческими чертами, такими как имена и пол. Дизайнеры используют этот прием для повышения вовлеченности и доверия, однако исследование показывает, что это может усиливать существующие предубеждения. Эксплуатация в данном контексте определяется как осознанный выбор игрока действовать в одиночку ради личной выгоды, несмотря на уверенность в том, что партнер выберет сотрудничество.

Авторы работы предупреждают о долгосрочных последствиях таких тенденций. Хотя плохое обращение с ИИ не является этическим провалом само по себе, оно формирует «вредные привычки», которые могут усугубить дискриминацию в человеческом обществе. Ответственность за смягчение этих «нежелательных предубеждений» ложится на разработчиков систем. Это становится критически важным в свете того, что сотрудничество с ИИ становится рутиной в таких сферах, как управление рабочими графиками и использование беспилотных автомобилей.

Контекст данного исследования дополняется другими научными наблюдениями в этой области. Ранее сообщалось, что ИИ способен «понимать» эмоции лучше людей в определенных ситуациях, а также о том, что существуют фундаментальные различия в процессах «мышления» человека и машины. Также упоминаются эксперименты, где наделение ИИ «внутренним монологом» значительно улучшало его производительность, что еще раз подчеркивает сложность создания эффективных и этичных интерфейсов взаимодействия.


Новое на сайте

19224Многоступенчатая угроза VOIDGEIST: как злоумышленники скрытно внедряют трояны XWorm,... 19223Эпоха «вайбвейра»: ИИ и экзотический код в масштабных кибератаках группировки APT36 19222Почему переход на ИИ-управление рисками становится главным условием роста для современных... 19221Атака на телекоммуникации южной Америки: новые инструменты китайской группировки UAT-9244 19220Критические бреши Hikvision и Rockwell Automation спровоцировали экстренные меры... 19219Масштабная кампания ClickFix использует Windows Terminal для развертывания Lumma Stealer... 19218Критический март для Cisco: хакеры активно эксплуатируют уязвимости Catalyst SD-WAN... 19217Трансформация двухколесного будущего: от индустриального триумфа до постапокалиптического... 19216Смертельный симбиоз спама и эксплойтов: как хакеры захватывают корпоративные сети за 11... 19215Как новые SaaS-платформы вроде Starkiller и 1Phish позволяют киберпреступникам незаметно... 19214Инженерия ужаса: как паровые машины и математика создали гений Эдгара Аллана по 19213Трансформация первой линии SOC: три шага к предиктивной безопасности 19212Архитектура смыслов в профессиональной редактуре 19211Манипуляция легитимными редиректами OAuth как вектор скрытых атак на правительственные... 19210Как активно эксплуатируемая уязвимость CVE-2026-21385 в графике Qualcomm привела к...
Ссылка