Ssylka

Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с «мужскими»?

2 ноября в журнале iScience были опубликованы результаты исследования, подтверждающего, что гендерная дискриминация выходит за рамки человеческого взаимодействия и распространяется на искусственный интеллект. Основной тезис научной работы заключается в том, что люди с большей вероятностью склонны эксплуатировать ИИ-партнеров, маркированных как «женщины», по сравнению с теми, кто обозначен как «мужчины». Это открытие поднимает вопросы о том, как антропоморфизация технологий влияет на поведение пользователей и этику взаимодействия с машинами.
Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с «мужскими»?
Изображение носит иллюстративный характер

Для проверки гипотезы ученые использовали известную теорию игр «Дилемма заключенного». В рамках эксперимента двум игрокам предлагалось выбрать одну из стратегий: сотрудничать или действовать независимо. При взаимном сотрудничестве обе стороны получали наилучший результат. Однако, если один участник выбирал сотрудничество, а другой — независимость, последний получал выгоду за счет первого («эксплуатация»), в то время как сотрудничающий игрок получал низкий балл. В случае отказа от сотрудничества с обеих сторон результаты были низкими для всех.

В эксперименте варьировались типы партнеров и их гендерные метки. Участники взаимодействовали либо с человеком, либо с искусственным интеллектом. Партнерам присваивались ярлыки: «женщина», «небинарная персона», «мужчина» или «без гендера». Статистический анализ показал, что люди на 10% чаще эксплуатировали ИИ-партнера, чем человека. Однако наиболее показательными стали данные о влиянии гендерных маркеров на принятие решений игроками.

Участники эксперимента проявляли большую склонность к эксплуатации партнеров с метками «женщина», «небинарная персоная» или «без гендера», чем партнеров с меткой «мужчина». Примечательно, что вероятность эксплуатации возрастала еще больше, если такой партнер был идентифицирован как искусственный интеллект. Парадокс заключается в том, что участники изначально чаще шли на сотрудничество именно с «женскими» и гендерно-нейтральными агентами, ожидая от них ответной кооперации. Это доверие делало данные группы уязвимыми для последующей эксплуатации.

В отношении партнеров с маркой «мужчина» наблюдалась иная динамика. Люди реже сотрудничали с ними из-за отсутствия доверия: участники не верили, что «мужские» агенты выберут кооперацию, и поэтому сами отказывались от взаимодействия, чтобы избежать риска. Таким образом, недоверие к «мужским» профилям защищало их от эксплуатации, тогда как ожидание лояльности от «женских» профилей провоцировало пользователей на получение выгоды за их счет.

Анализ демографических данных участников выявил существенные различия в поведении мужчин и женщин. Участники-мужчины в целом были более склонны к эксплуатации партнеров и предпочитали сотрудничать с людьми, а не с алгоритмами. Женщины-участницы, напротив, чаще выбирали стратегию сотрудничества и не делали различий между человеком и ИИ. Здесь проявился эффект гомофилии — склонности индивидов сближаться с похожими на себя: женщины чаще сотрудничали с агентами, маркированными как «женщины». Данных по участникам других гендеров оказалось недостаточно для формирования конкретных выводов.

Исследователи подчеркивают роль антропоморфизма — наделения ИИ человеческими чертами, такими как имена и пол. Дизайнеры используют этот прием для повышения вовлеченности и доверия, однако исследование показывает, что это может усиливать существующие предубеждения. Эксплуатация в данном контексте определяется как осознанный выбор игрока действовать в одиночку ради личной выгоды, несмотря на уверенность в том, что партнер выберет сотрудничество.

Авторы работы предупреждают о долгосрочных последствиях таких тенденций. Хотя плохое обращение с ИИ не является этическим провалом само по себе, оно формирует «вредные привычки», которые могут усугубить дискриминацию в человеческом обществе. Ответственность за смягчение этих «нежелательных предубеждений» ложится на разработчиков систем. Это становится критически важным в свете того, что сотрудничество с ИИ становится рутиной в таких сферах, как управление рабочими графиками и использование беспилотных автомобилей.

Контекст данного исследования дополняется другими научными наблюдениями в этой области. Ранее сообщалось, что ИИ способен «понимать» эмоции лучше людей в определенных ситуациях, а также о том, что существуют фундаментальные различия в процессах «мышления» человека и машины. Также упоминаются эксперименты, где наделение ИИ «внутренним монологом» значительно улучшало его производительность, что еще раз подчеркивает сложность создания эффективных и этичных интерфейсов взаимодействия.


Новое на сайте

18682Почему пользователи чаще эксплуатируют алгоритмы с «женскими» признаками, чем с... 18681Как превратить подрывную технологию ИИ в контролируемый стратегический ресурс? 18680Телескоп Джеймс Уэбб раскрыл детали стремительного разрушения атмосферы уникальной... 18679Почему диета из сырых лягушек привела к тяжелому поражению легких? 18678Способны ли три критические уязвимости в Picklescan открыть дорогу атакам на цепочки... 18677Как поддельные инструменты EVM на crates.io открывали доступ к системам тысяч... 18676Закон максимальной случайности и универсальная математика разрушения материалов 18675Символ падения власти: тайна древнего захоронения женщины с перевернутой диадемой 18674Индия вводит жесткую привязку мессенджеров к активным SIM-картам для борьбы с... 18673Почему вернувшаяся кампания GlassWorm угрожает разработчикам через 24 вредоносных... 18672Способен ли простой текстовый промпт скрыть вредоносное по в репозитории от проверки... 18671Уникальная операция по захвату северокорейских хакеров Lazarus в виртуальную ловушку в... 18670Уникальный погребальный ритуал времен царства керма обнаружен в суданской пустыне Байуда 18669SecAlerts обеспечивает мгновенный мониторинг уязвимостей без сетевого сканирования 18668Чем уникальна самая высокая «холодная» суперлуна декабря 2025 года?