2 ноября в журнале iScience были опубликованы результаты исследования, подтверждающего, что гендерная дискриминация выходит за рамки человеческого взаимодействия и распространяется на искусственный интеллект. Основной тезис научной работы заключается в том, что люди с большей вероятностью склонны эксплуатировать ИИ-партнеров, маркированных как «женщины», по сравнению с теми, кто обозначен как «мужчины». Это открытие поднимает вопросы о том, как антропоморфизация технологий влияет на поведение пользователей и этику взаимодействия с машинами.

Для проверки гипотезы ученые использовали известную теорию игр «Дилемма заключенного». В рамках эксперимента двум игрокам предлагалось выбрать одну из стратегий: сотрудничать или действовать независимо. При взаимном сотрудничестве обе стороны получали наилучший результат. Однако, если один участник выбирал сотрудничество, а другой — независимость, последний получал выгоду за счет первого («эксплуатация»), в то время как сотрудничающий игрок получал низкий балл. В случае отказа от сотрудничества с обеих сторон результаты были низкими для всех.
В эксперименте варьировались типы партнеров и их гендерные метки. Участники взаимодействовали либо с человеком, либо с искусственным интеллектом. Партнерам присваивались ярлыки: «женщина», «небинарная персона», «мужчина» или «без гендера». Статистический анализ показал, что люди на 10% чаще эксплуатировали ИИ-партнера, чем человека. Однако наиболее показательными стали данные о влиянии гендерных маркеров на принятие решений игроками.
Участники эксперимента проявляли большую склонность к эксплуатации партнеров с метками «женщина», «небинарная персоная» или «без гендера», чем партнеров с меткой «мужчина». Примечательно, что вероятность эксплуатации возрастала еще больше, если такой партнер был идентифицирован как искусственный интеллект. Парадокс заключается в том, что участники изначально чаще шли на сотрудничество именно с «женскими» и гендерно-нейтральными агентами, ожидая от них ответной кооперации. Это доверие делало данные группы уязвимыми для последующей эксплуатации.
В отношении партнеров с маркой «мужчина» наблюдалась иная динамика. Люди реже сотрудничали с ними из-за отсутствия доверия: участники не верили, что «мужские» агенты выберут кооперацию, и поэтому сами отказывались от взаимодействия, чтобы избежать риска. Таким образом, недоверие к «мужским» профилям защищало их от эксплуатации, тогда как ожидание лояльности от «женских» профилей провоцировало пользователей на получение выгоды за их счет.
Анализ демографических данных участников выявил существенные различия в поведении мужчин и женщин. Участники-мужчины в целом были более склонны к эксплуатации партнеров и предпочитали сотрудничать с людьми, а не с алгоритмами. Женщины-участницы, напротив, чаще выбирали стратегию сотрудничества и не делали различий между человеком и ИИ. Здесь проявился эффект гомофилии — склонности индивидов сближаться с похожими на себя: женщины чаще сотрудничали с агентами, маркированными как «женщины». Данных по участникам других гендеров оказалось недостаточно для формирования конкретных выводов.
Исследователи подчеркивают роль антропоморфизма — наделения ИИ человеческими чертами, такими как имена и пол. Дизайнеры используют этот прием для повышения вовлеченности и доверия, однако исследование показывает, что это может усиливать существующие предубеждения. Эксплуатация в данном контексте определяется как осознанный выбор игрока действовать в одиночку ради личной выгоды, несмотря на уверенность в том, что партнер выберет сотрудничество.
Авторы работы предупреждают о долгосрочных последствиях таких тенденций. Хотя плохое обращение с ИИ не является этическим провалом само по себе, оно формирует «вредные привычки», которые могут усугубить дискриминацию в человеческом обществе. Ответственность за смягчение этих «нежелательных предубеждений» ложится на разработчиков систем. Это становится критически важным в свете того, что сотрудничество с ИИ становится рутиной в таких сферах, как управление рабочими графиками и использование беспилотных автомобилей.
Контекст данного исследования дополняется другими научными наблюдениями в этой области. Ранее сообщалось, что ИИ способен «понимать» эмоции лучше людей в определенных ситуациях, а также о том, что существуют фундаментальные различия в процессах «мышления» человека и машины. Также упоминаются эксперименты, где наделение ИИ «внутренним монологом» значительно улучшало его производительность, что еще раз подчеркивает сложность создания эффективных и этичных интерфейсов взаимодействия.

Изображение носит иллюстративный характер
Для проверки гипотезы ученые использовали известную теорию игр «Дилемма заключенного». В рамках эксперимента двум игрокам предлагалось выбрать одну из стратегий: сотрудничать или действовать независимо. При взаимном сотрудничестве обе стороны получали наилучший результат. Однако, если один участник выбирал сотрудничество, а другой — независимость, последний получал выгоду за счет первого («эксплуатация»), в то время как сотрудничающий игрок получал низкий балл. В случае отказа от сотрудничества с обеих сторон результаты были низкими для всех.
В эксперименте варьировались типы партнеров и их гендерные метки. Участники взаимодействовали либо с человеком, либо с искусственным интеллектом. Партнерам присваивались ярлыки: «женщина», «небинарная персона», «мужчина» или «без гендера». Статистический анализ показал, что люди на 10% чаще эксплуатировали ИИ-партнера, чем человека. Однако наиболее показательными стали данные о влиянии гендерных маркеров на принятие решений игроками.
Участники эксперимента проявляли большую склонность к эксплуатации партнеров с метками «женщина», «небинарная персоная» или «без гендера», чем партнеров с меткой «мужчина». Примечательно, что вероятность эксплуатации возрастала еще больше, если такой партнер был идентифицирован как искусственный интеллект. Парадокс заключается в том, что участники изначально чаще шли на сотрудничество именно с «женскими» и гендерно-нейтральными агентами, ожидая от них ответной кооперации. Это доверие делало данные группы уязвимыми для последующей эксплуатации.
В отношении партнеров с маркой «мужчина» наблюдалась иная динамика. Люди реже сотрудничали с ними из-за отсутствия доверия: участники не верили, что «мужские» агенты выберут кооперацию, и поэтому сами отказывались от взаимодействия, чтобы избежать риска. Таким образом, недоверие к «мужским» профилям защищало их от эксплуатации, тогда как ожидание лояльности от «женских» профилей провоцировало пользователей на получение выгоды за их счет.
Анализ демографических данных участников выявил существенные различия в поведении мужчин и женщин. Участники-мужчины в целом были более склонны к эксплуатации партнеров и предпочитали сотрудничать с людьми, а не с алгоритмами. Женщины-участницы, напротив, чаще выбирали стратегию сотрудничества и не делали различий между человеком и ИИ. Здесь проявился эффект гомофилии — склонности индивидов сближаться с похожими на себя: женщины чаще сотрудничали с агентами, маркированными как «женщины». Данных по участникам других гендеров оказалось недостаточно для формирования конкретных выводов.
Исследователи подчеркивают роль антропоморфизма — наделения ИИ человеческими чертами, такими как имена и пол. Дизайнеры используют этот прием для повышения вовлеченности и доверия, однако исследование показывает, что это может усиливать существующие предубеждения. Эксплуатация в данном контексте определяется как осознанный выбор игрока действовать в одиночку ради личной выгоды, несмотря на уверенность в том, что партнер выберет сотрудничество.
Авторы работы предупреждают о долгосрочных последствиях таких тенденций. Хотя плохое обращение с ИИ не является этическим провалом само по себе, оно формирует «вредные привычки», которые могут усугубить дискриминацию в человеческом обществе. Ответственность за смягчение этих «нежелательных предубеждений» ложится на разработчиков систем. Это становится критически важным в свете того, что сотрудничество с ИИ становится рутиной в таких сферах, как управление рабочими графиками и использование беспилотных автомобилей.
Контекст данного исследования дополняется другими научными наблюдениями в этой области. Ранее сообщалось, что ИИ способен «понимать» эмоции лучше людей в определенных ситуациях, а также о том, что существуют фундаментальные различия в процессах «мышления» человека и машины. Также упоминаются эксперименты, где наделение ИИ «внутренним монологом» значительно улучшало его производительность, что еще раз подчеркивает сложность создания эффективных и этичных интерфейсов взаимодействия.