Исследования показывают, что генеративный искусственный интеллект, такой как ChatGPT, демонстрирует политические наклонности, склоняясь к леволиберальным взглядам. Этот факт поднимает важные вопросы о роли и влиянии ИИ в формировании общественного мнения и демократических ценностей. Доктор Фабио Мотоки, преподаватель бухгалтерского учета в Школе бизнеса Нориджа при Университете Восточной Англии (UEA), возглавил группу исследователей, включая доктора Пиньо Нето, профессора экономики из Бразильской школы экономики и финансов EPGE, и Виктора Рангела, магистра государственной политики из Insper, для изучения этой проблемы.
В их работе под названием «Оценка политической предвзятости и несоответствия ценностей в генеративном искусственном интеллекте», опубликованной в Journal of Economic Behavior & Organization, анализируется, как ChatGPT формирует ответы и генерирует контент с политической окраской. Исследование выявило, что ChatGPT склонен поддерживать левые политические позиции, а также неохотно создавать контент, отражающий консервативные взгляды. Например, система отказывалась генерировать изображения, отражающие правоцентристские перспективы по некоторым темам, таким как расовое и этническое равенство, ссылаясь на опасения по поводу дезинформации. В то же время генерация левоцентристских изображений не вызывала у системы никаких затруднений. «Взлом» системы с целью генерации запрещенных изображений не выявил какой-либо очевидной дезинформации или вредоносного контента.
Для оценки политической ориентации ChatGPT команда исследователей использовала три новаторских метода, расширяющих предыдущие техники для достижения более надежных результатов. Во-первых, они использовали опросник, разработанный Pew Research Center, чтобы сравнить ответы ChatGPT с ответами обычных американцев. Результаты показали систематическое отклонение ChatGPT в сторону левых взглядов. Во-вторых, они генерировали ответы ChatGPT на политически чувствительные темы, чтобы оценить его позицию по различным вопросам. В-третьих, они изучали возможности ChatGPT по созданию изображений, чтобы выявить его предвзятость в визуальном представлении политических идей. Для анализа сгенерированных изображений использовались GPT-4 Vision и Gemini (от Google). Кроме того, для сравнения использовалась другая большая языковая модель – RoBERTa.
Выявленная предвзятость в генеративном ИИ может иметь серьезные последствия. Она способна искажать общественный дискурс, углублять социальные разногласия, подрывать доверие к институтам и влиять на ценности общества. Учитывая растущую роль ИИ в формировании общественного мнения, важно обеспечить, чтобы эти системы были беспристрастными и отражали разнообразные точки зрения.
Исследование Мотоки и его коллег вносит важный вклад в дебаты вокруг конституционных гарантий и применимости доктрин справедливости к системам искусственного интеллекта, а также демонстрирует необходимость обеспечения подотчетности и мер защиты при разработке ИИ.
Результаты исследования подчеркивают настоятельную необходимость прозрачности, регуляторных мер и междисциплинарного сотрудничества между политиками, технологами и учеными. Необходимо разработать стратегии, чтобы смягчить предвзятость в генеративном ИИ и обеспечить его соответствие общественным ценностям.
Исследователи призывают к тщательному изучению влияния ИИ на общественный дискурс и демократические процессы. Необходимы дальнейшие исследования, чтобы понять причины предвзятости в ИИ и разработать эффективные методы ее устранения.
Работа доктора Мотоки и его коллег в Университете Восточной Англии (UEA) и Getulio Vargas Foundation (FGV) в Бразилии, а также Insper, подчеркивает важность критического анализа генеративного ИИ. Методологические инновации исследования, включая использование мультимодального анализа, предоставляют воспроизводимую модель для изучения предвзятости в генеративных системах ИИ.
В конечном счете, обеспечение справедливости и прозрачности в генеративном ИИ имеет решающее значение для защиты демократических ценностей и поддержания общественного доверия.
Изображение носит иллюстративный характер
В их работе под названием «Оценка политической предвзятости и несоответствия ценностей в генеративном искусственном интеллекте», опубликованной в Journal of Economic Behavior & Organization, анализируется, как ChatGPT формирует ответы и генерирует контент с политической окраской. Исследование выявило, что ChatGPT склонен поддерживать левые политические позиции, а также неохотно создавать контент, отражающий консервативные взгляды. Например, система отказывалась генерировать изображения, отражающие правоцентристские перспективы по некоторым темам, таким как расовое и этническое равенство, ссылаясь на опасения по поводу дезинформации. В то же время генерация левоцентристских изображений не вызывала у системы никаких затруднений. «Взлом» системы с целью генерации запрещенных изображений не выявил какой-либо очевидной дезинформации или вредоносного контента.
Для оценки политической ориентации ChatGPT команда исследователей использовала три новаторских метода, расширяющих предыдущие техники для достижения более надежных результатов. Во-первых, они использовали опросник, разработанный Pew Research Center, чтобы сравнить ответы ChatGPT с ответами обычных американцев. Результаты показали систематическое отклонение ChatGPT в сторону левых взглядов. Во-вторых, они генерировали ответы ChatGPT на политически чувствительные темы, чтобы оценить его позицию по различным вопросам. В-третьих, они изучали возможности ChatGPT по созданию изображений, чтобы выявить его предвзятость в визуальном представлении политических идей. Для анализа сгенерированных изображений использовались GPT-4 Vision и Gemini (от Google). Кроме того, для сравнения использовалась другая большая языковая модель – RoBERTa.
Выявленная предвзятость в генеративном ИИ может иметь серьезные последствия. Она способна искажать общественный дискурс, углублять социальные разногласия, подрывать доверие к институтам и влиять на ценности общества. Учитывая растущую роль ИИ в формировании общественного мнения, важно обеспечить, чтобы эти системы были беспристрастными и отражали разнообразные точки зрения.
Исследование Мотоки и его коллег вносит важный вклад в дебаты вокруг конституционных гарантий и применимости доктрин справедливости к системам искусственного интеллекта, а также демонстрирует необходимость обеспечения подотчетности и мер защиты при разработке ИИ.
Результаты исследования подчеркивают настоятельную необходимость прозрачности, регуляторных мер и междисциплинарного сотрудничества между политиками, технологами и учеными. Необходимо разработать стратегии, чтобы смягчить предвзятость в генеративном ИИ и обеспечить его соответствие общественным ценностям.
Исследователи призывают к тщательному изучению влияния ИИ на общественный дискурс и демократические процессы. Необходимы дальнейшие исследования, чтобы понять причины предвзятости в ИИ и разработать эффективные методы ее устранения.
Работа доктора Мотоки и его коллег в Университете Восточной Англии (UEA) и Getulio Vargas Foundation (FGV) в Бразилии, а также Insper, подчеркивает важность критического анализа генеративного ИИ. Методологические инновации исследования, включая использование мультимодального анализа, предоставляют воспроизводимую модель для изучения предвзятости в генеративных системах ИИ.
В конечном счете, обеспечение справедливости и прозрачности в генеративном ИИ имеет решающее значение для защиты демократических ценностей и поддержания общественного доверия.