Ssylka

Личность в коде: как измерить и использовать характер AI-чатботов

Растущая сложность больших языковых моделей (LLMs) ставит перед научным сообществом вопрос: обладают ли эти машины скрытыми личностями, и если да, то как их можно измерить и использовать? Дискуссия о природе «личности» в AI-чатботах разделила ученых на два лагеря: одни считают, что личность определяется внутренним состоянием модели, другие – восприятием пользователей.
Личность в коде: как измерить и использовать характер AI-чатботов
Изображение носит иллюстративный характер

Стремление наделить машины чертами, способствующими достижению человеческих целей, является движущей силой области социальных вычислений. Однако, определить, какие именно черты приобретают чатботы в процессе обучения на огромных объемах данных, остается сложной задачей. Ян "Sunny" Лу, компьютерный ученый из Университета Хьюстона, и другие исследователи изучают этот вопрос, стремясь понять, как личность AI может улучшить взаимодействие между человеком и машиной.

Стандартные тесты личности, разработанные для людей, могут быть неприменимы к ботам. В исследовании, представленном на 29 ноября 2024 года, ученые выявили, что чатботы могут быть подвержены человеческим предубеждениям при прохождении личностных опросов. Это подчеркивает необходимость разработки специализированных тестов для AI, учитывающих их уникальную природу.

В попытке преодолеть ограничения существующих инструментов, исследователи разрабатывают AI-специфические тесты личности. Одним из таких примеров является TRAIT, предназначенный для оценки личностных черт AI. Юндже Ю из Университета Ёнсе в Южной Корее участвовал в разработке этого теста. Важно отметить, что восприятие пользователя может быть более важным, чем «самооценка» бота.

Зианг Сяо, компьютерный ученый из Университета Джона Хопкинса, подчеркивает, что ключевой вопрос заключается в цели создания AI: должны ли мы стремиться к ровным и предсказуемым личностям, или допустимы более разнообразные и даже дезадаптивные модели поведения для конкретных приложений? Этот вопрос поднимает важные этические соображения о безопасности и назначении AI-личностей.

Маартен Сап, эксперт по обработке естественного языка из Университета Карнеги-Меллона, предлагает сосредоточиться на разработке небольших, контекстно-специфических AI-моделей, вместо создания гигантских универсальных систем, таких как OpenAI's GPT-3.5 или GPT-4. Такой подход может обеспечить большую гибкость и контроль над личностными характеристиками AI.

Исследование, результаты которого были опубликованы в журнале PNAS Nexus в декабре, показало, что GPT-4o продемонстрировал наибольшую степень согласия по сравнению с другими моделями, включая Anthropic's Claude и MistralAI's chatbot Mistral 7B. Аадеш Салеча, компьютерный ученый из Стэнфордского университета, и его коллеги использовали различные LLM для исследований и выявили эти закономерности. Это говорит о том, что некоторые модели склонны к более «приятному» взаимодействию, чем другие.

Мишель Чжоу, эксперт в области человеко-ориентированного AI, CEO и соучредитель стартапа Juji, разрабатывает AI, способные понимать и реагировать на человеческие эмоции. Juji, чатбот, созданный ею, является примером реализации такого подхода. Она считает, что ключ к созданию эффективного AI заключается в понимании человеческой психологии.

Розалинд Пикард, эксперт в области аффективных вычислений из MIT, также подчеркивает важность эмоционального интеллекта в AI. Ее исследования направлены на создание машин, способных распознавать и реагировать на эмоции человека, что может привести к более естественному и эффективному взаимодействию.

Необходимо помнить, что при разработке и использовании AI-личностей необходимо учитывать потенциальные риски и возможности злоупотреблений. Дальнейшие исследования и разработка этических принципов являются необходимыми условиями для безопасного и полезного применения AI в будущем. Исследование опубликованное в PsyArXiv в 2023 году, указывает на то, что даже кажущиеся безобидными черты, такие как экстраверсия, доброжелательность, добросовестность, открытость и невротизм (Большая пятерка), а так же темные черты, такие как макиавеллизм, психопатия и нарциссизм, могут быть использованы во вред.


Новое на сайте

8738Может ли искусственный интеллект раскрыть тайны погребенных под пеплом Везувия свитков? 8737Готовы ли вы к захватывающему зрелищу снежной луны в 2025 году? 8736Рубцы: неизгладимые отметины времени и памяти на коже 8735Может ли TikTok спасти умирающее искусство витража? 873430 секунд спокойствия: секрет долговечности вашей техники 8733Как PyGame помогает визуализировать звук в реальном времени? 8732Новая эра киберугроз: законные инструменты в арсенале взломщиков Microsoft 365 8731Чем обернется громкий процесс Шона "Diddy" Комбса? 8730Музыка, сыр и праздник: Big Feastival 2024 готовится удивить гурманов и меломанов 8729Где купить информацию о ваших перемещениях? 8728Может ли нейросеть улавливать приоритеты в бытовых ситуациях? 8727Раскрываем секреты гармонии: йога и пилатес для тела и духа 8726Революция в мире дисплеев: Super AMOLED против AMOLED 8725Личность в коде: как измерить и использовать характер AI-чатботов 8724Как обеспечить непрерывность работы GitLab: переход на отказоустойчивый кластер?