Компания OpenAI, создатель ChatGPT, во вторник анонсировала подготовку новых функций для помощи подросткам, находящимся в состоянии эмоционального стресса. Изменения, запланированные на эту осень, включают введение родительского контроля. Родители смогут связывать свои учетные записи с аккаунтами детей, отключать определенные функции и получать уведомления, если система обнаружит, что подросток находится в «моменте острого дистресса».

Для всех пользователей, независимо от возраста, OpenAI внедрит систему перенаправления. Наиболее тревожные по содержанию диалоги будут автоматически передаваться более совершенным моделям ИИ, специально разработанным для предоставления адекватных и поддерживающих ответов в кризисных ситуациях.
Компания М⃰, владеющая И⃰, Ф⃰ и WhatsApp, уже приняла меры. Ее чат-боты теперь активно блокируют обсуждение с подростками тем, связанных с самоповреждением, суицидом и расстройствами пищевого поведения. Также под запрет попали неуместные разговоры романтического характера. При попытке поднять эти темы система перенаправляет юных пользователей к ресурсам экспертной помощи.
Действия OpenAI последовали спустя неделю после подачи иска против компании и ее генерального директора Сэма Альтмана. Родители 16-летнего Адама Рейна из Калифорнии, покончившего с собой ранее в этом году, утверждают, что ChatGPT инструктировал их сына в планировании и совершении самоубийства.
Дополнительным фактором стало исследование, опубликованное на прошлой неделе в медицинском журнале Psychiatric Services. Ученые из корпорации RAND проанализировали ответы чат-ботов ChatGPT, Google Gemini и Anthropic Claude на запросы о суициде и выявили значительные «несоответствия» в их реакциях. Исследователи пришли к выводу о необходимости «дальнейшего совершенствования» этих моделей ИИ. Чат-боты М⃰ в данном исследовании не участвовали.
Райан МакБейн, ведущий автор исследования RAND и старший научный сотрудник по вопросам политики, прокомментировал инициативы компаний. Он назвал новые функции OpenAI и М⃰ «обнадеживающими», но охарактеризовал их как «поступательные шаги».
Основную проблему МакБейн видит в отсутствии внешнего контроля. «Без независимых эталонов безопасности, клинических испытаний и обязательных стандартов мы по-прежнему полагаемся на саморегулирование компаний в сфере, где риски для подростков особенно высоки», — заявил он.

Изображение носит иллюстративный характер
Для всех пользователей, независимо от возраста, OpenAI внедрит систему перенаправления. Наиболее тревожные по содержанию диалоги будут автоматически передаваться более совершенным моделям ИИ, специально разработанным для предоставления адекватных и поддерживающих ответов в кризисных ситуациях.
Компания М⃰, владеющая И⃰, Ф⃰ и WhatsApp, уже приняла меры. Ее чат-боты теперь активно блокируют обсуждение с подростками тем, связанных с самоповреждением, суицидом и расстройствами пищевого поведения. Также под запрет попали неуместные разговоры романтического характера. При попытке поднять эти темы система перенаправляет юных пользователей к ресурсам экспертной помощи.
Действия OpenAI последовали спустя неделю после подачи иска против компании и ее генерального директора Сэма Альтмана. Родители 16-летнего Адама Рейна из Калифорнии, покончившего с собой ранее в этом году, утверждают, что ChatGPT инструктировал их сына в планировании и совершении самоубийства.
Дополнительным фактором стало исследование, опубликованное на прошлой неделе в медицинском журнале Psychiatric Services. Ученые из корпорации RAND проанализировали ответы чат-ботов ChatGPT, Google Gemini и Anthropic Claude на запросы о суициде и выявили значительные «несоответствия» в их реакциях. Исследователи пришли к выводу о необходимости «дальнейшего совершенствования» этих моделей ИИ. Чат-боты М⃰ в данном исследовании не участвовали.
Райан МакБейн, ведущий автор исследования RAND и старший научный сотрудник по вопросам политики, прокомментировал инициативы компаний. Он назвал новые функции OpenAI и М⃰ «обнадеживающими», но охарактеризовал их как «поступательные шаги».
Основную проблему МакБейн видит в отсутствии внешнего контроля. «Без независимых эталонов безопасности, клинических испытаний и обязательных стандартов мы по-прежнему полагаемся на саморегулирование компаний в сфере, где риски для подростков особенно высоки», — заявил он.