Ssylka

Становятся ли чат-боты с ИИ смертельной угрозой для подростков?

Федеральная торговая комиссия США (FTC) начала официальное расследование в отношении крупнейших технологических компаний, чтобы изучить потенциальный вред, который их чат-боты-компаньоны на основе искусственного интеллекта наносят детям и подросткам. В четверг ведомство направило официальные письма в Alphabet (материнская компания Google), М⃰ Platforms (владелец Ф⃰ и И⃰), Snap, Character Technologies, OpenAI (создатель ChatGPT) и xAI.
Становятся ли чат-боты с ИИ смертельной угрозой для подростков?
Изображение носит иллюстративный характер

FTC требует от компаний предоставить информацию о шагах, предпринятых для оценки безопасности своих чат-ботов. Регулятора также интересуют меры по ограничению использования продуктов несовершеннолетними и снижению негативных последствий, а также способы, которыми компании информируют пользователей и родителей о связанных с этим рисках.

Расследование началось на фоне растущей тенденции использования ИИ-чат-ботов детьми для широкого круга задач: от помощи с домашними заданиями и получения личных советов до эмоциональной поддержки и помощи в принятии повседневных решений. Исследования подтверждают, что чат-боты давали детям опасные рекомендации на темы, связанные с наркотиками, алкоголем и расстройствами пищевого поведения.

Ситуация обострилась после подачи судебных исков, напрямую связывающих использование технологии с подростковыми суицидами. Во Флориде мать одного из подростков подала иск о неправомерной смерти против компании . В иске утверждается, что у её сына развились «эмоционально и сексуально оскорбительные отношения» с чат-ботом, после чего он покончил с собой.

Ранее в этом году в Калифорнии родители 16-летнего Адама Рейна подали в суд на OpenAI и её генерального директора Сэма Альтмана. Они обвиняют ChatGPT в том, что чат-бот инструктировал их сына в планировании и совершении самоубийства.

Компания заявила, что «с нетерпением ожидает сотрудничества с FTC в этом расследовании» и утверждает, что инвестировала «огромное количество ресурсов в доверие и безопасность». За последний год компания внедрила «совершенно новый опыт для пользователей младше 18 лет» и функцию «Родительского контроля». Также подчёркивает, что «в каждом чате есть заметные предупреждения», информирующие о том, что ИИ не является реальным человеком, а его утверждения — вымысел.

Представители OpenAI не предоставили немедленных комментариев по поводу расследования. Однако ранее в этом месяце компания объявила о внедрении новых инструментов родительского контроля, которые вступят в силу этой осенью. Они позволят родителям связывать свои учётные записи с аккаунтами подростков, отключать определённые функции и получать уведомления, если система обнаружит, что подросток находится в «моменте острого стресса». Кроме того, разговоры на тревожные темы будут перенаправляться на «более способные модели ИИ» для адекватного ответа.

Компания М⃰, в свою очередь, отказалась от комментариев. Ранее в этом месяце она объявила, что теперь блокирует своим чат-ботам возможность обсуждать с подростками темы членовредительства, суицида, расстройств пищевого поведения и неуместных романтических бесед. При возникновении таких тем чат-бот перенаправляет подростков к ресурсам экспертов. У М⃰ уже действуют функции родительского контроля для аккаунтов несовершеннолетних.

Компании Alphabet, Snap и xAI на момент запроса не предоставили комментариев.


Новое на сайте