Почему Meta вновь использует данные пользователей из ес для обучения искусственного интеллекта?

Компания М⃰ спустя почти год возобновляет обучение своих моделей искусственного интеллекта на основе публичных данных взрослых пользователей в Европейском союзе. Причиной длительной паузы стали претензии ирландских регуляторов, обеспокоенных соответствием обработки данных строгим европейским законам о защите информации.
Почему Meta вновь использует данные пользователей из ес для обучения искусственного интеллекта?
Изображение носит иллюстративный характер

Ключевая цель М⃰ — повышение качества работы генеративных ИИ-моделей, чтобы они лучше понимали языки, культурные особенности и исторический контекст европейских стран. Для этого задействуются только открытые публикации, комментарии и взаимодействия с М⃰ AI на платформах Ф⃰, И⃰, WhatsApp и Messenger. Личные сообщения, а также информация о пользователях младше 18 лет в процесс обучения не попадают.

С этой недели все пользователи из стран ЕС начнут получать уведомления внутри приложений и по электронной почте. В этих сообщениях будут объясняться типы собираемых данных, причины их использования и потенциальное влияние этого процесса на работу искусственного интеллекта и пользовательский опыт. В каждом уведомлении будет содержаться специальная ссылка для отказа — любой пользователь сможет заполнить форму и запретить использование своих открытых данных для обучения ИИ. М⃰ обязуется учитывать все текущие и будущие возражения от пользователей.

Одобрение инициативы было получено от Европейского совета по защите данных (EDPB), который признал, что компания выполнила все юридические требования, предъявляемые законами о защите персональных данных в ЕС. Только после этого М⃰ возобновила сбор публичных пользовательских данных для обучения ИИ.

Примерно месяц назад М⃰ официально запустила М⃰ AI на территории Евросоюза. Новый искусственный интеллект стал доступен миллионам пользователей на ключевых платформах компании: Ф⃰, И⃰, WhatsApp и Messenger. Это расширило возможности поиска, генерации изображений и общения с ИИ на европейском рынке.

В то же время, Apple отчитывается о собственных подходах к защите приватности в новых функциях искусственного интеллекта. Компания для этого использует дифференциальную приватность и синтетическую генерацию данных в таких продуктах, как Genmoji, Image Playground, Image Wand, создание воспоминаний и инструменты для работы с текстом в системе Apple Intelligence. Apple подчёркивает, что улучшает свои сервисы без ущерба для конфиденциальности, когда пользователи соглашаются отправлять аналитическую информацию с устройств.

Возобновление сбора публичных данных М⃰ для обучения ИИ стало возможно только после получения формального одобрения европейских регуляторов и внедрения прозрачных процедур уведомления и отказа для пользователей. Нововведения призваны найти баланс между инновациями в сфере искусственного интеллекта и соблюдением прав граждан на защиту персональных данных.


Новое на сайте

19989Шесть историй, которые умещаются на ладони 19986Как 30 000 аккаунтов Facebook оказались в руках вьетнамских хакеров? 19985LofyGang вернулась: как бразильские хакеры охотятся на геймеров через поддельные читы 19984Автономная проверка защиты: как не отстать от ИИ-атак 19983Взлом Trellix: хакеры добрались до исходного кода одной из ведущих компаний по... 19982Почему почти 3000 монет в норвежском поле перевернули представление о викингах? 19981Как поддельная CAPTCHA опустошает ваш счёт и крадёт криптовалюту? 19980Слежка за каждым шагом: как ИИ превращает государство в машину тотального контроля 19979Как хакеры грабят компании через звонок в «техподдержку» 19978Почему именно Нью-Йорк стал самым уязвимым городом восточного побережья перед... 19977Как одна команда git push открывала доступ к миллионам репозиториев 19976Зачем древние народы убивали ножами и мечами: оружие как основа власти 19975Как Python-бэкдор DEEPDOOR крадёт ваши облачные пароли незаметно? 19974Послание в бутылке: математика невозможного
Ссылка