Может ли генеративный ИИ разрушить репутацию?

Норвежский гражданин Арве Хялмар Холмен в августе 2024 года столкнулся с серьезными последствиями работы искусственного интеллекта: ChatGPT ошибочно указал, что он убил своих двух сыновей и отбывал 21 год заключения.
Может ли генеративный ИИ разрушить репутацию?
Изображение носит иллюстративный характер

Система сообщила, что Холмен является отцом двух мальчиков в возрасте 7 и 10 лет, которые, согласно выданным данным, были обнаружены мертвыми в пруду недалеко от дома в Тронхейме (Норвегия) в декабре 2020 года.

Юридическая организация Noyb (None of Your Business) подала жалобу в Норвежное агентство по защите данных, требуя наложения штрафа на OpenAI за нарушение европейских норм о достоверности персональных данных, а также за нанесение ущерба репутации гражданина, который никогда не обвинялся и не осуждался.

Холмен отметил: «Некоторые считают, что без огня нет дыма – тот факт, что кто-то может поверить в эту информацию, меня пугает больше всего», подчеркнув опасность принятия ложных сведений за истину.

Юрист Йоаким Сёдерберг акцентировал, что предупреждение «ChatGPT может допускать ошибки. Проверьте важную информацию» не оправдывает распространения клеветнических данных, наносящих реальный вред репутации.

Проблема «галлюцинаций» в работе искусственного интеллекта находит отражение и в других системах: в Великобритании Apple приостановила работу инструмента Apple Intelligence из-за ложных новостных заголовков, а у Google система Gemini рекомендовала использовать клей для прикрепления сыра к пицце и даже советовала ежедневно потреблять по одному камню, якобы по мнению геологов. Профессор Симона Стумпф из Глазговского университета подчеркнула, что, несмотря на попадание отдельных фактов, процесс формирования цепочек рассуждений в «черном ящике» ИИ остается крайне сложной задачей даже для специалистов.

После обращения Холмена ChatGPT обновил свою модель, добавив возможность поиска по актуальным новостным публикациям, что поясняется влиянием предыдущих запросов на формирование ответа. Однако отказ OpenAI от предоставления доступа к исходным данным продолжает усугублять проблему прозрачности и ответственности генеративных ИИ-систем.


Новое на сайте

19989Шесть историй, которые умещаются на ладони 19986Как 30 000 аккаунтов Facebook оказались в руках вьетнамских хакеров? 19985LofyGang вернулась: как бразильские хакеры охотятся на геймеров через поддельные читы 19984Автономная проверка защиты: как не отстать от ИИ-атак 19983Взлом Trellix: хакеры добрались до исходного кода одной из ведущих компаний по... 19982Почему почти 3000 монет в норвежском поле перевернули представление о викингах? 19981Как поддельная CAPTCHA опустошает ваш счёт и крадёт криптовалюту? 19980Слежка за каждым шагом: как ИИ превращает государство в машину тотального контроля 19979Как хакеры грабят компании через звонок в «техподдержку» 19978Почему именно Нью-Йорк стал самым уязвимым городом восточного побережья перед... 19977Как одна команда git push открывала доступ к миллионам репозиториев 19976Зачем древние народы убивали ножами и мечами: оружие как основа власти 19975Как Python-бэкдор DEEPDOOR крадёт ваши облачные пароли незаметно? 19974Послание в бутылке: математика невозможного 19973Почему ИИ-инфраструктура стала новой целью хакеров быстрее, чем ждали все?
Ссылка