Ssylka

Может ли генеративный ИИ разрушить репутацию?

Норвежский гражданин Арве Хялмар Холмен в августе 2024 года столкнулся с серьезными последствиями работы искусственного интеллекта: ChatGPT ошибочно указал, что он убил своих двух сыновей и отбывал 21 год заключения.
Может ли генеративный ИИ разрушить репутацию?
Изображение носит иллюстративный характер

Система сообщила, что Холмен является отцом двух мальчиков в возрасте 7 и 10 лет, которые, согласно выданным данным, были обнаружены мертвыми в пруду недалеко от дома в Тронхейме (Норвегия) в декабре 2020 года.

Юридическая организация Noyb (None of Your Business) подала жалобу в Норвежное агентство по защите данных, требуя наложения штрафа на OpenAI за нарушение европейских норм о достоверности персональных данных, а также за нанесение ущерба репутации гражданина, который никогда не обвинялся и не осуждался.

Холмен отметил: «Некоторые считают, что без огня нет дыма – тот факт, что кто-то может поверить в эту информацию, меня пугает больше всего», подчеркнув опасность принятия ложных сведений за истину.

Юрист Йоаким Сёдерберг акцентировал, что предупреждение «ChatGPT может допускать ошибки. Проверьте важную информацию» не оправдывает распространения клеветнических данных, наносящих реальный вред репутации.

Проблема «галлюцинаций» в работе искусственного интеллекта находит отражение и в других системах: в Великобритании Apple приостановила работу инструмента Apple Intelligence из-за ложных новостных заголовков, а у Google система Gemini рекомендовала использовать клей для прикрепления сыра к пицце и даже советовала ежедневно потреблять по одному камню, якобы по мнению геологов. Профессор Симона Стумпф из Глазговского университета подчеркнула, что, несмотря на попадание отдельных фактов, процесс формирования цепочек рассуждений в «черном ящике» ИИ остается крайне сложной задачей даже для специалистов.

После обращения Холмена ChatGPT обновил свою модель, добавив возможность поиска по актуальным новостным публикациям, что поясняется влиянием предыдущих запросов на формирование ответа. Однако отказ OpenAI от предоставления доступа к исходным данным продолжает усугублять проблему прозрачности и ответственности генеративных ИИ-систем.


Новое на сайте

19017Вредоносная кампания в Chrome перехватывает управление HR-системами и блокирует... 19016Глубоководные оползни раскрыли историю мегаземлетрясений зоны Каскадия за 7500 лет 19015Насколько глубоки ваши познания об эволюции и происхождении человека? 19014Как уязвимость CodeBreach в AWS CodeBuild могла привести к глобальной атаке через ошибку... 19013Затерянный фрагмент древней плиты пионер меняет карту сейсмических угроз Калифорнии 19012Генетические мутации вызывают слепоту менее чем в 30% случаев вопреки прежним прогнозам 19011Завершено строительство космического телескопа Nancy Grace Roman для поиска ста тысяч... 19010Вязкость пространства и фононы вакуума как разгадка аномалий расширения вселенной 19009Приведет ли массовое плодоношение дерева Риму к рекордному росту популяции какапо? 19008Как уязвимость CVE-2026-23550 в плагине Modular DS позволяет захватить управление сайтом? 19007Может ли уличная драка французского авантюриста раскрыть кризис американского гражданства... 19006Может ли один клик по легитимной ссылке заставить Microsoft Copilot и другие ИИ тайно... 19005Утрата истинного мастерства в эпоху алгоритмов и скрытые механизмы человеческого... 19004Почему защита самих моделей ИИ становится бессмысленной, если уязвимыми остаются рабочие... 19003Какие устаревшие привычки уничтожают эффективность MTTR вашего SOC в 2026 году?