Ssylka

Может ли генеративный ИИ разрушить репутацию?

Норвежский гражданин Арве Хялмар Холмен в августе 2024 года столкнулся с серьезными последствиями работы искусственного интеллекта: ChatGPT ошибочно указал, что он убил своих двух сыновей и отбывал 21 год заключения.
Может ли генеративный ИИ разрушить репутацию?
Изображение носит иллюстративный характер

Система сообщила, что Холмен является отцом двух мальчиков в возрасте 7 и 10 лет, которые, согласно выданным данным, были обнаружены мертвыми в пруду недалеко от дома в Тронхейме (Норвегия) в декабре 2020 года.

Юридическая организация Noyb (None of Your Business) подала жалобу в Норвежное агентство по защите данных, требуя наложения штрафа на OpenAI за нарушение европейских норм о достоверности персональных данных, а также за нанесение ущерба репутации гражданина, который никогда не обвинялся и не осуждался.

Холмен отметил: «Некоторые считают, что без огня нет дыма – тот факт, что кто-то может поверить в эту информацию, меня пугает больше всего», подчеркнув опасность принятия ложных сведений за истину.

Юрист Йоаким Сёдерберг акцентировал, что предупреждение «ChatGPT может допускать ошибки. Проверьте важную информацию» не оправдывает распространения клеветнических данных, наносящих реальный вред репутации.

Проблема «галлюцинаций» в работе искусственного интеллекта находит отражение и в других системах: в Великобритании Apple приостановила работу инструмента Apple Intelligence из-за ложных новостных заголовков, а у Google система Gemini рекомендовала использовать клей для прикрепления сыра к пицце и даже советовала ежедневно потреблять по одному камню, якобы по мнению геологов. Профессор Симона Стумпф из Глазговского университета подчеркнула, что, несмотря на попадание отдельных фактов, процесс формирования цепочек рассуждений в «черном ящике» ИИ остается крайне сложной задачей даже для специалистов.

После обращения Холмена ChatGPT обновил свою модель, добавив возможность поиска по актуальным новостным публикациям, что поясняется влиянием предыдущих запросов на формирование ответа. Однако отказ OpenAI от предоставления доступа к исходным данным продолжает усугублять проблему прозрачности и ответственности генеративных ИИ-систем.


Новое на сайте

18884Знаете ли вы, что приматы появились до вымирания динозавров, и готовы ли проверить свои... 18883Четыреста колец в туманности эмбрион раскрыли тридцатилетнюю тайну звездной эволюции 18882Телескоп Джеймс Уэбб раскрыл тайны сверхэффективной звездной фабрики стрелец B2 18881Математический анализ истинного количества сквозных отверстий в человеческом теле 18880Почему даже элитные суперраспознаватели проваливают тесты на выявление дипфейков без... 18879Шесть легендарных древних городов и столиц империй, местоположение которых до сих пор... 18878Обзор самых необычных медицинских диагнозов и клинических случаев 2025 года 18877Критическая уязвимость CVE-2025-14847 в MongoDB открывает удаленный доступ к памяти... 18876Научное обоснование классификации солнца как желтого карлика класса G2V 18875Как безграничная преданность горным гориллам привела Дайан Фосси к жестокой гибели? 18874Новый родственник спинозавра из Таиланда меняет представления об эволюции хищников Азии 18873Как новая электрохимическая технология позволяет удвоить добычу водорода и снизить... 18872Могут ли ледяные гиганты Уран и Нептун на самом деле оказаться каменными? 18871Внедрение вредоносного кода в расширение Trust Wallet привело к хищению 7 миллионов... 18870Проверка клинического мышления на основе редких медицинских случаев 2025 года