Зачем OpenAI запускает защищенный режим ChatGPT Health для работы с медицинскими данными?

В среду компания OpenAI официально объявила о запуске нового продукта под названием ChatGPT Health. Это специализированное «изолированное» пространство внутри существующей платформы, которое позволяет пользователям вести обособленные диалоги, касающиеся их здоровья. Ключевая функциональность сервиса предоставляет опциональную возможность безопасного подключения личных медицинских записей и приложений для здорового образа жизни, что необходимо для получения максимально точных и персонализированных ответов от искусственного интеллекта.
Зачем OpenAI запускает защищенный режим ChatGPT Health для работы с медицинскими данными?
Изображение носит иллюстративный характер

Новая система поддерживает интеграцию с рядом популярных приложений и сервисов, среди которых Apple Health, Function, MyFitnessPal, Weight Watchers, AllTrails, Instacart и Peloton. Благодаря этим подключениям пользователи могут получать интерпретацию результатов лабораторных анализов, конкретные советы по питанию, персонализированные идеи для меню, а также предложения по подходящим тренировкам. Все ответы генерируются с учетом индивидуальных данных, полученных из подключенных источников.

Функция внедряется для пользователей, имеющих тарифные планы ChatGPT Free, Go, Plus и Pro. Однако распространение сервиса имеет географические ограничения: на текущий момент ChatGPT Health недоступен для жителей Европейской экономической зоны (EEA), Швейцарии и Великобритании.

В вопросах конфиденциальности и безопасности OpenAI делает ставку на «бункерную» архитектуру с применением «многоуровневой защиты». Для обеспечения безопасности используется «специально созданное» шифрование, а сам раздел Health работает в изолированной среде с собственной памятью, полностью отделенной от остальной части ChatGPT. Важнейшим аспектом является то, что диалоги, происходящие внутри этого медицинского раздела, не используются для обучения фундаментальных моделей OpenAI.

Между обычным режимом и режимом здоровья установлены строгие ограничения перекрестного доступа. Медицинская информация и воспоминания, созданные в Health, не используются для контекстуализации чатов, не связанных со здоровьем, и наоборот — внешние разговоры не имеют доступа к файлам или данным внутри защищенного раздела. Пользовательский интерфейс настроен на активное выявление тематики: если пользователь пытается начать разговор о здоровье в стандартном чате, система предлагает переключиться в ChatGPT Health для обеспечения надлежащей защиты данных.

Для сторонних приложений установлены жесткие требования. Подключение возможно исключительно с явного разрешения пользователя, которое запрашивается отдельно от уже существующих разрешений, не касающихся здоровья. Приложения обязаны придерживаться принципа минимизации данных, собирая только необходимую информацию, и проходить дополнительные проверки безопасности для интеграции в экосистему Health.

Масштаб проблемы, которую призван решить новый продукт, подтверждается статистикой: еженедельно более 230 миллионов человек по всему миру задают платформе вопросы, связанные со здоровьем и самочувствием. OpenAI подчеркивает, что инструмент создан для «поддержки» медицинского обслуживания, но категорически заявляет, что он не должен использоваться для замены профессиональной медицинской помощи, а также в качестве замены диагностики или лечения.

Оценка эффективности и безопасности модели проводится с помощью инструмента HealthBench, который был представлен в мае 2025 года. Целью этого бенчмарка является измерение возможностей ИИ в сфере здравоохранения с фокусом на безопасность, ясность изложения и своевременную эскалацию медицинской помощи. Оцениваются такие задачи, как объяснение результатов анализов доступным языком, подготовка списка вопросов для приема у врача, интерпретация данных с носимых устройств и обобщение инструкций по уходу.

Запуск продукта происходит на фоне критических обсуждений безопасности ИИ. Компании OpenAI и сталкиваются с судебными исками, в которых утверждается, что их инструменты подталкивали пользователей к суициду и формированию вредных заблуждений. В отчете издания SFGate, опубликованном «ранее на этой неделе», подробно описывается трагический инцидент: смерть 19-летнего подростка от передозировки наркотиков произошла после того, как он доверился медицинским советам, полученным от ChatGPT.


Новое на сайте

19788Комета MAPS сгорела в солнечной короне и вылетела облаком обломков 19787Кто стоит за кибератаками на журналистов ближнего Востока и зачем Индии понадобилась... 19786Теневой ИИ в компаниях: угроза, которую не видят безопасники 19785Почему NASA спокойно относится к проблеме с теплозащитным экраном Artemis II? 19784Шифрование видео, которое не сломает даже квантовый компьютер 19783Западу США грозит аномально опасный сезон пожаров 19782Белок, который не должен убивать: как одна гипотеза перевернула биологию 19781Серебряная монета XVI века указала на затерянную испанскую колонию у магелланова пролива 19780Что за загадочные клетки появляются в организме женщины только во время беременности? 19779Кератин как тормоз воспаления: неожиданная роль знакомого белка 19778Ботнет Chaos перенацелился на облака и обзавёлся SOCKS-прокси 19777Когда комета PanSTARRS станет видна невооружённым глазом? 19776Почему списки «качеств лидера» не работают и что делают настоящие руководители 19775Спичечные этикетки как летопись потерянного Малибу 19774Тёмная материя корпоративных учётных записей: почему половина цифровых идентичностей...
Ссылка