В среду компания OpenAI официально объявила о запуске нового продукта под названием ChatGPT Health. Это специализированное «изолированное» пространство внутри существующей платформы, которое позволяет пользователям вести обособленные диалоги, касающиеся их здоровья. Ключевая функциональность сервиса предоставляет опциональную возможность безопасного подключения личных медицинских записей и приложений для здорового образа жизни, что необходимо для получения максимально точных и персонализированных ответов от искусственного интеллекта.

Новая система поддерживает интеграцию с рядом популярных приложений и сервисов, среди которых Apple Health, Function, MyFitnessPal, Weight Watchers, AllTrails, Instacart и Peloton. Благодаря этим подключениям пользователи могут получать интерпретацию результатов лабораторных анализов, конкретные советы по питанию, персонализированные идеи для меню, а также предложения по подходящим тренировкам. Все ответы генерируются с учетом индивидуальных данных, полученных из подключенных источников.
Функция внедряется для пользователей, имеющих тарифные планы ChatGPT Free, Go, Plus и Pro. Однако распространение сервиса имеет географические ограничения: на текущий момент ChatGPT Health недоступен для жителей Европейской экономической зоны (EEA), Швейцарии и Великобритании.
В вопросах конфиденциальности и безопасности OpenAI делает ставку на «бункерную» архитектуру с применением «многоуровневой защиты». Для обеспечения безопасности используется «специально созданное» шифрование, а сам раздел Health работает в изолированной среде с собственной памятью, полностью отделенной от остальной части ChatGPT. Важнейшим аспектом является то, что диалоги, происходящие внутри этого медицинского раздела, не используются для обучения фундаментальных моделей OpenAI.
Между обычным режимом и режимом здоровья установлены строгие ограничения перекрестного доступа. Медицинская информация и воспоминания, созданные в Health, не используются для контекстуализации чатов, не связанных со здоровьем, и наоборот — внешние разговоры не имеют доступа к файлам или данным внутри защищенного раздела. Пользовательский интерфейс настроен на активное выявление тематики: если пользователь пытается начать разговор о здоровье в стандартном чате, система предлагает переключиться в ChatGPT Health для обеспечения надлежащей защиты данных.
Для сторонних приложений установлены жесткие требования. Подключение возможно исключительно с явного разрешения пользователя, которое запрашивается отдельно от уже существующих разрешений, не касающихся здоровья. Приложения обязаны придерживаться принципа минимизации данных, собирая только необходимую информацию, и проходить дополнительные проверки безопасности для интеграции в экосистему Health.
Масштаб проблемы, которую призван решить новый продукт, подтверждается статистикой: еженедельно более 230 миллионов человек по всему миру задают платформе вопросы, связанные со здоровьем и самочувствием. OpenAI подчеркивает, что инструмент создан для «поддержки» медицинского обслуживания, но категорически заявляет, что он не должен использоваться для замены профессиональной медицинской помощи, а также в качестве замены диагностики или лечения.
Оценка эффективности и безопасности модели проводится с помощью инструмента HealthBench, который был представлен в мае 2025 года. Целью этого бенчмарка является измерение возможностей ИИ в сфере здравоохранения с фокусом на безопасность, ясность изложения и своевременную эскалацию медицинской помощи. Оцениваются такие задачи, как объяснение результатов анализов доступным языком, подготовка списка вопросов для приема у врача, интерпретация данных с носимых устройств и обобщение инструкций по уходу.
Запуск продукта происходит на фоне критических обсуждений безопасности ИИ. Компании OpenAI и сталкиваются с судебными исками, в которых утверждается, что их инструменты подталкивали пользователей к суициду и формированию вредных заблуждений. В отчете издания SFGate, опубликованном «ранее на этой неделе», подробно описывается трагический инцидент: смерть 19-летнего подростка от передозировки наркотиков произошла после того, как он доверился медицинским советам, полученным от ChatGPT.

Изображение носит иллюстративный характер
Новая система поддерживает интеграцию с рядом популярных приложений и сервисов, среди которых Apple Health, Function, MyFitnessPal, Weight Watchers, AllTrails, Instacart и Peloton. Благодаря этим подключениям пользователи могут получать интерпретацию результатов лабораторных анализов, конкретные советы по питанию, персонализированные идеи для меню, а также предложения по подходящим тренировкам. Все ответы генерируются с учетом индивидуальных данных, полученных из подключенных источников.
Функция внедряется для пользователей, имеющих тарифные планы ChatGPT Free, Go, Plus и Pro. Однако распространение сервиса имеет географические ограничения: на текущий момент ChatGPT Health недоступен для жителей Европейской экономической зоны (EEA), Швейцарии и Великобритании.
В вопросах конфиденциальности и безопасности OpenAI делает ставку на «бункерную» архитектуру с применением «многоуровневой защиты». Для обеспечения безопасности используется «специально созданное» шифрование, а сам раздел Health работает в изолированной среде с собственной памятью, полностью отделенной от остальной части ChatGPT. Важнейшим аспектом является то, что диалоги, происходящие внутри этого медицинского раздела, не используются для обучения фундаментальных моделей OpenAI.
Между обычным режимом и режимом здоровья установлены строгие ограничения перекрестного доступа. Медицинская информация и воспоминания, созданные в Health, не используются для контекстуализации чатов, не связанных со здоровьем, и наоборот — внешние разговоры не имеют доступа к файлам или данным внутри защищенного раздела. Пользовательский интерфейс настроен на активное выявление тематики: если пользователь пытается начать разговор о здоровье в стандартном чате, система предлагает переключиться в ChatGPT Health для обеспечения надлежащей защиты данных.
Для сторонних приложений установлены жесткие требования. Подключение возможно исключительно с явного разрешения пользователя, которое запрашивается отдельно от уже существующих разрешений, не касающихся здоровья. Приложения обязаны придерживаться принципа минимизации данных, собирая только необходимую информацию, и проходить дополнительные проверки безопасности для интеграции в экосистему Health.
Масштаб проблемы, которую призван решить новый продукт, подтверждается статистикой: еженедельно более 230 миллионов человек по всему миру задают платформе вопросы, связанные со здоровьем и самочувствием. OpenAI подчеркивает, что инструмент создан для «поддержки» медицинского обслуживания, но категорически заявляет, что он не должен использоваться для замены профессиональной медицинской помощи, а также в качестве замены диагностики или лечения.
Оценка эффективности и безопасности модели проводится с помощью инструмента HealthBench, который был представлен в мае 2025 года. Целью этого бенчмарка является измерение возможностей ИИ в сфере здравоохранения с фокусом на безопасность, ясность изложения и своевременную эскалацию медицинской помощи. Оцениваются такие задачи, как объяснение результатов анализов доступным языком, подготовка списка вопросов для приема у врача, интерпретация данных с носимых устройств и обобщение инструкций по уходу.
Запуск продукта происходит на фоне критических обсуждений безопасности ИИ. Компании OpenAI и сталкиваются с судебными исками, в которых утверждается, что их инструменты подталкивали пользователей к суициду и формированию вредных заблуждений. В отчете издания SFGate, опубликованном «ранее на этой неделе», подробно описывается трагический инцидент: смерть 19-летнего подростка от передозировки наркотиков произошла после того, как он доверился медицинским советам, полученным от ChatGPT.