Ssylka

От запретов к инновациям: новая стратегия управления ИИ для CISO

Искусственный интеллект представляет собой одновременно величайшую возможность и самый серьезный риск для бизнеса со времен появления интернета. Для директоров по информационной безопасности (CISO) это создает фундаментальный конфликт: как обеспечить безопасность, не жертвуя скоростью инноваций. Слишком быстрое внедрение ИИ чревато утечками конфиденциальных данных в промпты, распространением несанкционированных «теневых ИИ» и регуляторными проблемами. Слишком медленное — риском проиграть конкурентам, которые уже используют ИИ для трансформации своих процессов. Ошибка в любом из направлений может стоить CISO должности.
От запретов к инновациям: новая стратегия управления ИИ для CISO
Изображение носит иллюстративный характер

Мандат современного CISO — не возглавлять «департамент,,нет"», а прокладывать «путь к,,да"». Это требует согласования управления ИИ с аппетитом к риску и бизнес-приоритетами организации. Управление должно стать живой, адаптивной системой, которая превращает службу безопасности из барьера в катализатор роста доходов, обеспечивая безопасное и эффективное использование ИИ.

Первый принцип эффективного управления — понимание того, что происходит на практике. После появления ChatGPT в ноябре 2022 года многие компании прибегли к подходу «документирования задним числом», создавая жесткие политики в надежде сдержать риски. Этот метод неэффективен. Вместо этого следует применять мышление, ориентированное на реальный мир, которое учитывает, как именно сотрудники уже используют ИИ. CISO должен разбираться в базовых технологиях ИИ, знать, в какие системы он встроен, и понимать сценарии его применения в повседневной работе.

Для практической реализации этого принципа используются конкретные инструменты. «Реестры ИИ» (AI Inventories) и «Реестры моделей» (Model Registries) помогают отслеживать используемые системы, статус их обновления и производительность, предотвращая хаотичное разрастание «черных ящиков». Ключевым механизмом является «Спецификация компонентов ИИ» (AIBOM), которая по аналогии со «Спецификацией компонентов ПО» (SBOM) обеспечивает прозрачность компонентов, наборов данных и внешних сервисов, используемых моделью.

Управление ИИ — это общая ответственность, а не задача одного отдела. Создание межфункциональных комитетов под председательством назначенного руководителя по ИИ или риск-менеджера является критически важным шагом. В состав таких комитетов должны входить представители юридического отдела, службы комплаенса, HR и бизнес-подразделений. Это позволяет напрямую связать требования безопасности с бизнес-результатами и превратить управление в совместную работу.

Второй принцип — согласование политик со скоростью организации. Правила, которые создаются быстрее, чем их можно внедрить, становятся неисполнимыми. Показателен случай, когда CISO одной компании планомерно внедрял несколько приложений на базе генеративного ИИ, но новый CIO наложил запрет на все подобные инструменты до выбора единой корпоративной платформы. Год спустя платформа так и не была внедрена, а сотрудники массово использовали несанкционированные ИИ-инструменты, создавая уязвимости «теневого ИИ».

Решение этой проблемы заключается в концепции «живого управления» (Living Governance). Политики должны быть «живыми документами», которые эволюционируют вместе с бизнесом и сменой руководства. Управление не должно ограничиваться документами верхнего уровня; оно должно каскадироваться в конкретные стандарты, процедуры и базовые конфигурации, которыми сотрудники руководствуются в своей ежедневной работе.

Третий, и самый важный, принцип — сделать управление ИИ устойчивым в долгосрочной перспективе. Сотрудники неизбежно будут использовать несанкционированные инструменты, если они удобнее. Цель состоит не в том, чтобы запретить ИИ, а в том, чтобы сделать ответственное и безопасное его использование самым простым и привлекательным вариантом. Это достигается путем предоставления сотрудникам защищенных ИИ-инструментов корпоративного уровня, будь то купленные или разработанные внутри компании.

SANS Institute в своей концепции «Secure AI Blueprint» предлагает четкую структуру для этого. Она основана на двух столпах: «Использование ИИ» для защиты (например, для автоматизации анализа угроз и валидации срабатываний в центрах мониторинга безопасности, SOC) и «Защита ИИ» (внедрение средств контроля для защиты самих ИИ-систем от атак). Дополнительные практические рекомендации содержатся в руководстве «SANS Critical AI Security Guidelines».


Новое на сайте

18883Четыреста колец в туманности эмбрион раскрыли тридцатилетнюю тайну звездной эволюции 18882Телескоп Джеймс Уэбб раскрыл тайны сверхэффективной звездной фабрики стрелец B2 18881Математический анализ истинного количества сквозных отверстий в человеческом теле 18880Почему даже элитные суперраспознаватели проваливают тесты на выявление дипфейков без... 18879Шесть легендарных древних городов и столиц империй, местоположение которых до сих пор... 18878Обзор самых необычных медицинских диагнозов и клинических случаев 2025 года 18877Критическая уязвимость CVE-2025-14847 в MongoDB открывает удаленный доступ к памяти... 18876Научное обоснование классификации солнца как желтого карлика класса G2V 18875Как безграничная преданность горным гориллам привела Дайан Фосси к жестокой гибели? 18874Новый родственник спинозавра из Таиланда меняет представления об эволюции хищников Азии 18873Как новая электрохимическая технология позволяет удвоить добычу водорода и снизить... 18872Могут ли ледяные гиганты Уран и Нептун на самом деле оказаться каменными? 18871Внедрение вредоносного кода в расширение Trust Wallet привело к хищению 7 миллионов... 18870Проверка клинического мышления на основе редких медицинских случаев 2025 года 18869Реконструкция черепа возрастом 1,5 миллиона лет меняет представление об эволюции Homo...