Искусственный интеллект представляет собой одновременно величайшую возможность и самый серьезный риск для бизнеса со времен появления интернета. Для директоров по информационной безопасности (CISO) это создает фундаментальный конфликт: как обеспечить безопасность, не жертвуя скоростью инноваций. Слишком быстрое внедрение ИИ чревато утечками конфиденциальных данных в промпты, распространением несанкционированных «теневых ИИ» и регуляторными проблемами. Слишком медленное — риском проиграть конкурентам, которые уже используют ИИ для трансформации своих процессов. Ошибка в любом из направлений может стоить CISO должности.

Мандат современного CISO — не возглавлять «департамент,,нет"», а прокладывать «путь к,,да"». Это требует согласования управления ИИ с аппетитом к риску и бизнес-приоритетами организации. Управление должно стать живой, адаптивной системой, которая превращает службу безопасности из барьера в катализатор роста доходов, обеспечивая безопасное и эффективное использование ИИ.
Первый принцип эффективного управления — понимание того, что происходит на практике. После появления ChatGPT в ноябре 2022 года многие компании прибегли к подходу «документирования задним числом», создавая жесткие политики в надежде сдержать риски. Этот метод неэффективен. Вместо этого следует применять мышление, ориентированное на реальный мир, которое учитывает, как именно сотрудники уже используют ИИ. CISO должен разбираться в базовых технологиях ИИ, знать, в какие системы он встроен, и понимать сценарии его применения в повседневной работе.
Для практической реализации этого принципа используются конкретные инструменты. «Реестры ИИ» (AI Inventories) и «Реестры моделей» (Model Registries) помогают отслеживать используемые системы, статус их обновления и производительность, предотвращая хаотичное разрастание «черных ящиков». Ключевым механизмом является «Спецификация компонентов ИИ» (AIBOM), которая по аналогии со «Спецификацией компонентов ПО» (SBOM) обеспечивает прозрачность компонентов, наборов данных и внешних сервисов, используемых моделью.
Управление ИИ — это общая ответственность, а не задача одного отдела. Создание межфункциональных комитетов под председательством назначенного руководителя по ИИ или риск-менеджера является критически важным шагом. В состав таких комитетов должны входить представители юридического отдела, службы комплаенса, HR и бизнес-подразделений. Это позволяет напрямую связать требования безопасности с бизнес-результатами и превратить управление в совместную работу.
Второй принцип — согласование политик со скоростью организации. Правила, которые создаются быстрее, чем их можно внедрить, становятся неисполнимыми. Показателен случай, когда CISO одной компании планомерно внедрял несколько приложений на базе генеративного ИИ, но новый CIO наложил запрет на все подобные инструменты до выбора единой корпоративной платформы. Год спустя платформа так и не была внедрена, а сотрудники массово использовали несанкционированные ИИ-инструменты, создавая уязвимости «теневого ИИ».
Решение этой проблемы заключается в концепции «живого управления» (Living Governance). Политики должны быть «живыми документами», которые эволюционируют вместе с бизнесом и сменой руководства. Управление не должно ограничиваться документами верхнего уровня; оно должно каскадироваться в конкретные стандарты, процедуры и базовые конфигурации, которыми сотрудники руководствуются в своей ежедневной работе.
Третий, и самый важный, принцип — сделать управление ИИ устойчивым в долгосрочной перспективе. Сотрудники неизбежно будут использовать несанкционированные инструменты, если они удобнее. Цель состоит не в том, чтобы запретить ИИ, а в том, чтобы сделать ответственное и безопасное его использование самым простым и привлекательным вариантом. Это достигается путем предоставления сотрудникам защищенных ИИ-инструментов корпоративного уровня, будь то купленные или разработанные внутри компании.
SANS Institute в своей концепции «Secure AI Blueprint» предлагает четкую структуру для этого. Она основана на двух столпах: «Использование ИИ» для защиты (например, для автоматизации анализа угроз и валидации срабатываний в центрах мониторинга безопасности, SOC) и «Защита ИИ» (внедрение средств контроля для защиты самих ИИ-систем от атак). Дополнительные практические рекомендации содержатся в руководстве «SANS Critical AI Security Guidelines».

Изображение носит иллюстративный характер
Мандат современного CISO — не возглавлять «департамент,,нет"», а прокладывать «путь к,,да"». Это требует согласования управления ИИ с аппетитом к риску и бизнес-приоритетами организации. Управление должно стать живой, адаптивной системой, которая превращает службу безопасности из барьера в катализатор роста доходов, обеспечивая безопасное и эффективное использование ИИ.
Первый принцип эффективного управления — понимание того, что происходит на практике. После появления ChatGPT в ноябре 2022 года многие компании прибегли к подходу «документирования задним числом», создавая жесткие политики в надежде сдержать риски. Этот метод неэффективен. Вместо этого следует применять мышление, ориентированное на реальный мир, которое учитывает, как именно сотрудники уже используют ИИ. CISO должен разбираться в базовых технологиях ИИ, знать, в какие системы он встроен, и понимать сценарии его применения в повседневной работе.
Для практической реализации этого принципа используются конкретные инструменты. «Реестры ИИ» (AI Inventories) и «Реестры моделей» (Model Registries) помогают отслеживать используемые системы, статус их обновления и производительность, предотвращая хаотичное разрастание «черных ящиков». Ключевым механизмом является «Спецификация компонентов ИИ» (AIBOM), которая по аналогии со «Спецификацией компонентов ПО» (SBOM) обеспечивает прозрачность компонентов, наборов данных и внешних сервисов, используемых моделью.
Управление ИИ — это общая ответственность, а не задача одного отдела. Создание межфункциональных комитетов под председательством назначенного руководителя по ИИ или риск-менеджера является критически важным шагом. В состав таких комитетов должны входить представители юридического отдела, службы комплаенса, HR и бизнес-подразделений. Это позволяет напрямую связать требования безопасности с бизнес-результатами и превратить управление в совместную работу.
Второй принцип — согласование политик со скоростью организации. Правила, которые создаются быстрее, чем их можно внедрить, становятся неисполнимыми. Показателен случай, когда CISO одной компании планомерно внедрял несколько приложений на базе генеративного ИИ, но новый CIO наложил запрет на все подобные инструменты до выбора единой корпоративной платформы. Год спустя платформа так и не была внедрена, а сотрудники массово использовали несанкционированные ИИ-инструменты, создавая уязвимости «теневого ИИ».
Решение этой проблемы заключается в концепции «живого управления» (Living Governance). Политики должны быть «живыми документами», которые эволюционируют вместе с бизнесом и сменой руководства. Управление не должно ограничиваться документами верхнего уровня; оно должно каскадироваться в конкретные стандарты, процедуры и базовые конфигурации, которыми сотрудники руководствуются в своей ежедневной работе.
Третий, и самый важный, принцип — сделать управление ИИ устойчивым в долгосрочной перспективе. Сотрудники неизбежно будут использовать несанкционированные инструменты, если они удобнее. Цель состоит не в том, чтобы запретить ИИ, а в том, чтобы сделать ответственное и безопасное его использование самым простым и привлекательным вариантом. Это достигается путем предоставления сотрудникам защищенных ИИ-инструментов корпоративного уровня, будь то купленные или разработанные внутри компании.
SANS Institute в своей концепции «Secure AI Blueprint» предлагает четкую структуру для этого. Она основана на двух столпах: «Использование ИИ» для защиты (например, для автоматизации анализа угроз и валидации срабатываний в центрах мониторинга безопасности, SOC) и «Защита ИИ» (внедрение средств контроля для защиты самих ИИ-систем от атак). Дополнительные практические рекомендации содержатся в руководстве «SANS Critical AI Security Guidelines».