Ssylka

От запретов к инновациям: новая стратегия управления ИИ для CISO

Искусственный интеллект представляет собой одновременно величайшую возможность и самый серьезный риск для бизнеса со времен появления интернета. Для директоров по информационной безопасности (CISO) это создает фундаментальный конфликт: как обеспечить безопасность, не жертвуя скоростью инноваций. Слишком быстрое внедрение ИИ чревато утечками конфиденциальных данных в промпты, распространением несанкционированных «теневых ИИ» и регуляторными проблемами. Слишком медленное — риском проиграть конкурентам, которые уже используют ИИ для трансформации своих процессов. Ошибка в любом из направлений может стоить CISO должности.
От запретов к инновациям: новая стратегия управления ИИ для CISO
Изображение носит иллюстративный характер

Мандат современного CISO — не возглавлять «департамент,,нет"», а прокладывать «путь к,,да"». Это требует согласования управления ИИ с аппетитом к риску и бизнес-приоритетами организации. Управление должно стать живой, адаптивной системой, которая превращает службу безопасности из барьера в катализатор роста доходов, обеспечивая безопасное и эффективное использование ИИ.

Первый принцип эффективного управления — понимание того, что происходит на практике. После появления ChatGPT в ноябре 2022 года многие компании прибегли к подходу «документирования задним числом», создавая жесткие политики в надежде сдержать риски. Этот метод неэффективен. Вместо этого следует применять мышление, ориентированное на реальный мир, которое учитывает, как именно сотрудники уже используют ИИ. CISO должен разбираться в базовых технологиях ИИ, знать, в какие системы он встроен, и понимать сценарии его применения в повседневной работе.

Для практической реализации этого принципа используются конкретные инструменты. «Реестры ИИ» (AI Inventories) и «Реестры моделей» (Model Registries) помогают отслеживать используемые системы, статус их обновления и производительность, предотвращая хаотичное разрастание «черных ящиков». Ключевым механизмом является «Спецификация компонентов ИИ» (AIBOM), которая по аналогии со «Спецификацией компонентов ПО» (SBOM) обеспечивает прозрачность компонентов, наборов данных и внешних сервисов, используемых моделью.

Управление ИИ — это общая ответственность, а не задача одного отдела. Создание межфункциональных комитетов под председательством назначенного руководителя по ИИ или риск-менеджера является критически важным шагом. В состав таких комитетов должны входить представители юридического отдела, службы комплаенса, HR и бизнес-подразделений. Это позволяет напрямую связать требования безопасности с бизнес-результатами и превратить управление в совместную работу.

Второй принцип — согласование политик со скоростью организации. Правила, которые создаются быстрее, чем их можно внедрить, становятся неисполнимыми. Показателен случай, когда CISO одной компании планомерно внедрял несколько приложений на базе генеративного ИИ, но новый CIO наложил запрет на все подобные инструменты до выбора единой корпоративной платформы. Год спустя платформа так и не была внедрена, а сотрудники массово использовали несанкционированные ИИ-инструменты, создавая уязвимости «теневого ИИ».

Решение этой проблемы заключается в концепции «живого управления» (Living Governance). Политики должны быть «живыми документами», которые эволюционируют вместе с бизнесом и сменой руководства. Управление не должно ограничиваться документами верхнего уровня; оно должно каскадироваться в конкретные стандарты, процедуры и базовые конфигурации, которыми сотрудники руководствуются в своей ежедневной работе.

Третий, и самый важный, принцип — сделать управление ИИ устойчивым в долгосрочной перспективе. Сотрудники неизбежно будут использовать несанкционированные инструменты, если они удобнее. Цель состоит не в том, чтобы запретить ИИ, а в том, чтобы сделать ответственное и безопасное его использование самым простым и привлекательным вариантом. Это достигается путем предоставления сотрудникам защищенных ИИ-инструментов корпоративного уровня, будь то купленные или разработанные внутри компании.

SANS Institute в своей концепции «Secure AI Blueprint» предлагает четкую структуру для этого. Она основана на двух столпах: «Использование ИИ» для защиты (например, для автоматизации анализа угроз и валидации срабатываний в центрах мониторинга безопасности, SOC) и «Защита ИИ» (внедрение средств контроля для защиты самих ИИ-систем от атак). Дополнительные практические рекомендации содержатся в руководстве «SANS Critical AI Security Guidelines».


Новое на сайте

18590Является ли ИИ-архитектура, имитирующая мозг, недостающим звеном на пути к AGI? 18589Как Operation Endgame нанесла сокрушительный удар по глобальной киберпреступности? 18588Кибервойна на скорости машин: почему защита должна стать автоматической к 2026 году 18587Как одна ошибка в коде открыла для хакеров 54 000 файрволов WatchGuard? 18586Криптовалютный червь: как десятки тысяч фейковых пакетов наводнили npm 18585Портативный звук JBL по рекордно низкой цене 18584Воин-крокодил триаса: находка в Бразилии связала континенты 18583Опиум как повседневность древнего Египта 18582Двойной удар по лекарственно-устойчивой малярии 18581Почему взрыв массивной звезды асимметричен в первые мгновения? 18580Почему самые удобные для поиска жизни звезды оказались наиболее враждебными? 18579Смертоносные вспышки красных карликов угрожают обитаемым мирам 18578Почему самый активный подводный вулкан тихого океана заставил ученых пересмотреть дату... 18577Вспышка на солнце сорвала запуск ракеты New Glenn к Марсу 18576Как фишинг-платформа Lighthouse заработала миллиард долларов и почему Google подала на...