Растущая популярность искусственного интеллекта привела к появлению феномена «завуалированного ИИ» (shadow AI) на рабочем месте. Работники, в погоне за эффективностью и доступом к конкретным инструментам, всё чаще используют AI-решения без одобрения IT-отделов. Эта тенденция, с одной стороны, повышает производительность, но, с другой, создаёт серьезные риски для безопасности данных и корпоративного контроля.
Согласно недавнему исследованию Software AG, половина всех офисных работников уже пользуются персональными AI-инструментами. Эта категория сотрудников, проводящих большую часть времени за компьютерами, стремится обойти длительные бюрократические процедуры и получить прямой доступ к тем решениям, которые наиболее отвечают их индивидуальным потребностям. Harmonic Security отслеживает более 10 000 AI-приложений и отмечает, что более 5 000 из них активно используются внутри организаций. При этом, тревожным фактом является то, что 30% этих приложений обучаются на данных, вводимых пользователями.
Мотивация сотрудников вполне понятна: нехватка собственных AI-инструментов, предоставляемых IT-службами, желание использовать конкретные решения (например, предпочтение Cursor перед GitHub Copilot), и стремление избежать длительных процессов согласования. В результате, например, программисты предпочитают использовать Cursor, так как он лучше подходит для их задач, в то время как компании предоставляют в качестве основного инструмента GitHub Copilot. При этом, часто у сотрудников нет другого выбора, кроме как устанавливать и использовать такие инструменты, как Google Gemini и ChatGPT через Kagi и Slack.
Использование таких инструментов, по сути, предоставляет сотрудникам «спарринг-партнёра» в решении сложных задач, позволяя им быстрее обрабатывать информацию, например, анализировать видео с помощью ChatGPT 4o. Это позволяет сотрудникам овладевать новым опытом, который они, возможно, еще не получили бы традиционным путем. По словам Симона Хайтона-Уильямса, генерального директора The Adaptavist Group, искусственный интеллект позволяет «сжать пятилетний опыт в 30 секунд написания запроса».
Однако, наряду с преимуществами, скрытое использование AI несёт в себе ряд угроз. Обучение AI на вводимых пользователями данных, может привести к утечке коммерческой тайны, а хранение информации в AI-сервисах без контроля со стороны компании создаёт уязвимости для кражи данных. При этом, отсутствие понимания того, как именно используются эти инструменты, также представляет серьезную проблему.
Многие компании сталкиваются с трудностями в управлении и контроле за использованием AI-инструментов сотрудниками. Некоторые из них прибегают к полному запрету внешних AI-решений, в то время как другие, как Trimble, создают собственные внутренние AI-инструменты, поощряя безопасное освоение технологий. Например, Trimble разработала Trimble Assistant, свой собственный AI-инструмент, основанный на тех же моделях, что используются в ChatGPT.
Генеральный директор и сооснователь Harmonic Security, Аластер Патерсон, подчеркивает, что компаниям необходимо понимать, что происходит и почему, а не просто пытаться подавить использование AI. Это подтверждает и Каролина Тортила, директор по AI в Trimble, отмечая, что на первый план выходит умение сотрудников различать конфиденциальные данные.
Примером может служить Джон, программист в компании, занимающейся финансовыми технологиями, который считает, что «проще получить прощение, чем разрешение» в контексте использования AI. Питер, менеджер по продукту в компании, занимающейся хранением данных, говорит, что "AI скорее даёт партнёра по спору, чем готовые ответы».
В заключении, компании должны принять более гибкий подход и сотрудничать с сотрудниками в использовании AI. Не стоит пытаться запретить эти технологии, а необходимо понять, как их можно использовать безопасно и эффективно. Ключевым фактором является понимание того, какие данные являются конфиденциальными и как их следует защищать.
Изображение носит иллюстративный характер
Согласно недавнему исследованию Software AG, половина всех офисных работников уже пользуются персональными AI-инструментами. Эта категория сотрудников, проводящих большую часть времени за компьютерами, стремится обойти длительные бюрократические процедуры и получить прямой доступ к тем решениям, которые наиболее отвечают их индивидуальным потребностям. Harmonic Security отслеживает более 10 000 AI-приложений и отмечает, что более 5 000 из них активно используются внутри организаций. При этом, тревожным фактом является то, что 30% этих приложений обучаются на данных, вводимых пользователями.
Мотивация сотрудников вполне понятна: нехватка собственных AI-инструментов, предоставляемых IT-службами, желание использовать конкретные решения (например, предпочтение Cursor перед GitHub Copilot), и стремление избежать длительных процессов согласования. В результате, например, программисты предпочитают использовать Cursor, так как он лучше подходит для их задач, в то время как компании предоставляют в качестве основного инструмента GitHub Copilot. При этом, часто у сотрудников нет другого выбора, кроме как устанавливать и использовать такие инструменты, как Google Gemini и ChatGPT через Kagi и Slack.
Использование таких инструментов, по сути, предоставляет сотрудникам «спарринг-партнёра» в решении сложных задач, позволяя им быстрее обрабатывать информацию, например, анализировать видео с помощью ChatGPT 4o. Это позволяет сотрудникам овладевать новым опытом, который они, возможно, еще не получили бы традиционным путем. По словам Симона Хайтона-Уильямса, генерального директора The Adaptavist Group, искусственный интеллект позволяет «сжать пятилетний опыт в 30 секунд написания запроса».
Однако, наряду с преимуществами, скрытое использование AI несёт в себе ряд угроз. Обучение AI на вводимых пользователями данных, может привести к утечке коммерческой тайны, а хранение информации в AI-сервисах без контроля со стороны компании создаёт уязвимости для кражи данных. При этом, отсутствие понимания того, как именно используются эти инструменты, также представляет серьезную проблему.
Многие компании сталкиваются с трудностями в управлении и контроле за использованием AI-инструментов сотрудниками. Некоторые из них прибегают к полному запрету внешних AI-решений, в то время как другие, как Trimble, создают собственные внутренние AI-инструменты, поощряя безопасное освоение технологий. Например, Trimble разработала Trimble Assistant, свой собственный AI-инструмент, основанный на тех же моделях, что используются в ChatGPT.
Генеральный директор и сооснователь Harmonic Security, Аластер Патерсон, подчеркивает, что компаниям необходимо понимать, что происходит и почему, а не просто пытаться подавить использование AI. Это подтверждает и Каролина Тортила, директор по AI в Trimble, отмечая, что на первый план выходит умение сотрудников различать конфиденциальные данные.
Примером может служить Джон, программист в компании, занимающейся финансовыми технологиями, который считает, что «проще получить прощение, чем разрешение» в контексте использования AI. Питер, менеджер по продукту в компании, занимающейся хранением данных, говорит, что "AI скорее даёт партнёра по спору, чем готовые ответы».
В заключении, компании должны принять более гибкий подход и сотрудничать с сотрудниками в использовании AI. Не стоит пытаться запретить эти технологии, а необходимо понять, как их можно использовать безопасно и эффективно. Ключевым фактором является понимание того, какие данные являются конфиденциальными и как их следует защищать.