В недавнем расследовании компания Anthropic раскрыла тревожную информацию о том, как их ИИ-помощник Claude использовался злоумышленниками для проведения масштабной операции «влияние как услуга». Злоумышленники создали более 100 фальшивых политических персонажей в социальных сетях Ф⃰ и X, которые взаимодействовали с десятками тысяч реальных аккаунтов.

Особенность кампании заключалась в долгосрочной стратегии, ориентированной на постоянное присутствие, а не на вирусное распространение контента. Операторы использовали политически ориентированные аккаунты для продвижения умеренных политических взглядов, нацеленных на аудитории, связанные с Европой, Ираном, ОАЭ и Кенией.
Среди основных нарративов, продвигаемых в рамках кампании, были: представление ОАЭ как превосходной бизнес-среды, критика европейских регуляторных рамок, обсуждение вопросов энергетической безопасности для европейской аудитории, продвижение тем культурной идентичности для иранской аудитории, поддержка албанских политических фигур, критика оппозиционных деятелей в неназванной европейской стране, а также поддержка инициатив развития и политических фигур в Кении.
Техническая сторона операции демонстрирует беспрецедентное использование искусственного интеллекта. Claude применялся не только для генерации контента, но и как «оркестратор» всей операции. ИИ самостоятельно определял, когда бот-аккаунты должны комментировать, ставить лайки или делиться постами, генерировал политически согласованные ответы на родном языке персонажа, создавал промпты для инструментов генерации изображений. Злоумышленники также внедрили JSON-подход к управлению персонами и запрограммировали аккаунты реагировать с юмором или сарказмом, когда их обвиняли в том, что они боты.
По данным Anthropic, за операцией стоит коммерческая служба с несколькими клиентами, чьи методы соответствуют кампаниям, связанным с государственными структурами. Исследователи идентифицировали как минимум четыре отдельные кампании, использующие эту инфраструктуру, хотя конкретные исполнители остаются неизвестными.
Помимо этой масштабной операции, Anthropic выявила и другие случаи злоупотребления их ИИ-системой. В марте 2025 года злоумышленники использовали Claude для сбора украденных паролей и имен пользователей для камер безопасности, разработки методов брутфорса, обработки логов похитителей информации из Telegram, создания скриптов для скрапинга целевых URL и улучшения функциональности поиска.
В тот же период был зафиксирован случай мошенничества при найме, нацеленный на соискателей из Восточной Европы, а также попытка новичка в киберпреступности использовать Claude для разработки продвинутого вредоносного ПО, значительно превосходящего собственные навыки злоумышленника.
Исследователи Кен Лебедев, Алекс Муа и Джейкоб Кляйн, работавшие над выявлением этих угроз, подчеркивают необходимость разработки новых методов оценки операций влияния. Они отмечают, что искусственный интеллект существенно снижает барьеры для проведения кампаний влияния и может «выравнивать кривую обучения» для злоумышленников, позволяя даже неопытным акторам проводить сложные операции.
Этот случай наглядно демонстрирует, как передовые технологии ИИ могут быть использованы не только для позитивных целей, но и в качестве инструмента для проведения скоординированных кампаний влияния, направленных на манипулирование общественным мнением в глобальном масштабе.

Изображение носит иллюстративный характер
Особенность кампании заключалась в долгосрочной стратегии, ориентированной на постоянное присутствие, а не на вирусное распространение контента. Операторы использовали политически ориентированные аккаунты для продвижения умеренных политических взглядов, нацеленных на аудитории, связанные с Европой, Ираном, ОАЭ и Кенией.
Среди основных нарративов, продвигаемых в рамках кампании, были: представление ОАЭ как превосходной бизнес-среды, критика европейских регуляторных рамок, обсуждение вопросов энергетической безопасности для европейской аудитории, продвижение тем культурной идентичности для иранской аудитории, поддержка албанских политических фигур, критика оппозиционных деятелей в неназванной европейской стране, а также поддержка инициатив развития и политических фигур в Кении.
Техническая сторона операции демонстрирует беспрецедентное использование искусственного интеллекта. Claude применялся не только для генерации контента, но и как «оркестратор» всей операции. ИИ самостоятельно определял, когда бот-аккаунты должны комментировать, ставить лайки или делиться постами, генерировал политически согласованные ответы на родном языке персонажа, создавал промпты для инструментов генерации изображений. Злоумышленники также внедрили JSON-подход к управлению персонами и запрограммировали аккаунты реагировать с юмором или сарказмом, когда их обвиняли в том, что они боты.
По данным Anthropic, за операцией стоит коммерческая служба с несколькими клиентами, чьи методы соответствуют кампаниям, связанным с государственными структурами. Исследователи идентифицировали как минимум четыре отдельные кампании, использующие эту инфраструктуру, хотя конкретные исполнители остаются неизвестными.
Помимо этой масштабной операции, Anthropic выявила и другие случаи злоупотребления их ИИ-системой. В марте 2025 года злоумышленники использовали Claude для сбора украденных паролей и имен пользователей для камер безопасности, разработки методов брутфорса, обработки логов похитителей информации из Telegram, создания скриптов для скрапинга целевых URL и улучшения функциональности поиска.
В тот же период был зафиксирован случай мошенничества при найме, нацеленный на соискателей из Восточной Европы, а также попытка новичка в киберпреступности использовать Claude для разработки продвинутого вредоносного ПО, значительно превосходящего собственные навыки злоумышленника.
Исследователи Кен Лебедев, Алекс Муа и Джейкоб Кляйн, работавшие над выявлением этих угроз, подчеркивают необходимость разработки новых методов оценки операций влияния. Они отмечают, что искусственный интеллект существенно снижает барьеры для проведения кампаний влияния и может «выравнивать кривую обучения» для злоумышленников, позволяя даже неопытным акторам проводить сложные операции.
Этот случай наглядно демонстрирует, как передовые технологии ИИ могут быть использованы не только для позитивных целей, но и в качестве инструмента для проведения скоординированных кампаний влияния, направленных на манипулирование общественным мнением в глобальном масштабе.