Финансовые преступники долго использовали социальную инженерию для обмана людей, повышая уровень манипуляций с каждым витком технологического прогресса. Искусственный интеллект ускоряет эту эволюцию: атаки становятся более быстрыми, масштабными и реалистичными, включая использование глубоких видеофейков и голосовых клонов.
![Устоят ли люди перед новой волной ИИ-мошенничеств?](/images/topic/8988.jpg)
Некогда в деле «Жан-Ив Ле Дриан» преступники задействовали силиконовую маску и декорации кабинета министра, чтобы связаться по видеосвязи с более чем 150 влиятельными лицами. Просили крупные суммы под предлогом выкупа заложников или финансирования антитеррористических операций. Самая крупная подтверждённая транзакция составила 47 миллионов евро при общем ущербе свыше 55 миллионов евро.
Современные технологии позволяют заменить громоздкие маски на реалистичные видеофейки. В Гонконге мошенники представились финансовым директором компании и, используя видеоконференцию с фальшивым изображением, убедили коллегу перевести 25 миллионов долларов на сторонний счёт.
Классические звонки «вышестоящих» лиц, создающих панику для срочных платежей, остаются действенным курсом атак. Жертвы потеряли в среднем 1400 долларов только за 2022 год. Искусственный интеллект внёс опасные коррективы: голосовое клонирование способно воссоздать тембр человека, имея лишь короткие образцы речи. В одном из случаев мать услышала «голос похищенной дочери» и едва не перевела преступникам 50 тысяч долларов.
Электронная почта также не утратила позиции основного канала фишинга. Раньше в письмах безлично упоминались «выигрыши в лотерею» и опечатки выдавали злоумышленников. Сейчас благодаря крупным языковым моделям атакующие автоматически создают безупречные тексты на разных языках, делая «массовые» и «точечные» фишинговые кампании ещё эффективнее.
По данным отчёта FBI Internet Crime Report за 2023 год, киберпреступники наиболее часто используют фишинг и спуфинг (298 878 жалоб), а утечки личных данных идут вторым номером (55 851 жалоба). Исследование Harvard Business Review подчёркивает: «Весь процесс фишинга может быть автоматизирован с помощью крупных языковых моделей, что снижает стоимость атак более чем на 95%, сохраняя или превышая прежний уровень успеха».
Мошенники опираются на доверие, уважение к авторитету и страх, пользуясь недостаточно быстрой адаптацией человеческого поведения к новым видам атак. Традиционные меры предосторожности порой оказываются неэффективны, и организации всё чаще проводят имитационные тесты, чтобы сотрудники запоминали, как выглядит реальная угроза и как правильно реагировать на неё.
В некоторых случаях к материалам добавляют специальные скрипты для аналитики и отслеживания. Пример — код с идентификатором "5310954" в настройках LinkedIn:
_linkedin_partner_id = "5310954";
window._linkedin_data_partner_ids = window._linkedin_data_partner_ids || [];
window._linkedin_data_partner_ids.push(_linkedin_partner_id);
(function(l) {...})(window);
Подобные инструменты помогают компаниям мониторить поведение пользователей, но ничто не застраховывает от растущих рисков, если системы безопасности не готовы к новым формам социальной инженерии.
![Устоят ли люди перед новой волной ИИ-мошенничеств?](/images/topic/8988.jpg)
Изображение носит иллюстративный характер
Некогда в деле «Жан-Ив Ле Дриан» преступники задействовали силиконовую маску и декорации кабинета министра, чтобы связаться по видеосвязи с более чем 150 влиятельными лицами. Просили крупные суммы под предлогом выкупа заложников или финансирования антитеррористических операций. Самая крупная подтверждённая транзакция составила 47 миллионов евро при общем ущербе свыше 55 миллионов евро.
Современные технологии позволяют заменить громоздкие маски на реалистичные видеофейки. В Гонконге мошенники представились финансовым директором компании и, используя видеоконференцию с фальшивым изображением, убедили коллегу перевести 25 миллионов долларов на сторонний счёт.
Классические звонки «вышестоящих» лиц, создающих панику для срочных платежей, остаются действенным курсом атак. Жертвы потеряли в среднем 1400 долларов только за 2022 год. Искусственный интеллект внёс опасные коррективы: голосовое клонирование способно воссоздать тембр человека, имея лишь короткие образцы речи. В одном из случаев мать услышала «голос похищенной дочери» и едва не перевела преступникам 50 тысяч долларов.
Электронная почта также не утратила позиции основного канала фишинга. Раньше в письмах безлично упоминались «выигрыши в лотерею» и опечатки выдавали злоумышленников. Сейчас благодаря крупным языковым моделям атакующие автоматически создают безупречные тексты на разных языках, делая «массовые» и «точечные» фишинговые кампании ещё эффективнее.
По данным отчёта FBI Internet Crime Report за 2023 год, киберпреступники наиболее часто используют фишинг и спуфинг (298 878 жалоб), а утечки личных данных идут вторым номером (55 851 жалоба). Исследование Harvard Business Review подчёркивает: «Весь процесс фишинга может быть автоматизирован с помощью крупных языковых моделей, что снижает стоимость атак более чем на 95%, сохраняя или превышая прежний уровень успеха».
Мошенники опираются на доверие, уважение к авторитету и страх, пользуясь недостаточно быстрой адаптацией человеческого поведения к новым видам атак. Традиционные меры предосторожности порой оказываются неэффективны, и организации всё чаще проводят имитационные тесты, чтобы сотрудники запоминали, как выглядит реальная угроза и как правильно реагировать на неё.
В некоторых случаях к материалам добавляют специальные скрипты для аналитики и отслеживания. Пример — код с идентификатором "5310954" в настройках LinkedIn:
_linkedin_partner_id = "5310954";
window._linkedin_data_partner_ids = window._linkedin_data_partner_ids || [];
window._linkedin_data_partner_ids.push(_linkedin_partner_id);
(function(l) {...})(window);
Подобные инструменты помогают компаниям мониторить поведение пользователей, но ничто не застраховывает от растущих рисков, если системы безопасности не готовы к новым формам социальной инженерии.