Неизвестные злоумышленники используют генеративный ИИ-инструмент v0 от Vercel для массового создания поддельных страниц входа в системы известных брендов. Ресурсы, включая скопированные логотипы компаний, размещаются напрямую на инфраструктуре Vercel, что позволяет злоумышленникам эксплуатировать доверие к платформе и уклоняться от обнаружения.

Аналитики Okta Threat Intelligence — Хассем Эддин Борджиба и Паула Де ла Ос — подтверждают: это качественный скачок в криминальном применении генеративного ИИ. Преступники генерируют полнофункциональные фишинговые сайты через простые текстовые запросы, экспериментируя с передовыми ИИ-инструментами.
v0 создаёт базовые лендинги и приложения по описанию на естественном языке. Его преимущества перед традиционными фишинг-наборами радикальны: отсутствие необходимости в программировании, мгновенное развёртывание и доступность для низкоквалифицированных злоумышленников. Открытые клоны v0 на GitHub расширяют зону риска.
Тренд подтверждает Cisco Talos: исследователь Джейсон Шульц фиксирует растущий спрос в преступной среде на нецензурированные ИИ-модели. Пример — WhiteRabbitNeo, рекламируемая как «ИИ без ограничений для (Dev)SecOps». Такие модели охотно генерируют вредоносный контент, включая эксплойты.
Фишинг эволюционирует: ИИ теперь создаёт не только письма, но и клонированные голоса, deepfake-видео для социальной инженерии. Атаки масштабируются — локальные аферы превращаются в автоматизированные кампании. Как отмечает Okta, современная угроза — это «системы обмана», а не единичные трюки.
Использование v0 демонстрирует пугающую эффективность: даже начинающие злоумышленники быстро создают убедительные страницы, имитирующие клиентские сервисы Okta и других компаний. Скорость и масштаб атак растут экспоненциально.
Киберпреступники выбирают три пути: разблокировка легальных ИИ (jailbreaking), разработка специализированных моделей (типа WhiteRabbitNeo) или эксплуатация открытых нецензурированных решений. Их цель — полная автоматизация мошенничества.
Инструменты вроде v0 стирают технические барьеры. ИИ стал равноправным соучастником преступления — он проектирует, внедряет и масштабирует обман.

Изображение носит иллюстративный характер
Аналитики Okta Threat Intelligence — Хассем Эддин Борджиба и Паула Де ла Ос — подтверждают: это качественный скачок в криминальном применении генеративного ИИ. Преступники генерируют полнофункциональные фишинговые сайты через простые текстовые запросы, экспериментируя с передовыми ИИ-инструментами.
v0 создаёт базовые лендинги и приложения по описанию на естественном языке. Его преимущества перед традиционными фишинг-наборами радикальны: отсутствие необходимости в программировании, мгновенное развёртывание и доступность для низкоквалифицированных злоумышленников. Открытые клоны v0 на GitHub расширяют зону риска.
Тренд подтверждает Cisco Talos: исследователь Джейсон Шульц фиксирует растущий спрос в преступной среде на нецензурированные ИИ-модели. Пример — WhiteRabbitNeo, рекламируемая как «ИИ без ограничений для (Dev)SecOps». Такие модели охотно генерируют вредоносный контент, включая эксплойты.
Фишинг эволюционирует: ИИ теперь создаёт не только письма, но и клонированные голоса, deepfake-видео для социальной инженерии. Атаки масштабируются — локальные аферы превращаются в автоматизированные кампании. Как отмечает Okta, современная угроза — это «системы обмана», а не единичные трюки.
Использование v0 демонстрирует пугающую эффективность: даже начинающие злоумышленники быстро создают убедительные страницы, имитирующие клиентские сервисы Okta и других компаний. Скорость и масштаб атак растут экспоненциально.
Киберпреступники выбирают три пути: разблокировка легальных ИИ (jailbreaking), разработка специализированных моделей (типа WhiteRabbitNeo) или эксплуатация открытых нецензурированных решений. Их цель — полная автоматизация мошенничества.
Инструменты вроде v0 стирают технические барьеры. ИИ стал равноправным соучастником преступления — он проектирует, внедряет и масштабирует обман.