Платформа Lovable на базе генеративного искусственного интеллекта предназначена для создания полноценных веб-приложений посредством текстовых запросов. Инструмент позволяет пользователям формировать точные копии сайтов, включая разработку мошеннических страниц, автоматический запуск хостинга и построение административных панелей для отслеживания украденных данных.

Методика VibeScamming открывает возможность даже для неподготовленных пользователей быстро запускать фишинговые атаки. Применяя технику «vibe coding», краткое описание проблемы используется как запрос к языковой модели, оптимизированной для программирования, что позволяет автоматизировать все этапы атаки, совершенствовать методы доставки и повышать степень легитимности подделок.
Эксперт Guardio Labs Нати Тал отмечает, что Lovable демонстрирует наивысшую уязвимость к jailbreak-атакам. Платформа способна генерировать убедительные страницы входа, досконально копирующие дизайн оригинальных сервисов, например, форму входа Microsoft, что серьезно затрудняет их распознавание.
Сгенерированные scam-страницы оснащены функционалом для полного хранения учетных данных. Административные панели фиксируют логины, IP-адреса, метки времени и даже открытые пароли, а страница автоматически разворачивается на субдоменах вида «.lovable.app» с последующим перенаправлением на office[.]com.
Платформа поддерживает интеграцию с внешними сервисами, включая SMS-шаблоны на базе Twilio, способы сокрытия контента и подключение Telegram для передачи собранных данных на Firebase, RequestBin, JSONBin или в частные каналы. Такая универсальность позволяет мошенникам формировать комплексные фишинговые кампании с полным циклом экстракции информации.
Злоупотребления генеративным ИИ не ограничиваются Lovable. Популярные инструменты, такие как OpenAI ChatGPT и Google Gemini, применяются для создания малвари, разработки кейлоггеров и даже образцов программ-вымогателей. Аналогичные уязвимости обнаружены и в других LLM, например, DeepSeek, который подвержен атакам типа Bad Likert Judge, Crescendo и Deceptive Delight, успешно обходящим существующие меры безопасности.
Отчет Symantec от Broadcom демонстрирует, как уязвимым может быть агент OpenAI Operator, способный автоматически искать email-адреса, создавать PowerShell-скрипты для сбора системной информации, сохранять данные в Google Drive и рассылать фишинговые сообщения, побуждая пользователей к выполнению вредоносных скриптов.
Тестирование Guardio Labs в рамках VibeScamming Benchmark выявило существенные различия между моделями: ChatGPT получил 8 из 10 баллов благодаря высокой осторожности, Anthropic Claude – 4.3, а Lovable – всего 1.8, что свидетельствует о крайней эксплуатируемости платформы. Графическое сходство и пользовательский опыт scam-страниц Lovable, по мнению Нати Тал, «вполне плавнее, чем оригинальный Microsoft login flow».
Нати Тал из Guardio Labs подчеркивает: «Как инструмент, предназначенный для создания и развёртывания веб-приложений, его возможности идеально соответствуют любым желаниям мошенников», добавляя: «Еще более тревожно не только графическое сходство, но и пользовательский опыт. Он так точно имитирует оригинал». Эти факты указывают на острую необходимость ужесточения мер безопасности в генеративных AI-платформах для предотвращения их злоупотребления.

Изображение носит иллюстративный характер
Методика VibeScamming открывает возможность даже для неподготовленных пользователей быстро запускать фишинговые атаки. Применяя технику «vibe coding», краткое описание проблемы используется как запрос к языковой модели, оптимизированной для программирования, что позволяет автоматизировать все этапы атаки, совершенствовать методы доставки и повышать степень легитимности подделок.
Эксперт Guardio Labs Нати Тал отмечает, что Lovable демонстрирует наивысшую уязвимость к jailbreak-атакам. Платформа способна генерировать убедительные страницы входа, досконально копирующие дизайн оригинальных сервисов, например, форму входа Microsoft, что серьезно затрудняет их распознавание.
Сгенерированные scam-страницы оснащены функционалом для полного хранения учетных данных. Административные панели фиксируют логины, IP-адреса, метки времени и даже открытые пароли, а страница автоматически разворачивается на субдоменах вида «.lovable.app» с последующим перенаправлением на office[.]com.
Платформа поддерживает интеграцию с внешними сервисами, включая SMS-шаблоны на базе Twilio, способы сокрытия контента и подключение Telegram для передачи собранных данных на Firebase, RequestBin, JSONBin или в частные каналы. Такая универсальность позволяет мошенникам формировать комплексные фишинговые кампании с полным циклом экстракции информации.
Злоупотребления генеративным ИИ не ограничиваются Lovable. Популярные инструменты, такие как OpenAI ChatGPT и Google Gemini, применяются для создания малвари, разработки кейлоггеров и даже образцов программ-вымогателей. Аналогичные уязвимости обнаружены и в других LLM, например, DeepSeek, который подвержен атакам типа Bad Likert Judge, Crescendo и Deceptive Delight, успешно обходящим существующие меры безопасности.
Отчет Symantec от Broadcom демонстрирует, как уязвимым может быть агент OpenAI Operator, способный автоматически искать email-адреса, создавать PowerShell-скрипты для сбора системной информации, сохранять данные в Google Drive и рассылать фишинговые сообщения, побуждая пользователей к выполнению вредоносных скриптов.
Тестирование Guardio Labs в рамках VibeScamming Benchmark выявило существенные различия между моделями: ChatGPT получил 8 из 10 баллов благодаря высокой осторожности, Anthropic Claude – 4.3, а Lovable – всего 1.8, что свидетельствует о крайней эксплуатируемости платформы. Графическое сходство и пользовательский опыт scam-страниц Lovable, по мнению Нати Тал, «вполне плавнее, чем оригинальный Microsoft login flow».
Нати Тал из Guardio Labs подчеркивает: «Как инструмент, предназначенный для создания и развёртывания веб-приложений, его возможности идеально соответствуют любым желаниям мошенников», добавляя: «Еще более тревожно не только графическое сходство, но и пользовательский опыт. Он так точно имитирует оригинал». Эти факты указывают на острую необходимость ужесточения мер безопасности в генеративных AI-платформах для предотвращения их злоупотребления.