Современные LLM-модели подвержены рискам, включая промпт-инъекции и утечки данных. RAG (Retrieval-Augmented Generation) можно использовать для усиления безопасности LLM-сервисов, а не только для генерации ответов. Этот подход предполагает классификацию запросов и ответов на основе анализа контекста, полученного из базы данных векторизованных примеров. Применение RAG позволяет не только обнаруживать вредоносные запросы и ответы, но и обеспечивать более стабильные и предсказуемые реакции модели.
Для реализации такого подхода необходим векторный эмбеддер для преобразования текстовых данных в векторы. Nomic-embed-text обеспечивает достаточную длину последовательности и хорошую производительность. Затем используется векторная база данных, например, ChromaDB, для хранения и быстрого поиска схожих контекстов. LLM-модель, например, Mistral, применяется для классификации с учетом контекста.
Архитектура системы включает в себя AI Guardrail для детекции угроз, состоящий из RAG пайплайна, LLM, ChromaDB и Ollama. Реализация такого сервиса Security RAG включает: микросервисную архитектуру, быстрый вывод на инференс, минимальные ложные срабатывания, а также API тесты.
Демонстрацию можно организовать с помощью телеграм-бота и дашбордов (Langfuse). Несмотря на то, что Security RAG не блокирует ответы LLM, а возвращает их вместе с JSON-классификацией для демонстрационных целей, этот инструмент помогает выявлять потенциально опасные взаимодействия с LLM. Дополнительно, можно использовать проприетарные или open-source решения для усиления безопасности, включая классификацию запросов, ответов, и очистку данных.
Изображение носит иллюстративный характер
Для реализации такого подхода необходим векторный эмбеддер для преобразования текстовых данных в векторы. Nomic-embed-text обеспечивает достаточную длину последовательности и хорошую производительность. Затем используется векторная база данных, например, ChromaDB, для хранения и быстрого поиска схожих контекстов. LLM-модель, например, Mistral, применяется для классификации с учетом контекста.
Архитектура системы включает в себя AI Guardrail для детекции угроз, состоящий из RAG пайплайна, LLM, ChromaDB и Ollama. Реализация такого сервиса Security RAG включает: микросервисную архитектуру, быстрый вывод на инференс, минимальные ложные срабатывания, а также API тесты.
Демонстрацию можно организовать с помощью телеграм-бота и дашбордов (Langfuse). Несмотря на то, что Security RAG не блокирует ответы LLM, а возвращает их вместе с JSON-классификацией для демонстрационных целей, этот инструмент помогает выявлять потенциально опасные взаимодействия с LLM. Дополнительно, можно использовать проприетарные или open-source решения для усиления безопасности, включая классификацию запросов, ответов, и очистку данных.