Инфраструктура, Искусственный интеллект, База данных, Новости и обновления, VPS и облачный хостинг

Суверенный RAG-конвейер для AI-агентов: развертывание в n8n на облаке OVHcloud

Поделиться:

Что, если рабочий процесс n8n, развернутый в суверенной среде, сэкономит ваше время и даст душевное спокойствие? От приема документов до генерации целевых ответов n8n выступает дирижером вашего RAG-конвейера, не нарушая защиту данных.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions
Обзор рабочего процесса n8n

В современном ландшафте ИИ-агентов и ассистентов знаний подключение вашей внутренней документации к Большим языковым моделям (LLM) становится стратегическим преимуществом.

Как? Путем создания Agentic RAG-систем, способных извлекать, анализировать и действовать автономно на основе внешних знаний.

Чтобы это стало возможным, инженерам нужен способ соединить конвейеры извлечения (RAG) с инструментальной оркестрацией.

Эта статья описывает референсную архитектуру для построения полностью автоматизированного RAG-конвейера, оркестрируемого n8n, с использованием OVHcloud AI Endpoints и PostgreSQL с pgvector в качестве основных компонентов.

Конечным результатом станет система, которая автоматически загружает документацию в формате Markdown из Object Storage, создает эмбеддинги с помощью модели BGE-M3 от OVHcloud, доступной на AI Endpoints, и сохраняет их в Managed Database PostgreSQL с расширением pgvector.

Наконец, вы сможете создать ИИ-агента, позволяющего общаться с LLM (GPT-OSS-120B на AI Endpoints). Этот агент, используя реализованную выше по потоку RAG-систему, станет экспертом по продуктам OVHcloud.

Процесс можно дополнительно улучшить, используя LLM guard для защиты вопросов, отправляемых в LLM, и настроив память чата для использования истории разговоров для повышения качества ответов.

Но как насчет n8n?

n8n, инструмент автоматизации рабочих процессов с открытым исходным кодом, предлагает множество преимуществ и легко интегрируется с более чем 300 API, приложениями и сервисами:

  • Открытый исходный код: n8n — это на 100% самодостаточное решение, что означает полный контроль над данными;
  • Гибкость: сочетает low-code ноды и пользовательскую логику на JavaScript/Python;
  • Готовность к ИИ: включает полезные интеграции для LangChain, OpenAI и возможности работы с эмбеддингами;
  • Компонуемость: позволяет за минуты устанавливать простые связи между данными, API и моделями;
  • Суверенность по дизайну: соответствует требованиям конфиденциальности или регулируемых секторов.

Эта эталонная архитектура служит шаблоном для создания суверенной, масштабируемой платформы Retrieval Augmented Generation (RAG) с использованием n8n и решений OVHcloud Public Cloud.

Эта конфигурация показывает, как оркестрировать прием данных, генерировать эмбеддинги и обеспечивать conversational AI, объединяя OVHcloud Object StorageManaged Databases with PostgreSQLAI Endpoints и AI Deploy.Результат? Полностью интегрированная ИИ-среда, защищающая конфиденциальность и размещенная исключительно на европейской инфраструктуре OVHcloud.

Обзор архитектуры рабочего процесса n8n для RAG

Рабочий процесс включает следующие шаги:

  • Прием данных: документация в формате markdown извлекается из OVHcloud Object Storage (S3);
  • Предварительная обработка: n8n очищает и нормализует текст, удаляя YAML front-matter и шумы кодирования;
  • Векторизация: Каждый документ преобразуется в эмбеддинг с помощью модели BGE-M3, доступной через OVHcloud AI Endpoints;
  • Сохранение: векторы и метаданные сохраняются в OVHcloud PostgreSQL Managed Database с использованием pgvector;
  • Извлечение: когда пользователь отправляет запрос, n8n запускает LangChain Agent, который извлекает релевантные фрагменты из базы данных;
  • Анализ и действия: Нода AI Agent комбинирует анализ LLM, память и использование инструментов для генерации контекстного ответа или запуска последующих действий (ответ в Slack, обновление Notion, вызов API и т.д.).

В этом руководстве все сервисы развернуты в рамках OVHcloud Public Cloud.

Предварительные требования

Прежде чем начать, убедитесь, что у вас есть:

🚀 Теперь, когда у вас есть все необходимое, вы можете начать создавать свой рабочий процесс n8n!

Руководство по архитектуре: агентный RAG-процесс n8n

Вы готовы настроить и развернуть свой рабочий процесс n8n

⚙️ Имейте в виду, что следующие шаги могут быть выполнены с использованием API OVHcloud!

Шаг 1 – Постройте конвейер приема данных для RAG

Этот первый шаг предполагает создание основы всего RAG-процесса путем подготовки необходимых элементов:

  • развертывание n8n
  • создание бакета Object Storage
  • создание базы данных PostgreSQL
  • и другое

Не забудьте настроить соответствующие учетные данные в n8n, чтобы различные элементы могли подключаться и функционировать.

1. Разверните n8n на OVHcloud VPS

OVHcloud предоставляет VPS-решения, совместимые с n8n. Получите готовый к использованию виртуальный сервер с предустановленным n8n и начните создавать рабочие процессы автоматизации без ручной настройки. С тарифами от 6 vCores / 12 ГБ ОЗУ до 24 vCores / 96 ГБ ОЗУ вы можете выбрать мощность, соответствующую вашей нагрузке.

Как настроить n8n на VPS?

Настройка n8n на VPS OVHcloud обычно включает:

  • Выбор и заказ тарифного плана OVHcloud VPS;
  • Подключение к серверу по SSH и выполнение первоначальной конфигурации сервера, включая обновление ОС;
  • Установку n8n, обычно с помощью Docker (рекомендуется для простоты управления и обновлений) или npm, следуя этому руководству;
  • Настройку n8n с доменным именем, SSL-сертификатом для HTTPS и необходимыми переменными окружения для баз данных или настроек.

Хотя OVHcloud предоставляет надежную VPS-платформу, подробные руководства по установке n8n можно найти в официальной документации n8n.

После завершения настройки вы можете настроить базу данных и бакет в Object Storage.

2. Создайте бакет Object Storage

Сначала необходимо настроить источник данных. Здесь вы можете хранить всю свою документацию в S3-совместимом бакете Object Storage.

Здесь предполагается, что все файлы документации имеют формат Markdown.

Из панели управления OVHcloud создайте новый контейнер Object Storage с решением S3-совместимого API; следуйте этому руководству.

Когда бакет будет готов, добавьте в него вашу документацию в формате Markdown.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Примечание: В этом руководстве мы используем различную документацию по продуктам OVHcloud, доступную в открытом доступе в репозитории GitHub, который поддерживают сотрудники OVHcloud.

Нажмите на эту ссылку, чтобы перейти в репозиторий.

Как это сделать? Извлеките все файлы guide.en-gb.md из репозитория GitHub и переименуйте каждый из них, чтобы название совпадало с именем родительской папки.

Пример: документация об установке CLI для ovhai docs/pages/public_cloud/ai_machine_learning/cli_10_howto_install_cli/guide.en-gb.md сохраняется в бакете ovhcloud-products-documentation-md как cli_10_howto_install_cli.md

У вас должен получиться обзор, похожий на этот:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Сохраните следующие элементы и создайте новые учётные данные в n8n с названием OVHcloud S3 gra credentials:

  • S3 Endpoint: https://s3.gra.io.cloud.ovh.net/
  • Регион: gra
  • Access Key ID: <ваш_ключ_доступа_пользователя_объектного_хранилища>
  • Secret Access Key: <ваш_секретный_ключ_пользователя_объектного_хранилища>
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем создайте новый узел в n8n, выбрав S3, а затем Get Multiple Files.
Настройте этот узел следующим образом:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Подключите этот узел к предыдущему, прежде чем переходить к следующему шагу.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Когда первый этап завершён, можно переходить к настройке векторной базы данных.

3. Настройте управляемую базу данных PostgreSQL (pgvector)

На этом шаге вы можете настроить векторную базу данных, которая позволит хранить эмбеддинги, сгенерированные из ваших документов.

Как? Используя управляемые базы данных OVHcloud, расширение pgvector для PostgreSQL. Перейдите в панель управления OVHcloud и выполните следующие шаги.

1. Перейдите в раздел Базы данных и аналитика > Базы данных

2. Создайте новую базу данных, выбрав PostgreSQL и местоположение дата-центра

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

3. Выберите Production тариф и Тип инстанса

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

4. Сбросьте пароль пользователя и сохраните его

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

5. Добавьте IP-адрес вашего инстанса n8n в белый список, как показано ниже

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

6. Запишите следующие параметры

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Запишите эту информацию и создайте новые учётные данные в n8n с названием OVHcloud PGvector credentials:

  • Хост: <db_hostname>
  • База данных: defaultdb
  • Пользователь: avnadmin
  • Пароль: <db_password>
  • Порт: 20184

Рассмотрите возможность включения кнопки Ignore SSL Issues (Insecure) при необходимости и установите значение Maximum Number of Connections на 1000.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

✅ Теперь вы подключены к базе данных! Но что насчёт расширения PGvector?

Добавьте узел PosgreSQL в ваш рабочий процесс n8n Execute a SQL query, и создайте расширение через SQL-запрос, который должен выглядеть так:

-- удалить таблицу при необходимости
DROP TABLE IF EXISTS md_embeddings;

-- активировать pgvector
CREATE EXTENSION IF NOT EXISTS vector;

-- создать таблицу
CREATE TABLE md_embeddings (
id SERIAL PRIMARY KEY,
text TEXT,
embedding vector(1024),
metadata JSONB
);

Вы должны получить такой узел n8n:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Наконец, вы можете создать новую таблицу и назвать её md_embeddings с помощью этого узла. Создайте узел Stop and Error, если возникнут ошибки при создании таблицы.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Всё готово! Ваша векторная БД подготовлена и готова к приёму данных! Помните, что для конвейера приёма данных RAG вам всё ещё нужна модель эмбеддингов.

4. Доступ к OVHcloud AI Endpoints

OVHcloud AI Endpoints — это управляемый сервис, предоставляющий готовые к использованию API для AI-моделей, включая LLM, CodeLLM, эмбеддинги, преобразование речи в текст и модели для изображений, размещённые в европейской инфраструктуре OVHcloud.

Чтобы векторизовать различные документы в формате Markdown, вам необходимо выбрать модель эмбеддингов: BGE-M3.

Обычно ваш API-ключ для AI Endpoints уже должен быть создан. Если нет, перейдите в меню AI Endpoints в панели управления OVHcloud, чтобы сгенерировать новый API-ключ.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

После этого вы можете создать новые учётные данные OpenAI в вашем n8n.

Зачем нужны учётные данные OpenAI? Потому что API AI Endpoints полностью совместим с OpenAI, что упрощает интеграцию и гарантирует суверенитет ваших данных.

Как? Благодаря единой конечной точке https://oai.endpoints.kepler.ai.cloud.ovh.net/v1, вы можете запрашивать различные модели AI Endpoints.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Это означает, что вы можете создать новый узел n8n, выбрав Postgres PGVector Store и Add documents to Vector Store.
Настройте этот узел, как показано ниже:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем настройте Data Loader с пользовательским разделением текста и типом JSON.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Для разделителя текста вот несколько вариантов:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Наконец, выберите модель эмбеддинга BGE-M3 из списка моделей и установите Размерность (Dimensions) равной 1024.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Теперь у вас есть всё необходимое для построения конвейера приёма данных.

5. Настройте цикл конвейера приёма данных

Чтобы воспользоваться полностью автоматизированным конвейером приёма и векторизации документов, необходимо интегрировать несколько специальных узлов, в основном:

  • Loop Over Items, который загружает каждый файл Markdown по одному для последующей векторизации;
  • Code in JavaScript, который подсчитывает количество обработанных файлов, что впоследствии определяет количество запросов к модели эмбеддинга;
  • Условие If, позволяющее проверять, когда достигнуто 400 запросов;
  • Узел Wait, который делает паузу после каждых 400 запросов, чтобы избежать ограничения по частоте запросов (rate-limiting);
  • Блок S3 Download a file для загрузки каждого файла Markdown;
  • Ещё один Code in JavaScript для извлечения и обработки текста из файлов Markdown путём очистки и удаления специальных символов перед отправкой в модель эмбеддинга;
  • Узел PostgreSQL для Execute a SQL запроса, чтобы убедиться, что таблица содержит векторы после завершения процесса (цикла).
5.1. Создайте цикл для обработки каждого файла документации

Начните с создания узла Loop Over Items для обработки всех файлов Markdown по одному. Установите размер пакета (batch size) в этом цикле равным 1.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Добавьте оператор Loop сразу после узла S3 Get Many Files, как показано ниже:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Пришло время воплотить содержимое цикла в действие!

5.2. Подсчитайте количество файлов с помощью фрагмента кода

Затем выберите узел Code in JavaScript из списка, чтобы отслеживать, сколько файлов было обработано. Установите Режим (Mode) "Run Once for Each Item" и Язык (Language) кода "JavaScript", затем добавьте следующий фрагмент кода в предназначенный для этого блок.

// простой счётчик для каждого элемента
const counter = $runIndex + 1;

return {
counter
};
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Убедитесь, что этот фрагмент кода включён в цикл.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Теперь вы можете начать добавлять часть if в цикл.

5.3. Добавьте условие, применяющее правило каждые 400 запросов

Здесь вам нужно создать узел If и добавить следующее условие, которое вы зададите как выражение.

{{ (Number($json["counter"]) % 400) === 0 }}
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Добавьте его сразу после подсчёта файлов:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Если это условие is true (истинно), активируйте узел Wait.

5.4. Вставьте паузу после каждого набора из 400 запросов

Затем вставьте узел Wait, чтобы сделать паузу на несколько секунд перед возобновлением. Вы можете выбрать Resume "After Time Interval (После временного интервала)" и установить Wait Amount (Время ожидания) равным "60:00" секунд.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Свяжите его с условием If, когда оно True (Истинно).

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Далее можно приступить к загрузке файла Markdown и его обработке.

5.5. Запустите загрузку документации

Для этого создайте новый узел S3 Download a file и настройте его с помощью этого выражения для ключа файла (File Key):

{{ $('Process each documentation file').item.json.Key }}
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Хотите подключить его? Это легко: свяжите его с выходом узлов Wait и If, когда условие 'if' возвращает False (Ложь); это позволит обрабатывать файл только если лимит запросов не превышен.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Вы почти у цели! Теперь необходимо извлечь и обработать текст из файлов Markdown — очистить и удалить любые специальные символы перед отправкой в модель эмбеддинга.

5.6 Очистка текстового содержимого Markdown

Затем создайте ещё один Code in JavaScript для обработки текста из файлов Markdown:

// извлечь бинарное содержимое
const binary = $input.item.binary.data;

// декодирование в чистый текст UTF-8
let text = Buffer.from(binary.data, 'base64').toString('utf8');

// очистка - удалить непечатаемые символы
text = text
.replace(/[^x09x0Ax0Dx20-x7EÀ-ÿ€£¥•–—‘’“”«»©®™°±§¶÷×]/g, ' ')
.replace(/s{2,}/g, ' ')
.trim();

// проверить длину
if (text.length > 14000) {
text = text.slice(0, 14000);
}

return [{
text,
fileName: binary.fileName,
mimeType: binary.mimeType
}];

Выберите Режим (Mode) "Run Once for Each Item" Mode и поместите предыдущий код в предназначенный блок JavaScript.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

В завершение убедитесь, что выходной текст был отправлен в систему векторизации документов, которая была настроена в Шаге 3 – Настройка управляемой БД PostgreSQL (pgvector).

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Как мне подтвердить, что таблица содержит все элементы после векторизации?

5.7 Двойная проверка наличия документов в таблице

Чтобы подтвердить работоспособность вашей RAG-системы, убедитесь, что ваша векторная база данных содержит различные векторы; используйте узел PostgreSQL с Execute a SQL query в вашем рабочем процессе n8n.

Затем выполните следующий запрос:

-- подсчитать количество элементов
SELECT COUNT(*) FROM md_embeddings;
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем свяжите этот элемент с разделом Готово вашего Цикла, чтобы элементы подсчитывались после завершения процесса.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Поздравляем! Теперь вы можете запустить рабочий процесс для начала загрузки документов.

Нажмите кнопку Выполнить рабочий процесс и дождитесь завершения процесса векторизации.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Помните, что по завершении всё должно быть зелёным ✅.

Шаг 2 – RAG-чатбот

После завершения шагов загрузки данных и векторизации можно приступать к реализации вашего AI-агента.

Это предполагает создание RAG-агента на основе ИИ, просто начав чат с LLM.

1. Настройте окно чата для начала диалога

Сначала настройте вашего AI-агента на основе RAG-системы и добавьте новый узел в тот же рабочий процесс n8n: Chat Trigger (Триггер чата).

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Этот узел позволит вам взаимодействовать напрямую с вашим AI-агентом! Но прежде необходимо проверить, безопасно ли ваше сообщение.

Этот узел позволит вам взаимодействовать напрямую с вашим AI-агентом! Но прежде необходимо проверить, безопасно ли ваше сообщение.

2. Настройте LLM Guard с помощью AI Deploy

Чтобы проверить, безопасно ли сообщение, используйте LLM Guard.

Что такое LLM Guard? Это слой безопасности и контроля, который располагается между пользователями и LLM или между LLM и внешним соединением. Его основная цель — фильтровать, отслеживать и применять правила к тому, что поступает в модель или выходит из неё 🔐.

Вы можете использовать AI Deploy от OVHcloud для развертывания нужного вам LLM Guard. С помощью одной командной строки это AI-решение позволяет развернуть модель Hugging Face, используя Docker-контейнеры vLLM.

Для получения более подробной информации обратитесь к этому блогу.

Для рассматриваемого в этой статье случая использования можно применить открытую модель meta-llama/Llama-Guard-3-8B, доступную на Hugging Face.

2.1 Создайте Bearer-токен для запроса к вашему пользовательскому эндпоинту AI Deploy

Создайте токен для доступа к вашему приложению AI Deploy после его развертывания.

ovhai token create --role operator ai_deploy_token=my_operator_token

Возвращается следующий вывод:

Id: 47292486-fb98-4a5b-8451-600895597a2b
Created At: 20-10-25 8:53:05
Updated At: 20-10-25 8:53:05
Spec:
Name: ai_deploy_token=my_operator_token
Role: AiTrainingOperator
Label Selector:
Status:
Value: XXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
Version: 1

Теперь вы можете сохранить и экспортировать свой токен доступа, чтобы добавить его как новые учетные данные в n8n.

export MY_OVHAI_ACCESS_TOKEN=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
2.1 Запустите модель Llama Guard 3 с помощью AI Deploy

Используя CLI ovhai, выполните следующую команду для запуска сервера вывода (inference) vLLM.

ovhai app run 
--name vllm-llama-guard3
--default-http-port 8000
--gpu 1
--flavor l40s-1-gpu
--label ai_deploy_token=my_operator_token
--env OUTLINES_CACHE_DIR=/tmp/.outlines
--env HF_TOKEN=$MY_HF_TOKEN
--env HF_HOME=/hub
--env HF_DATASETS_TRUST_REMOTE_CODE=1
--env HF_HUB_ENABLE_HF_TRANSFER=0
--volume standalone:/workspace:RW
--volume standalone:/hub:RW
vllm/vllm-openai:v0.10.1.1
-- bash -c python3 -m vllm.entrypoints.openai.api_server
--model meta-llama/Llama-Guard-3-8B
--tensor-parallel-size 1
--dtype bfloat16

Пояснение полной команды:

  • ovhai app run

Это основная команда для запуска приложения с использованием платформы OVHcloud AI Deploy.

  • --name vllm-llama-guard3

Задает пользовательское имя для задачи. Например, vllm-llama-guard3.

  • --default-http-port 8000

Открывает порт 8000 в качестве HTTP-эндпоинта по умолчанию. Сервер vLLM обычно работает на порту 8000.

  • --gpu 1
  • --flavor l40s-1-gpu

Выделяет 1 GPU L40S для приложения. Тип и количество GPU можно изменить в зависимости от развертываемой модели.

  • --volume standalone:/workspace:RW
  • --volume standalone:/hub:RW

Подключает два тома постоянного хранилища: /workspace (основная рабочая директория) и /hub (для хранения файлов моделей Hugging Face).

  • --env OUTLINES_CACHE_DIR=/tmp/.outlines
  • --env HF_TOKEN=$MY_HF_TOKEN
  • --env HF_HOME=/hub
  • --env HF_DATASETS_TRUST_REMOTE_CODE=1
  • --env HF_HUB_ENABLE_HF_TRANSFER=0

Это переменные окружения Hugging Face, которые необходимо установить. Пожалуйста, экспортируйте свой токен доступа Hugging Face как переменную окружения перед запуском приложения: export MY_HF_TOKEN=***********

  • vllm/vllm-openai:v0.10.1.1

Используйте Docker-образ vllm/vllm-openai (предварительно настроенный сервер API OpenAI на vLLM).

  • -- bash -c python3 -m vllm.entrypoints.openai.api_server
    --model meta-llama/Llama-Guard-3-8B
    --tensor-parallel-size 1
    --dtype bfloat16

Наконец, запустите bash-оболочку внутри контейнера и выполните команду Python для запуска сервера API vLLM.

2.2 Проверка и подтверждение работы приложения AI Deploy

Замените <app_id> на свой.

ovhai app get <app_id>

Вы должны получить:

История:
ДАТА СОСТОЯНИЕ
20-10-25 09:58:00 В ОЧЕРЕДИ
20-10-25 09:58:01 ИНИЦИАЛИЗАЦИЯ
04-04-25 09:58:07 ОЖИДАНИЕ
04-04-25 10:03:10 РАБОТАЕТ
Информация:
Сообщение: Приложение запущено

2.3 Создание новых учётных данных в n8n с URL приложения AI Deploy и токеном доступа Bearer

Сначала, используя свой <app_id>, получите URL вашего приложения AI Deploy.

ovhai app get <app_id> -o json | jq '.status.url' -r

Затем создайте новые учётные данные OpenAI в вашем рабочем процессе n8n, используя URL AI Deploy и токен Bearer в качестве API-ключа.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Не забудьте заменить 6e10e6a5-2862-4c82-8c08-26c458ca12c7 на ваш <app_id>.

2.4 Создание узла LLM Guard в рабочем процессе n8n

Создайте новый узел OpenAI для Отправки сообщения модели и выберите новые учётные данные AI Deploy для использования LLM Guard.

Затем создайте запрос следующим образом:

{{ $('Chat with the OVHcloud product expert').item.json.chatInput }}
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем используйте узел If, чтобы определить, является ли сценарий безопасным или небезопасным:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Если сообщение небезопасно, немедленно отправьте сообщение об ошибке, чтобы остановить рабочий процесс.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Но если сообщение безопасно, вы можете без проблем отправить запрос к ИИ-агенту 🔐.

3. Настройка ИИ-агента

Узел ИИ-агент в n8n действует как интеллектуальный слой оркестрации, объединяющий большие языковые модели, память и внешние инструменты в рамках автоматизированного рабочего процесса.

Он позволяет:

  • Подключить большую языковую модель с использованием API (например, LLM из AI Endpoints);
  • Использовать инструменты, такие как HTTP-запросы, базы данных или извлекатели RAG, чтобы агент мог выполнять действия или получать актуальную информацию;
  • Поддерживать диалоговую память через базы данных PostgreSQL;
  • Прямо интегрироваться с платформами для общения (например, Slack, Teams) для интерактивных помощников (опционально).

Проще говоря, n8n становится фреймворком агентной автоматизации, позволяя LLM не только давать ответы, но и думать, выбирать и выполнять действия.

Обратите внимание, что вы можете изменять и настраивать этот узел n8n ИИ-агент под свои задачи, используя такие функции, как вызов функций или структурированный вывод. Это базовая конфигурация для данного случая использования. Вы можете пойти ещё дальше с различными агентами.

🧑‍💻 Как реализовать этот RAG?

Сначала создайте узел ИИ-агент в n8n следующим образом:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем требуется ряд шагов, первый из которых — создание промптов.

3.1 Создание промптов

В узле ИИ-агента в вашем рабочем процессе n8n отредактируйте пользовательский и системный промпты.

Начните с создания промпта, который также является пользовательским сообщением:

{{ $('Chat with the OVHcloud product expert').item.json.chatInput }}

Затем создайте системное сообщение, как показано ниже:

У вас есть доступ к инструменту-извлекателю, подключённому к базе знаний. 
Перед ответом всегда ищите соответствующие документы с помощью инструмента-извлекателя.
Используйте полученный контекст для точного ответа.
Если соответствующих документов не найдено, сообщите, что у вас нет информации об этом.

Вы должны получить следующую конфигурацию:

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

🤔 Что ж, теперь для работы этого узла требуется LLM!

3.2 Выбор LLM с использованием API AI Endpoints

Сначала добавьте узел OpenAI Chat Model, а затем установите его как Модель для чата для вашего агента.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем выберите одну из Конечных точек ИИ OVHcloud из предоставленного списка, поскольку они совместимы с API Open AI.

Как? Используя правильный API https://oai.endpoints.kepler.ai.cloud.ovh.net/v1

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Для данного случая использования выбрана модель GPT OSS 120B. Также доступны другие модели, такие как Llama, Mistral и Qwen.

⚠️ ПРЕДУПРЕЖДЕНИЕ ⚠️

Если вы используете новую версию n8n, вы, вероятно, столкнётесь с проблемой /responses (связанной с совместимостью OpenAI). Чтобы решить эту проблему, вам нужно отключить кнопку Использовать API Responses, и всё будет работать корректно.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions
Советы по устранению проблемы /responses

Ваша LLM теперь настроена для ответов на ваши вопросы! Не забывайте, что ей нужен доступ к базе знаний.

3.3 Подключение базы знаний к извлекателю RAG

Как обычно, первый шаг — создать узел n8n с названием PGVector Vector Store и ввести ваши учётные данные PGvector.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Затем свяжите этот элемент с разделом Инструменты узла ИИ-агента.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Не забудьте подключить вашу базу данных PG vector, чтобы извлекатель мог получить доступ к ранее созданным эмбеддингам. Вот общее представление того, что вы получите.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

⏳Почти готово! Последний шаг — добавить память базы данных.

3.4 Управление историей диалогов с помощью памяти базы данных

Создание узла Database Memory в n8n (PostgreSQL) позволяет связать его с вашим ИИ-агентом, чтобы он мог сохранять и извлекать историю прошлых диалогов. Это позволяет модели запоминать и использовать контекст из нескольких взаимодействий.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Итак, привяжите эту базу данных PostgreSQL к разделу Memory вашего ИИ-агента.

Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions

Поздравляем! 🥳 Ваш n8n RAG workflow теперь готов. Готовы его протестировать?

4. Максимально используйте возможности вашего автоматизированного workflow

Хотите попробовать? Это просто!

Нажав оранжевую кнопку Open chat, вы можете задавать ИИ-агенту вопросы о продуктах OVHcloud, особенно там, где вам требуется техническая помощь.

Например, вы можете спросить LLM об ограничениях по частоте запросов (rate limits) в OVHcloud AI Endpoints и получить информацию за считанные секунды.

Теперь вы можете построить свою собственную автономную RAG-систему, используя OVHcloud Public Cloud, подходящую для широкого спектра применений.

Что дальше?

Подводя итог, эта референсная архитектура служит руководством по использованию n8n вместе с OVHcloud AI Endpoints, AI Deploy, Object Storage и PostgreSQL + pgvector для создания полностью контролируемой, автономной RAG AI-системы.

Команды могут создавать масштабируемых ИИ-ассистентов, которые работают безопасно и независимо в своей облачной среде, оркестрируя процессы приёма данных, генерации эмбеддингов, векторного хранения, поиска, проверки безопасности LLM и логики рассуждений в рамках единого workflow.

Имея базовую архитектуру, вы можете добавлять больше функций для улучшения возможностей и надёжности вашей агентской RAG-системы:

  • Веб-поиск
  • Изображения с OCR
  • Аудиофайлы, расшифрованные с использованием модели Whisper
Reference Architecture: build a sovereign n8n RAG workflow for AI agent using OVHcloud Public Cloud solutions