Automatisation OpenRouter avec n8n : utilisation de modèles LLM
Ce workflow n8n permet d'intégrer facilement des modèles de langage via OpenRouter, facilitant ainsi l'interaction avec des agents intelligents. Dans un contexte où les entreprises cherchent à améliorer leur service client et à automatiser les réponses aux requêtes, ce workflow s'avère particulièrement utile. Par exemple, les équipes de support peuvent utiliser ce système pour fournir des réponses instantanées et pertinentes aux questions des utilisateurs, améliorant ainsi l'expérience client tout en réduisant la charge de travail des agents.
- Étape 1 : le workflow commence par le déclencheur 'When chat message received', qui active le flux dès qu'un message est reçu.
- Étape 2 : les paramètres sont configurés dans le noeud 'Settings', permettant de définir les options nécessaires pour l'interaction.
- Étape 3 : le noeud 'AI Agent' utilise les données du message pour générer une réponse appropriée en se basant sur le modèle de langage sélectionné dans le noeud 'LLM Model'.
- Étape 4 : la mémoire de chat est gérée par le noeud 'Chat Memory', qui conserve le contexte des conversations pour des interactions plus fluides. Enfin, les résultats peuvent être affichés ou stockés via les noeuds 'Sticky Note', qui permettent de visualiser les réponses générées. En mettant en place cette automatisation n8n, les entreprises peuvent non seulement gagner du temps, mais aussi offrir une expérience utilisateur améliorée, en répondant rapidement et efficacement aux demandes des clients.
Workflow n8n OpenRouter, LLM, intelligence artificielle : vue d'ensemble
Schéma des nœuds et connexions de ce workflow n8n, généré à partir du JSON n8n.
Workflow n8n OpenRouter, LLM, intelligence artificielle : détail des nœuds
Inscris-toi pour voir l'intégralité du workflow
Inscription gratuite
S'inscrire gratuitementBesoin d'aide ?{
"id": "VhN3CX6QPBkX77pZ",
"meta": {
"instanceId": "98bf0d6aef1dd8b7a752798121440fb171bf7686b95727fd617f43452393daa3",
"templateCredsSetupCompleted": true
},
"name": "Use any LLM-Model via OpenRouter",
"tags": [
{
"id": "uumvgGHY5e6zEL7V",
"name": "Published Template",
"createdAt": "2025-02-10T11:18:10.923Z",
"updatedAt": "2025-02-10T11:18:10.923Z"
}
],
"nodes": [
{
"id": "b72721d2-bce7-458d-8ff1-cc9f6d099aaf",
"name": "Settings",
"type": "n8n-nodes-base.set",
"position": [
-420,
-640
],
"parameters": {
"options": {},
"assignments": {
"assignments": [
{
"id": "3d7f9677-c753-4126-b33a-d78ef701771f",
"name": "model",
"type": "string",
"value": "deepseek/deepseek-r1-distill-llama-8b"
},
{
"id": "301f86ec-260f-4d69-abd9-bde982e3e0aa",
"name": "prompt",
"type": "string",
"value": "={{ $json.chatInput }}"
},
{
"id": "a9f65181-902d-48f5-95ce-1352d391a056",
"name": "sessionId",
"type": "string",
"value": "={{ $json.sessionId }}"
}
]
}
},
"typeVersion": 3.4
},
{
"id": "a4593d64-e67a-490e-9cb4-936cc46273a0",
"name": "Sticky Note",
"type": "n8n-nodes-base.stickyNote",
"position": [
-460,
-740
],
"parameters": {
"width": 180,
"height": 400,
"content": "## Settings\nSpecify the model"
},
"typeVersion": 1
},
{
"id": "3ea3b09a-0ab7-4e0f-bb4f-3d807d072d4e",
"name": "Sticky Note1",
"type": "n8n-nodes-base.stickyNote",
"position": [
-240,
-740
],
"parameters": {
"color": 3,
"width": 380,
"height": 400,
"content": "## Run LLM\nUsing OpenRouter to make model fully configurable"
},
"typeVersion": 1
},
{
"id": "19d47fcb-af37-4daa-84fd-3f43ffcb90ff",
"name": "When chat message received",
"type": "@n8n/n8n-nodes-langchain.chatTrigger",
"position": [
-660,
-640
],
"webhookId": "71f56e44-401f-44ba-b54d-c947e283d034",
"parameters": {
"options": {}
},
"typeVersion": 1.1
},
{
"id": "f5a793f2-1e2f-4349-a075-9b9171297277",
"name": "AI Agent",
"type": "@n8n/n8n-nodes-langchain.agent",
"position": [
-180,
-640
],
"parameters": {
"text": "={{ $json.prompt }}",
"options": {},
"promptType": "define"
},
"typeVersion": 1.7
},
{
"id": "dbbd9746-ca25-4163-91c5-a9e33bff62a4",
"name": "Chat Memory",
"type": "@n8n/n8n-nodes-langchain.memoryBufferWindow",
"position": [
-80,
-460
],
"parameters": {
"sessionKey": "={{ $json.sessionId }}",
"sessionIdType": "customKey"
},
"typeVersion": 1.3
},
{
"id": "ef368cea-1b38-455b-b46a-5d0ef7a3ceb3",
"name": "LLM Model",
"type": "@n8n/n8n-nodes-langchain.lmChatOpenAi",
"position": [
-200,
-460
],
"parameters": {
"model": "={{ $json.model }}",
"options": {}
},
"credentials": {
"openAiApi": {
"id": "66JEQJ5kJel1P9t3",
"name": "OpenRouter"
}
},
"typeVersion": 1.1
},
{
"id": "32601e76-0979-4690-8dcf-149ddbf61983",
"name": "Sticky Note2",
"type": "n8n-nodes-base.stickyNote",
"position": [
-460,
-320
],
"parameters": {
"width": 600,
"height": 240,
"content": "## Model examples\n\n* openai/o3-mini\n* google/gemini-2.0-flash-001\n* deepseek/deepseek-r1-distill-llama-8b\n* mistralai/mistral-small-24b-instruct-2501:free\n* qwen/qwen-turbo\n\nFor more see https://openrouter.ai/models"
},
"typeVersion": 1
}
],
"active": false,
"pinData": {},
"settings": {
"executionOrder": "v1"
},
"versionId": "6d0caf5d-d6e6-4059-9211-744b0f4bc204",
"connections": {
"Settings": {
"main": [
[
{
"node": "AI Agent",
"type": "main",
"index": 0
}
]
]
},
"LLM Model": {
"ai_languageModel": [
[
{
"node": "AI Agent",
"type": "ai_languageModel",
"index": 0
}
]
]
},
"Chat Memory": {
"ai_memory": [
[
{
"node": "AI Agent",
"type": "ai_memory",
"index": 0
}
]
]
},
"When chat message received": {
"main": [
[
{
"node": "Settings",
"type": "main",
"index": 0
}
]
]
}
}
}Workflow n8n OpenRouter, LLM, intelligence artificielle : pour qui est ce workflow ?
Ce workflow s'adresse aux entreprises de taille moyenne à grande, notamment celles qui souhaitent automatiser leur service client ou améliorer leurs interactions avec les utilisateurs. Les équipes techniques et les responsables de l'innovation trouveront également un grand intérêt dans cette solution, qui nécessite un niveau technique intermédiaire pour sa mise en œuvre.
Workflow n8n OpenRouter, LLM, intelligence artificielle : problème résolu
Ce workflow résout le problème de la lenteur des réponses aux requêtes des clients, souvent dues à une surcharge de travail des équipes de support. En automatisant les réponses grâce à un modèle de langage, il réduit le temps d'attente pour les utilisateurs et diminue le risque d'erreurs humaines. Les entreprises bénéficient ainsi d'une amélioration de la satisfaction client et d'une optimisation des ressources humaines.
Workflow n8n OpenRouter, LLM, intelligence artificielle : étapes du workflow
Étape 1 : le flux est déclenché par la réception d'un message de chat.
- Étape 1 : les paramètres sont configurés dans le noeud 'Settings' pour préparer l'interaction.
- Étape 2 : le noeud 'AI Agent' génère une réponse en utilisant le modèle de langage sélectionné.
- Étape 3 : la mémoire de chat est gérée par le noeud 'Chat Memory' pour conserver le contexte des échanges.
- Étape 4 : les réponses sont affichées ou stockées via les noeuds 'Sticky Note'.
Workflow n8n OpenRouter, LLM, intelligence artificielle : guide de personnalisation
Pour personnaliser ce workflow, commencez par ajuster les paramètres dans le noeud 'Settings', notamment les options de configuration pour le modèle de langage. Vous pouvez également modifier le type de modèle utilisé dans le noeud 'LLM Model' pour répondre à des besoins spécifiques. Si vous souhaitez intégrer d'autres outils, envisagez d'ajouter des noeuds supplémentaires pour des notifications ou des analyses. Assurez-vous de sécuriser les données en configurant correctement le noeud 'Chat Memory' pour protéger les informations sensibles des utilisateurs.