Workflow n8n

Automatisation OpenRouter avec n8n : utilisation de modèles LLM

Ce workflow n8n permet d'intégrer facilement des modèles de langage via OpenRouter, facilitant ainsi l'interaction avec des agents intelligents. Dans un contexte où les entreprises cherchent à améliorer leur service client et à automatiser les réponses aux requêtes, ce workflow s'avère particulièrement utile. Par exemple, les équipes de support peuvent utiliser ce système pour fournir des réponses instantanées et pertinentes aux questions des utilisateurs, améliorant ainsi l'expérience client tout en réduisant la charge de travail des agents.

  • Étape 1 : le workflow commence par le déclencheur 'When chat message received', qui active le flux dès qu'un message est reçu.
  • Étape 2 : les paramètres sont configurés dans le noeud 'Settings', permettant de définir les options nécessaires pour l'interaction.
  • Étape 3 : le noeud 'AI Agent' utilise les données du message pour générer une réponse appropriée en se basant sur le modèle de langage sélectionné dans le noeud 'LLM Model'.
  • Étape 4 : la mémoire de chat est gérée par le noeud 'Chat Memory', qui conserve le contexte des conversations pour des interactions plus fluides. Enfin, les résultats peuvent être affichés ou stockés via les noeuds 'Sticky Note', qui permettent de visualiser les réponses générées. En mettant en place cette automatisation n8n, les entreprises peuvent non seulement gagner du temps, mais aussi offrir une expérience utilisateur améliorée, en répondant rapidement et efficacement aux demandes des clients.
Tags clés :automatisationOpenRouterLLMn8nintelligence artificielle
Catégorie: Webhook · Tags: automatisation, OpenRouter, LLM, n8n, intelligence artificielle0

Workflow n8n OpenRouter, LLM, intelligence artificielle : vue d'ensemble

Schéma des nœuds et connexions de ce workflow n8n, généré à partir du JSON n8n.

Workflow n8n OpenRouter, LLM, intelligence artificielle : détail des nœuds

  • Settings

    Ce noeud configure les paramètres du workflow en assignant des options.

  • Sticky Note

    Ce noeud crée une note autocollante avec des dimensions et un contenu spécifiés.

  • Sticky Note1

    Ce noeud génère une note autocollante avec une couleur, des dimensions et un contenu définis.

  • When chat message received

    Ce noeud déclenche le workflow lorsqu'un message de chat est reçu.

  • AI Agent

    Ce noeud utilise un agent d'intelligence artificielle pour traiter le texte et générer des réponses.

  • Chat Memory

    Ce noeud gère la mémoire de la conversation en utilisant une fenêtre de mémoire tampon.

  • LLM Model

    Ce noeud interagit avec un modèle de langage OpenAI pour générer des réponses basées sur des options définies.

  • Sticky Note2

    Ce noeud crée une seconde note autocollante avec des dimensions et un contenu spécifiés.

Inscris-toi pour voir l'intégralité du workflow

Inscription gratuite

S'inscrire gratuitementBesoin d'aide ?
{
  "id": "VhN3CX6QPBkX77pZ",
  "meta": {
    "instanceId": "98bf0d6aef1dd8b7a752798121440fb171bf7686b95727fd617f43452393daa3",
    "templateCredsSetupCompleted": true
  },
  "name": "Use any LLM-Model via OpenRouter",
  "tags": [
    {
      "id": "uumvgGHY5e6zEL7V",
      "name": "Published Template",
      "createdAt": "2025-02-10T11:18:10.923Z",
      "updatedAt": "2025-02-10T11:18:10.923Z"
    }
  ],
  "nodes": [
    {
      "id": "b72721d2-bce7-458d-8ff1-cc9f6d099aaf",
      "name": "Settings",
      "type": "n8n-nodes-base.set",
      "position": [
        -420,
        -640
      ],
      "parameters": {
        "options": {},
        "assignments": {
          "assignments": [
            {
              "id": "3d7f9677-c753-4126-b33a-d78ef701771f",
              "name": "model",
              "type": "string",
              "value": "deepseek/deepseek-r1-distill-llama-8b"
            },
            {
              "id": "301f86ec-260f-4d69-abd9-bde982e3e0aa",
              "name": "prompt",
              "type": "string",
              "value": "={{ $json.chatInput }}"
            },
            {
              "id": "a9f65181-902d-48f5-95ce-1352d391a056",
              "name": "sessionId",
              "type": "string",
              "value": "={{ $json.sessionId }}"
            }
          ]
        }
      },
      "typeVersion": 3.4
    },
    {
      "id": "a4593d64-e67a-490e-9cb4-936cc46273a0",
      "name": "Sticky Note",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -460,
        -740
      ],
      "parameters": {
        "width": 180,
        "height": 400,
        "content": "## Settings\nSpecify the model"
      },
      "typeVersion": 1
    },
    {
      "id": "3ea3b09a-0ab7-4e0f-bb4f-3d807d072d4e",
      "name": "Sticky Note1",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -240,
        -740
      ],
      "parameters": {
        "color": 3,
        "width": 380,
        "height": 400,
        "content": "## Run LLM\nUsing OpenRouter to make model fully configurable"
      },
      "typeVersion": 1
    },
    {
      "id": "19d47fcb-af37-4daa-84fd-3f43ffcb90ff",
      "name": "When chat message received",
      "type": "@n8n/n8n-nodes-langchain.chatTrigger",
      "position": [
        -660,
        -640
      ],
      "webhookId": "71f56e44-401f-44ba-b54d-c947e283d034",
      "parameters": {
        "options": {}
      },
      "typeVersion": 1.1
    },
    {
      "id": "f5a793f2-1e2f-4349-a075-9b9171297277",
      "name": "AI Agent",
      "type": "@n8n/n8n-nodes-langchain.agent",
      "position": [
        -180,
        -640
      ],
      "parameters": {
        "text": "={{ $json.prompt }}",
        "options": {},
        "promptType": "define"
      },
      "typeVersion": 1.7
    },
    {
      "id": "dbbd9746-ca25-4163-91c5-a9e33bff62a4",
      "name": "Chat Memory",
      "type": "@n8n/n8n-nodes-langchain.memoryBufferWindow",
      "position": [
        -80,
        -460
      ],
      "parameters": {
        "sessionKey": "={{ $json.sessionId }}",
        "sessionIdType": "customKey"
      },
      "typeVersion": 1.3
    },
    {
      "id": "ef368cea-1b38-455b-b46a-5d0ef7a3ceb3",
      "name": "LLM Model",
      "type": "@n8n/n8n-nodes-langchain.lmChatOpenAi",
      "position": [
        -200,
        -460
      ],
      "parameters": {
        "model": "={{ $json.model }}",
        "options": {}
      },
      "credentials": {
        "openAiApi": {
          "id": "66JEQJ5kJel1P9t3",
          "name": "OpenRouter"
        }
      },
      "typeVersion": 1.1
    },
    {
      "id": "32601e76-0979-4690-8dcf-149ddbf61983",
      "name": "Sticky Note2",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -460,
        -320
      ],
      "parameters": {
        "width": 600,
        "height": 240,
        "content": "## Model examples\n\n* openai/o3-mini\n* google/gemini-2.0-flash-001\n* deepseek/deepseek-r1-distill-llama-8b\n* mistralai/mistral-small-24b-instruct-2501:free\n* qwen/qwen-turbo\n\nFor more see https://openrouter.ai/models"
      },
      "typeVersion": 1
    }
  ],
  "active": false,
  "pinData": {},
  "settings": {
    "executionOrder": "v1"
  },
  "versionId": "6d0caf5d-d6e6-4059-9211-744b0f4bc204",
  "connections": {
    "Settings": {
      "main": [
        [
          {
            "node": "AI Agent",
            "type": "main",
            "index": 0
          }
        ]
      ]
    },
    "LLM Model": {
      "ai_languageModel": [
        [
          {
            "node": "AI Agent",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "Chat Memory": {
      "ai_memory": [
        [
          {
            "node": "AI Agent",
            "type": "ai_memory",
            "index": 0
          }
        ]
      ]
    },
    "When chat message received": {
      "main": [
        [
          {
            "node": "Settings",
            "type": "main",
            "index": 0
          }
        ]
      ]
    }
  }
}

Workflow n8n OpenRouter, LLM, intelligence artificielle : pour qui est ce workflow ?

Ce workflow s'adresse aux entreprises de taille moyenne à grande, notamment celles qui souhaitent automatiser leur service client ou améliorer leurs interactions avec les utilisateurs. Les équipes techniques et les responsables de l'innovation trouveront également un grand intérêt dans cette solution, qui nécessite un niveau technique intermédiaire pour sa mise en œuvre.

Workflow n8n OpenRouter, LLM, intelligence artificielle : problème résolu

Ce workflow résout le problème de la lenteur des réponses aux requêtes des clients, souvent dues à une surcharge de travail des équipes de support. En automatisant les réponses grâce à un modèle de langage, il réduit le temps d'attente pour les utilisateurs et diminue le risque d'erreurs humaines. Les entreprises bénéficient ainsi d'une amélioration de la satisfaction client et d'une optimisation des ressources humaines.

Workflow n8n OpenRouter, LLM, intelligence artificielle : étapes du workflow

Étape 1 : le flux est déclenché par la réception d'un message de chat.

  • Étape 1 : les paramètres sont configurés dans le noeud 'Settings' pour préparer l'interaction.
  • Étape 2 : le noeud 'AI Agent' génère une réponse en utilisant le modèle de langage sélectionné.
  • Étape 3 : la mémoire de chat est gérée par le noeud 'Chat Memory' pour conserver le contexte des échanges.
  • Étape 4 : les réponses sont affichées ou stockées via les noeuds 'Sticky Note'.

Workflow n8n OpenRouter, LLM, intelligence artificielle : guide de personnalisation

Pour personnaliser ce workflow, commencez par ajuster les paramètres dans le noeud 'Settings', notamment les options de configuration pour le modèle de langage. Vous pouvez également modifier le type de modèle utilisé dans le noeud 'LLM Model' pour répondre à des besoins spécifiques. Si vous souhaitez intégrer d'autres outils, envisagez d'ajouter des noeuds supplémentaires pour des notifications ou des analyses. Assurez-vous de sécuriser les données en configurant correctement le noeud 'Chat Memory' pour protéger les informations sensibles des utilisateurs.