Workflow n8n

Automatisation de chat avec LLM et n8n : dialogue intelligent

Ce workflow n8n permet d'automatiser les interactions avec des modèles de langage locaux via Ollama, facilitant ainsi des conversations fluides et pertinentes. Idéal pour les entreprises souhaitant intégrer des solutions de chat intelligentes dans leurs services, ce système peut être utilisé dans divers contextes, tels que le support client, l'éducation ou même le divertissement. Le workflow commence par un déclencheur qui active le processus lorsque un message de chat est reçu. Ensuite, il utilise le modèle de chat d'Ollama pour générer des réponses adaptées aux requêtes des utilisateurs. Les réponses sont ensuite traitées et affichées sous forme de notes autocollantes, permettant une visualisation claire des échanges. Ce processus est optimisé grâce à la chaîne de LLM, qui assure une fluidité dans la conversation. En intégrant ce type d'automatisation n8n, les entreprises peuvent améliorer l'engagement client et réduire les délais de réponse, tout en offrant une expérience utilisateur enrichie. Les bénéfices incluent une communication améliorée, une réduction des coûts opérationnels et une meilleure satisfaction client.

Tags clés :automatisationn8nchatbotOllamaLLM
Catégorie: Webhook · Tags: automatisation, n8n, chatbot, Ollama, LLM0

Workflow n8n chatbot, Ollama, LLM : vue d'ensemble

Schéma des nœuds et connexions de ce workflow n8n, généré à partir du JSON n8n.

Workflow n8n chatbot, Ollama, LLM : détail des nœuds

  • When chat message received

    Ce noeud déclenche le workflow lorsqu'un message de chat est reçu.

  • Ollama Chat Model

    Ce noeud utilise le modèle de chat Ollama pour générer des réponses basées sur les messages reçus.

  • Sticky Note

    Ce noeud crée une note autocollante avec des dimensions et un contenu spécifiés.

  • Sticky Note1

    Ce noeud crée une note autocollante avec une couleur, des dimensions et un contenu spécifiés.

  • Chat LLM Chain

    Ce noeud exécute une chaîne de modèles de langage pour traiter les messages de chat.

Inscris-toi pour voir l'intégralité du workflow

Inscription gratuite

S'inscrire gratuitementBesoin d'aide ?
{
  "id": "af8RV5b2TWB2LclA",
  "meta": {
    "instanceId": "95f2ab28b3dabb8da5d47aa5145b95fe3845f47b20d6343dd5256b6a28ba8fab",
    "templateCredsSetupCompleted": true
  },
  "name": "Chat with local LLMs using n8n and Ollama",
  "tags": [],
  "nodes": [
    {
      "id": "475385fa-28f3-45c4-bd1a-10dde79f74f2",
      "name": "When chat message received",
      "type": "@n8n/n8n-nodes-langchain.chatTrigger",
      "position": [
        700,
        460
      ],
      "webhookId": "ebdeba3f-6b4f-49f3-ba0a-8253dd226161",
      "parameters": {
        "options": {}
      },
      "typeVersion": 1.1
    },
    {
      "id": "61133dc6-dcd9-44ff-85f2-5d8cc2ce813e",
      "name": "Ollama Chat Model",
      "type": "@n8n/n8n-nodes-langchain.lmChatOllama",
      "position": [
        900,
        680
      ],
      "parameters": {
        "options": {}
      },
      "credentials": {
        "ollamaApi": {
          "id": "MyYvr1tcNQ4e7M6l",
          "name": "Local Ollama"
        }
      },
      "typeVersion": 1
    },
    {
      "id": "3e89571f-7c87-44c6-8cfd-4903d5e1cdc5",
      "name": "Sticky Note",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        160,
        80
      ],
      "parameters": {
        "width": 485,
        "height": 473,
        "content": "## Chat with local LLMs using n8n and Ollama\nThis n8n workflow allows you to seamlessly interact with your self-hosted Large Language Models (LLMs) through a user-friendly chat interface. By connecting to Ollama, a powerful tool for managing local LLMs, you can send prompts and receive AI-generated responses directly within n8n.\n\n### How it works\n1. When chat message received: Captures the user's input from the chat interface.\n2. Chat LLM Chain: Sends the input to the Ollama server and receives the AI-generated response.\n3. Delivers the LLM's response back to the chat interface.\n\n### Set up steps\n* Make sure Ollama is installed and running on your machine before executing this workflow.\n* Edit the Ollama address if different from the default.\n"
      },
      "typeVersion": 1
    },
    {
      "id": "9345cadf-a72e-4d3d-b9f0-d670744065fe",
      "name": "Sticky Note1",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        1040,
        660
      ],
      "parameters": {
        "color": 6,
        "width": 368,
        "height": 258,
        "content": "## Ollama setup\n* Connect to your local Ollama, usually on http://localhost:11434\n* If running in Docker, make sure that the n8n container has access to the host's network in order to connect to Ollama. You can do this by passing `--net=host` option when starting the n8n Docker container"
      },
      "typeVersion": 1
    },
    {
      "id": "eeffdd4e-6795-4ebc-84f7-87b5ac4167d9",
      "name": "Chat LLM Chain",
      "type": "@n8n/n8n-nodes-langchain.chainLlm",
      "position": [
        920,
        460
      ],
      "parameters": {},
      "typeVersion": 1.4
    }
  ],
  "active": false,
  "pinData": {},
  "settings": {
    "executionOrder": "v1"
  },
  "versionId": "3af03daa-e085-4774-8676-41578a4cba2d",
  "connections": {
    "Ollama Chat Model": {
      "ai_languageModel": [
        [
          {
            "node": "Chat LLM Chain",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "When chat message received": {
      "main": [
        [
          {
            "node": "Chat LLM Chain",
            "type": "main",
            "index": 0
          }
        ]
      ]
    }
  }
}

Workflow n8n chatbot, Ollama, LLM : pour qui est ce workflow ?

Ce workflow s'adresse aux entreprises de taille moyenne à grande qui cherchent à intégrer des solutions de chat automatisées dans leurs services. Les équipes techniques et marketing, ainsi que les développeurs intéressés par l'IA et l'automatisation, trouveront ce workflow particulièrement utile.

Workflow n8n chatbot, Ollama, LLM : problème résolu

Ce workflow résout le problème de l'interaction lente et peu engageante avec les clients en automatisant les réponses via un modèle de langage local. Il élimine les frustrations liées aux temps d'attente et améliore la qualité des échanges, permettant ainsi aux entreprises de fournir un service client plus réactif et personnalisé. En utilisant ce système, les utilisateurs peuvent s'attendre à des réponses instantanées et pertinentes, augmentant ainsi la satisfaction et la fidélité des clients.

Workflow n8n chatbot, Ollama, LLM : étapes du workflow

Étape 1 : Le workflow est déclenché lorsqu'un message de chat est reçu.

  • Étape 1 : Le modèle de chat d'Ollama génère une réponse basée sur le message reçu.
  • Étape 2 : Les réponses sont ensuite affichées sous forme de notes autocollantes, offrant une visualisation claire des échanges.
  • Étape 3 : La chaîne de LLM assure une fluidité dans la conversation, garantissant que les interactions restent naturelles et engageantes.

Workflow n8n chatbot, Ollama, LLM : guide de personnalisation

Pour personnaliser ce workflow, vous pouvez modifier les paramètres du déclencheur pour l'adapter à votre plateforme de chat spécifique. Il est également possible de changer les options du modèle de chat d'Ollama pour affiner les réponses générées. Pensez à ajuster les dimensions et le contenu des notes autocollantes pour qu'elles correspondent à votre charte graphique. Enfin, vous pouvez intégrer d'autres outils ou services via des appels API pour enrichir encore plus l'expérience utilisateur.