Workflow n8n

Automatisation Chat avec n8n : réponse instantanée AI

Ce workflow n8n est conçu pour automatiser les réponses aux messages reçus sur une plateforme de chat, en intégrant des agents d'IA pour fournir des réponses pertinentes et instantanées. Dans un contexte où la réactivité est cruciale, ce type d'automatisation est particulièrement utile pour les entreprises qui souhaitent améliorer leur service client ou leurs interactions en ligne. En utilisant des outils comme DeepSeek et Ollama, ce workflow permet de traiter les messages entrants et d'y répondre de manière intelligente, réduisant ainsi le temps d'attente pour les utilisateurs.

  • Étape 1 : Le déclencheur du workflow est un message reçu dans le chat, géré par le nœud 'When chat message received'.
  • Étape 2 : Ce message est ensuite traité par un agent AI via le nœud 'AI Agent', qui utilise les capacités de traitement du langage naturel.
  • Étape 3 : Les réponses sont générées à l'aide de modèles de langage comme DeepSeek et Ollama, qui sont intégrés dans le workflow.
  • Étape 4 : Les réponses sont ensuite stockées dans des notes autocollantes pour une consultation ultérieure ou pour un suivi. Les bénéfices business de ce workflow incluent une amélioration significative de l'efficacité des réponses aux clients, une réduction des délais de réponse et une meilleure satisfaction client. En intégrant ce type d'automatisation n8n, les entreprises peuvent non seulement gagner du temps, mais aussi offrir une expérience utilisateur enrichie.
Tags clés :automatisationchatIAn8nservice client
Catégorie: Webhook · Tags: automatisation, chat, IA, n8n, service client0

Workflow n8n chat, service client : vue d'ensemble

Schéma des nœuds et connexions de ce workflow n8n, généré à partir du JSON n8n.

Workflow n8n chat, service client : détail des nœuds

  • When chat message received

    Ce noeud déclenche le workflow lorsqu'un message de chat est reçu.

  • AI Agent

    Ce noeud représente un agent d'intelligence artificielle qui traite les informations fournies.

  • DeepSeek

    Ce noeud utilise un modèle de langage pour générer des réponses basées sur des messages de chat.

  • Window Buffer Memory

    Ce noeud gère la mémoire tampon pour stocker les messages précédents dans le workflow.

  • Basic LLM Chain2

    Ce noeud exécute une chaîne de traitement de langage naturel sur les messages fournis.

  • Sticky Note

    Ce noeud crée une note autocollante avec des paramètres de couleur, taille et contenu spécifiés.

  • Sticky Note1

    Ce noeud crée une autre note autocollante avec des paramètres de couleur, taille et contenu spécifiés.

  • Ollama DeepSeek

    Ce noeud utilise un modèle de langage Ollama pour générer des réponses basées sur des messages de chat.

  • Sticky Note2

    Ce noeud crée une note autocollante supplémentaire avec des paramètres de couleur, taille et contenu spécifiés.

  • Sticky Note3

    Ce noeud crée une note autocollante avec des paramètres de couleur, taille et contenu spécifiés.

  • DeepSeek JSON Body

    Ce noeud envoie une requête HTTP avec un corps JSON pour interagir avec une API.

  • DeepSeek Raw Body

    Ce noeud envoie une requête HTTP avec un corps brut pour interagir avec une API.

  • Sticky Note4

    Ce noeud crée une note autocollante avec des paramètres de couleur, taille et contenu spécifiés.

  • Sticky Note5

    Ce noeud crée une note autocollante avec des paramètres de couleur, taille et contenu spécifiés.

  • Sticky Note6

    Ce noeud crée une note autocollante avec des paramètres de couleur, taille et contenu spécifiés.

Inscris-toi pour voir l'intégralité du workflow

Inscription gratuite

S'inscrire gratuitementBesoin d'aide ?
{
  "id": "IyhH1KHtXidKNSIA",
  "meta": {
    "instanceId": "31e69f7f4a77bf465b805824e303232f0227212ae922d12133a0f96ffeab4fef"
  },
  "name": "🐋DeepSeek V3 Chat & R1 Reasoning Quick Start",
  "tags": [],
  "nodes": [
    {
      "id": "54c59cae-fbd0-4f0d-b633-6304e6c66d89",
      "name": "When chat message received",
      "type": "@n8n/n8n-nodes-langchain.chatTrigger",
      "position": [
        -840,
        -740
      ],
      "webhookId": "b740bd14-1b9e-4b1b-abd2-1ecf1184d53a",
      "parameters": {
        "options": {}
      },
      "typeVersion": 1.1
    },
    {
      "id": "ef85680e-569f-4e74-a1b4-aae9923a0dcb",
      "name": "AI Agent",
      "type": "@n8n/n8n-nodes-langchain.agent",
      "onError": "continueErrorOutput",
      "position": [
        -320,
        40
      ],
      "parameters": {
        "agent": "conversationalAgent",
        "options": {
          "systemMessage": "You are a helpful assistant."
        }
      },
      "retryOnFail": true,
      "typeVersion": 1.7,
      "alwaysOutputData": true
    },
    {
      "id": "07a8c74c-768e-4b38-854f-251f2fe5b7bf",
      "name": "DeepSeek",
      "type": "@n8n/n8n-nodes-langchain.lmChatOpenAi",
      "position": [
        -360,
        220
      ],
      "parameters": {
        "model": "=deepseek-reasoner",
        "options": {}
      },
      "credentials": {
        "openAiApi": {
          "id": "MSl7SdcvZe0SqCYI",
          "name": "deepseek"
        }
      },
      "typeVersion": 1.1
    },
    {
      "id": "a6d58a8c-2d16-4c91-adde-acac98868150",
      "name": "Window Buffer Memory",
      "type": "@n8n/n8n-nodes-langchain.memoryBufferWindow",
      "position": [
        -220,
        220
      ],
      "parameters": {},
      "typeVersion": 1.3
    },
    {
      "id": "401a5932-9f3e-4b17-a531-3a19a6a7788a",
      "name": "Basic LLM Chain2",
      "type": "@n8n/n8n-nodes-langchain.chainLlm",
      "position": [
        -320,
        -800
      ],
      "parameters": {
        "messages": {
          "messageValues": [
            {
              "message": "You are a helpful assistant."
            }
          ]
        }
      },
      "typeVersion": 1.5
    },
    {
      "id": "215dda87-faf7-4206-bbc3-b6a6b1eb98de",
      "name": "Sticky Note",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -440,
        -460
      ],
      "parameters": {
        "color": 5,
        "width": 420,
        "height": 340,
        "content": "## DeepSeek using HTTP Request\n### DeepSeek Reasoner R1\nhttps://api-docs.deepseek.com/\nRaw Body"
      },
      "typeVersion": 1
    },
    {
      "id": "6457c0f7-ad02-4ad3-a4a0-9a7a6e8f0f7f",
      "name": "Sticky Note1",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -440,
        -900
      ],
      "parameters": {
        "color": 4,
        "width": 580,
        "height": 400,
        "content": "## DeepSeek with Ollama Local Model"
      },
      "typeVersion": 1
    },
    {
      "id": "2ac8b41f-b27d-4074-abcc-430a8f5928e8",
      "name": "Ollama DeepSeek",
      "type": "@n8n/n8n-nodes-langchain.lmChatOllama",
      "position": [
        -320,
        -640
      ],
      "parameters": {
        "model": "deepseek-r1:14b",
        "options": {
          "format": "default",
          "numCtx": 16384,
          "temperature": 0.6
        }
      },
      "credentials": {
        "ollamaApi": {
          "id": "7aPaLgwpfdMWFYm9",
          "name": "Ollama account 127.0.0.1"
        }
      },
      "typeVersion": 1
    },
    {
      "id": "37a94fc0-eff3-4226-8633-fb170e5dcff2",
      "name": "Sticky Note2",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -440,
        -80
      ],
      "parameters": {
        "color": 3,
        "width": 600,
        "height": 460,
        "content": "## DeepSeek Conversational Agent w/Memory\n"
      },
      "typeVersion": 1
    },
    {
      "id": "52b484bb-1693-4188-ba55-643c40f10dfc",
      "name": "Sticky Note3",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        20,
        -460
      ],
      "parameters": {
        "color": 6,
        "width": 420,
        "height": 340,
        "content": "## DeepSeek using HTTP Request\n### DeepSeek Chat V3\nhttps://api-docs.deepseek.com/\nJSON Body"
      },
      "typeVersion": 1
    },
    {
      "id": "ec46acef-60f6-4d34-b636-3654125f5897",
      "name": "DeepSeek JSON Body",
      "type": "n8n-nodes-base.httpRequest",
      "position": [
        160,
        -320
      ],
      "parameters": {
        "url": "https://api.deepseek.com/chat/completions",
        "method": "POST",
        "options": {},
        "jsonBody": "={\n  \"model\": \"deepseek-chat\",\n  \"messages\": [\n    {\n      \"role\": \"system\",\n      \"content\": \"{{ $json.chatInput }}\"\n    },\n    {\n      \"role\": \"user\",\n      \"content\": \"Hello!\"\n    }\n  ],\n  \"stream\": false\n}",
        "sendBody": true,
        "specifyBody": "json",
        "authentication": "genericCredentialType",
        "genericAuthType": "httpHeaderAuth"
      },
      "credentials": {
        "httpHeaderAuth": {
          "id": "9CsntxjSlce6yWbN",
          "name": "deepseek"
        }
      },
      "typeVersion": 4.2
    },
    {
      "id": "e5295120-57f9-4e02-8b73-f00e4d6baa48",
      "name": "DeepSeek Raw Body",
      "type": "n8n-nodes-base.httpRequest",
      "position": [
        -300,
        -320
      ],
      "parameters": {
        "url": "https://api.deepseek.com/chat/completions",
        "body": "={\n        \"model\": \"deepseek-reasoner\",\n        \"messages\": [\n          {\"role\": \"user\", \"content\": \"{{ $json.chatInput.trim() }}\"}\n        ],\n        \"stream\": false\n      }",
        "method": "POST",
        "options": {},
        "sendBody": true,
        "contentType": "raw",
        "authentication": "genericCredentialType",
        "rawContentType": "application/json",
        "genericAuthType": "httpHeaderAuth"
      },
      "credentials": {
        "httpHeaderAuth": {
          "id": "9CsntxjSlce6yWbN",
          "name": "deepseek"
        }
      },
      "typeVersion": 4.2
    },
    {
      "id": "571dc713-ce54-4330-8bdd-94e057ecd223",
      "name": "Sticky Note4",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -1060,
        -460
      ],
      "parameters": {
        "color": 7,
        "width": 580,
        "height": 840,
        "content": "# Your First DeepSeek API Call\n\nThe DeepSeek API uses an API format compatible with OpenAI. By modifying the configuration, you can use the OpenAI SDK or softwares compatible with the OpenAI API to access the DeepSeek API.\n\nhttps://api-docs.deepseek.com/\n\n## Configuration Parameters\n\n| Parameter | Value |\n|-----------|--------|\n| base_url | https://api.deepseek.com |\n| api_key | https://platform.deepseek.com/api_keys |\n\n\n\n## Important Notes\n\n- To be compatible with OpenAI, you can also use `https://api.deepseek.com/v1` as the base_url. Note that the v1 here has NO relationship with the model's version.\n\n- The deepseek-chat model has been upgraded to DeepSeek-V3. The API remains unchanged. You can invoke DeepSeek-V3 by specifying `model='deepseek-chat'`.\n\n- deepseek-reasoner is the latest reasoning model, DeepSeek-R1, released by DeepSeek. You can invoke DeepSeek-R1 by specifying `model='deepseek-reasoner'`."
      },
      "typeVersion": 1
    },
    {
      "id": "f0ac3f32-218e-4488-b67f-7b7f7e8be130",
      "name": "Sticky Note5",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -1060,
        -900
      ],
      "parameters": {
        "color": 2,
        "width": 580,
        "height": 400,
        "content": "## Four Examples for Connecting to DeepSeek\nhttps://api-docs.deepseek.com/\nhttps://platform.deepseek.com/api_keys"
      },
      "typeVersion": 1
    },
    {
      "id": "91642d68-ab5d-4f61-abaf-8cb7cb991c29",
      "name": "Sticky Note6",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        -180,
        -640
      ],
      "parameters": {
        "color": 7,
        "width": 300,
        "height": 120,
        "content": "### Ollama Local\nhttps://ollama.com/\nhttps://ollama.com/library/deepseek-r1"
      },
      "typeVersion": 1
    }
  ],
  "active": false,
  "pinData": {
    "When chat message received": [
      {
        "json": {
          "action": "sendMessage",
          "chatInput": "provide 10 sentences that end in the word apple.",
          "sessionId": "68cb82d504c14f5eb80bdf2478bd39bb"
        }
      }
    ]
  },
  "settings": {
    "executionOrder": "v1"
  },
  "versionId": "e354040e-7898-4ff9-91a2-b6d36030dac8",
  "connections": {
    "AI Agent": {
      "main": [
        []
      ]
    },
    "DeepSeek": {
      "ai_languageModel": [
        [
          {
            "node": "AI Agent",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "Ollama DeepSeek": {
      "ai_languageModel": [
        [
          {
            "node": "Basic LLM Chain2",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "Window Buffer Memory": {
      "ai_memory": [
        [
          {
            "node": "AI Agent",
            "type": "ai_memory",
            "index": 0
          }
        ]
      ]
    },
    "When chat message received": {
      "main": [
        [
          {
            "node": "Basic LLM Chain2",
            "type": "main",
            "index": 0
          }
        ]
      ]
    }
  }
}

Workflow n8n chat, service client : pour qui est ce workflow ?

Ce workflow s'adresse aux entreprises de taille moyenne à grande souhaitant optimiser leur service client via des interactions automatisées sur des plateformes de chat. Il est particulièrement pertinent pour les équipes marketing et support client, ainsi que pour les entreprises technologiques utilisant des solutions d'IA.

Workflow n8n chat, service client : problème résolu

Ce workflow résout le problème des délais de réponse trop longs dans les interactions client en automatisant le traitement des messages reçus. En éliminant le besoin d'une intervention humaine pour chaque message, il réduit les frustrations des clients et améliore l'efficacité opérationnelle. Les utilisateurs peuvent s'attendre à des réponses instantanées et pertinentes, ce qui renforce la satisfaction et la fidélisation des clients.

Workflow n8n chat, service client : étapes du workflow

Étape 1 : Lorsqu'un message est reçu dans le chat, le workflow se déclenche grâce au nœud 'When chat message received'.

  • Étape 1 : Ce message est ensuite envoyé à l'agent AI via le nœud 'AI Agent' pour analyse.
  • Étape 2 : Les modèles de langage, comme DeepSeek et Ollama, génèrent des réponses basées sur le contenu du message.
  • Étape 3 : Les réponses sont stockées dans des notes autocollantes pour un suivi ou une consultation ultérieure.
  • Étape 4 : Les réponses peuvent être envoyées directement au chat, assurant ainsi une interaction fluide et efficace.

Workflow n8n chat, service client : guide de personnalisation

Pour personnaliser ce workflow, vous pouvez modifier le nœud 'When chat message received' pour l'adapter à votre plateforme de chat spécifique. Assurez-vous également de configurer les paramètres des nœuds 'AI Agent', 'DeepSeek' et 'Ollama DeepSeek' pour qu'ils correspondent à vos besoins en matière de réponse. Vous pouvez ajuster les couleurs et les dimensions des notes autocollantes dans les nœuds correspondants pour qu'elles s'intègrent mieux à votre interface. Enfin, il est conseillé de surveiller les performances du workflow et d'ajuster les modèles de langage utilisés en fonction des retours des utilisateurs.