Comment j’automatise mes workflows N8N en une seule session avec Claude Code
Il y a quelques mois, créer un workflow N8N de 31 nœuds me prenait plusieurs jours. Aujourd’hui, Claude Code s’en charge seul — de la conception au déploiement.
Pourquoi Claude Code (et pas ChatGPT, Cursor ou Copilot)
La question revient souvent : pourquoi ne pas simplement demander à ChatGPT de générer un workflow N8N ? Ou utiliser Cursor qui est aussi excellent pour coder ?
La réponse tient en un mot : l’agenticité.
Claude Code n’est pas un simple chatbot qui génère du texte. C’est un agent CLI autonome qui peut :
- Exécuter des commandes sur votre machine
- Appeler des APIs externes via les serveurs MCP (Model Context Protocol)
- Lire et écrire des fichiers dans votre arborescence projet
- Itérer en boucle jusqu’à obtenir le résultat attendu
- Maintenir une mémoire persistante d’une session à l’autre
Concrètement, quand je demande à Claude Code de créer un workflow N8N, il ne se contente pas de me donner un JSON à copier-coller. Il se connecte directement à mon instance N8N, crée les nœuds, configure les connexions, valide le résultat, et corrige lui-même les erreurs qu’il détecte. Tout ça dans le terminal, sans interface graphique, sans intervention manuelle.
C’est cette capacité à agir, pas seulement conseiller, qui fait toute la différence.
La différence avec les autres outils
| Critère | ChatGPT | Cursor / Copilot | Claude Code |
|---|---|---|---|
| Génère du JSON N8N | ✓ Oui | ✓ Oui | ✓ Oui |
| Déploie directement sur N8N | ✗ Non | ✗ Non | ✓ Oui (via MCP) |
| Valide le workflow | ✗ Non | ✗ Non | ✓ Oui (intégré) |
| Corrige automatiquement | ✗ Non | ~ Partiel | ✓ Oui (boucle) |
| Mémoire inter-sessions | ~ Limité | ✗ Non | ✓ Oui (fichiers) |
| Accès à la doc à jour | ✗ Non (cutoff) | ✗ Non | ✓ Oui (Context7) |
| Exécution shell | ✗ Non | ~ Partiel | ✓ Oui (natif) |
Claude Opus 4.6, le cerveau de l’opération
Mon setup utilise Claude Opus 4.6, le modèle le plus puissant de la famille Claude. Ce n’est pas un choix anodin : la création de workflows N8N complexes exige un niveau de raisonnement que les modèles plus légers ne peuvent pas fournir.
Pourquoi Opus et pas Sonnet ou Haiku ?
Un workflow N8N de 30+ nœuds implique de :
- Comprendre l’architecture globale : quels nœuds, dans quel ordre, avec quelles dépendances
- Maîtriser les détails techniques : le format exact des paramètres de chaque nœud, les différences entre versions d’API
- Raisonner sur plusieurs étapes : si je modifie le nœud 10, quel impact sur les nœuds 11 à 18 ?
- Débugger des problèmes subtils : comme le fait qu’un
updateNodedans l’API N8N remplace tous les paramètres
J’utilise Opus pour la création et le debugging de workflows complexes. Pour des modifications simples (changer un texte, ajuster un paramètre), Sonnet 4.6 suffit amplement et coûte bien moins cher.
4 serveurs MCP pour un pilotage total
Le Model Context Protocol (MCP) est la pièce maîtresse de ce setup. C’est un standard ouvert qui permet à Claude Code de se connecter à des services externes. Pensez-y comme des plugins qui donnent à l’IA des super-pouvoirs spécialisés.
Mon installation repose sur 4 serveurs MCP qui couvrent 100% de mes besoins :
MCP #1 — Le serveur N8N : le bras armé
C’est le serveur le plus important. Il permet à Claude Code d’interagir directement avec mon instance N8N hébergée sur un VPS Hostinger via Docker. Il peut :
- Lister, créer, modifier, supprimer des workflows — sans jamais ouvrir l’interface web
- Rechercher des nœuds (
search_nodes) — pour trouver le bon nœud parmi les centaines disponibles - Inspecter un nœud en détail (
get_node) — pour connaître tous ses paramètres, versions et options - Valider un workflow (
validate_workflow) — vérifier la structure et les connexions avant de déployer - Tester l’exécution (
n8n_test_workflow) — déclencher un workflow et analyser le résultat - Corriger automatiquement (
n8n_autofix_workflow) — résoudre les problèmes courants de format
MCP #2 — Context7 : la documentation vivante
Un des plus gros problèmes avec les LLM, c’est la date de coupure des connaissances. Context7 résout ce problème en donnant à Claude un accès en temps réel à la documentation officielle de N8N : plus de 1 500 snippets indexés et consultables, avec un score de fiabilité de 84/100.
MCP #3 — NotebookLM : le RAG maison
Google NotebookLM est utilisé comme une base de connaissances interrogeable par l’IA. Claude le consulte avant chaque décision architecturale importante. J’en détaille le fonctionnement plus bas.
MCP #4 — Hostinger : le contrôle de l’infrastructure
Mon instance N8N tourne dans un container Docker sur un VPS Hostinger. Le MCP Hostinger permet à Claude Code de consulter les logs, redémarrer le container, vérifier l’état du firewall — sans intervention manuelle.
L’orchestration des 4 MCPs
La vraie puissance vient de la combinaison. Voici le flux typique lors de la création d’un workflow :
La mémoire institutionnelle de l’IA
C’est probablement l’aspect le plus original de mon setup. J’utilise Google NotebookLM comme un système RAG (Retrieval-Augmented Generation) pour Claude Code.
Le concept
Un RAG classique nécessite une base vectorielle, un pipeline d’indexation, du chunking… C’est complexe à mettre en place. NotebookLM offre tout ça gratuitement et sans code, avec en bonus le moteur de raisonnement de Gemini pour synthétiser les réponses.
Mon notebook contient : les 5 architectures clés d’agents IA, les configurations LLM pour OpenAI et Anthropic/Bedrock, l’architecture Docker, les expressions avancées N8N, la gestion d’erreurs, et des cas d’usage réels.
Comment Claude l’utilise
Grâce au MCP NotebookLM, Claude peut interroger ce notebook en langage naturel pendant qu’il travaille :
ask_question(
notebook_id: "n8n-base-de-connaissances-comp",
question: "Quel pattern d'agent utiliser pour une recherche
parallèle suivie d'une fusion de résultats ?"
)
Pourquoi pas un RAG classique ?
| Critère | RAG classique (Pinecone…) | NotebookLM via MCP |
|---|---|---|
| Setup | Complexe (vectorDB, embeddings, chunking) | Upload de documents, c’est tout |
| Coût | $$$ (hébergement + embeddings) | Gratuit (100 notebooks) |
| Maintenance | Re-indexation, monitoring | Zéro |
| Mise à jour | Pipeline de réindexation | Ajouter/modifier une source |
CLAUDE.md et la mémoire persistante
Si les MCPs sont les bras de Claude Code, la documentation est son cerveau à long terme. Sans elle, chaque session repart de zéro.
Le fichier CLAUDE.md : les directives de mission
À la racine de mon projet, un fichier CLAUDE.md est automatiquement chargé à chaque session. C’est le « brief permanent » que Claude suit systématiquement :
# Projet N8N - Directives Claude Code
## MCP disponibles
- Description de chaque MCP et de son rôle
- Règles d'utilisation (ex: "Toujours appeler get_node
avec detail='standard' avant de configurer un nœud")
## Workflow de création d'un flow N8N
1. Consulter Context7 pour la doc N8N à jour
2. Consulter le notebook N8N dans NotebookLM
3. Rechercher les nœuds avec search_nodes
4. Configurer avec get_node (detail='standard')
5. Valider avec validate_workflow
6. Créer/déployer avec n8n_create_workflow
## Langue
Toujours répondre en français.
La mémoire persistante : MEMORY.md
Au-delà du CLAUDE.md, Claude Code dispose d’un répertoire de mémoire qu’il met à jour lui-même. Voici un exemple concret de ce que Claude a retenu de lui-même :
# Problèmes résolus (mars 2026)
### Messages OpenAI vidés par updateNode (CRITIQUE)
- Cause : updateNode REMPLACE tout 'parameters'.
Mettre juste modelId → wipe les messages
- Fix : Toujours inclure TOUS les paramètres
dans chaque updateNode
### responses.values vs messages.values (CRITIQUE)
- OpenAI node v2.1 a DEUX modes :
- Chat Completions API → utilise messages.values
- Responses API (DÉFAUT v2.1) → utilise responses.values
Ce mécanisme fait que Claude ne commet jamais la même erreur deux fois. Quand il a découvert que l’API updateNode efface tous les paramètres non spécifiés, il l’a documenté. À la session suivante, il savait déjà comment l’éviter.
De l’instruction au workflow opérationnel
C’est là que la magie opère. Voici comment se passe concrètement une mission « création de workflow » :
Ce que je donne à Claude
Un brief en langage naturel. Pas de JSON, pas de spécification technique :
« Crée un workflow N8N qui automatise ma newsletter The Next Mind Tricks. Il doit chercher les actus IA de la semaine via Perplexity et GPT avec web search, faire une sélection éditoriale, générer le contenu section par section, assembler le tout en Markdown et sauvegarder le fichier. »
Ce que Claude fait (sans intervention)
Tester, corriger, redéployer sans intervention
Claude Code ne s’arrête pas à la première version : il boucle jusqu’à ce que ça marche. Voici des exemples réels de bugs qu’il a détectés et corrigés seul :
Le contenu Tricks dérivait vers du générique
$json.selectionText par $json.tricksSubject, plus ajout d’une instruction de fallback.Les paramètres OpenAI s’effaçaient à chaque mise à jour
updateNode de N8N remplace tous les paramètres, pas seulement ceux envoyés.updateNode. Documenté en mémoire persistante.La mauvaise API OpenAI utilisée par défaut
messages.values alors qu’il fallait responses.values.
Le workflow « TNM Newsletter Automatique » — 31 nœuds
Pour rendre tout ça concret, voici le workflow que Claude a créé et optimisé pour ma newsletter hebdomadaire sur l’IA, « The Next Mind Tricks ».
L’architecture : 7 phases
Les chiffres
Nœuds
Durée d’exécution
Warning QA à l’exec #62
Newsletters produites
Ce que j’ai appris
Ce qui ne fonctionne pas (encore) parfaitement
- Les credentials : Claude ne peut pas configurer les clés API dans N8N pour des raisons de sécurité. Étape manuelle obligatoire.
- Le debugging visuel : Certains problèmes sont plus faciles à diagnostiquer dans l’interface graphique de N8N.
- La consommation de tokens : Un workflow complexe avec Opus peut être coûteux. Basculer sur Sonnet pour les tâches simples.
- La dépendance aux MCPs : Si un serveur est indisponible, Claude perd cette capacité. Pas de fallback automatique.
Les leçons clés
- Investir dans le CLAUDE.md — C’est le fichier le plus rentable du projet. Chaque minute passée à le rédiger économise des heures.
- Laisser Claude documenter — La mémoire persistante est un outil puissant. Laissez-le écrire ses propres notes techniques.
- Commencer simple, itérer — Donnez le brief global et laissez Claude proposer l’architecture.
- Alimenter le notebook NotebookLM — Plus il contient d’informations pertinentes, meilleurs sont les résultats.
- Utiliser la validation systématiquement —
validate_workflowavant chaque déploiement, c’est non négociable.
Le setup minimal
Prérequis
- Un compte Anthropic avec accès à Claude Code (API ou abonnement Max)
- Une instance N8N (self-hosted ou cloud)
- Un compte Google pour NotebookLM (gratuit)
Étape 1 : Installer Claude Code
npm install -g @anthropic-ai/claude-code
Étape 2 : Configurer le MCP N8N
Dans votre fichier de configuration MCP Claude Code, ajoutez le serveur N8N. Vous aurez besoin de l’URL de votre instance et d’une clé API N8N.
Étape 3 : Configurer Context7
Ajoutez le serveur MCP Context7 pour l’accès à la documentation. C’est un service gratuit qui indexe la documentation des bibliothèques open source.
Étape 4 : Créer votre notebook NotebookLM
- Allez sur notebooklm.google.com
- Créez un nouveau notebook et uploadez vos documents de référence N8N
- Partagez-le avec un lien public
- Ajoutez-le dans votre configuration MCP NotebookLM
Étape 5 : Créer votre CLAUDE.md
# Mon Projet N8N - Directives Claude Code
## MCP disponibles
[Liste de vos MCPs avec leur rôle]
## Workflow de création
1. Consulter Context7 pour la doc à jour
2. Consulter NotebookLM pour les conventions
3. Rechercher les nœuds avec search_nodes
4. Configurer avec get_node (detail='standard')
5. Valider avec validate_workflow
6. Créer/déployer
## Conventions
[Vos règles spécifiques]
## Langue
[Votre langue préférée]
Étape 6 : Lancez votre première mission
Commencez par quelque chose de simple :
« Crée un workflow N8N avec un webhook trigger qui reçoit un JSON, le transforme avec un nœud Code, et envoie le résultat sur Telegram. »
Observez comment Claude consulte la doc, recherche les nœuds, crée le workflow et le valide. C’est la boucle fondamentale sur laquelle tout le reste se construit.
L’automatisation de l’automatisation
Ce que j’ai construit, c’est en quelque sorte l’automatisation de l’automatisation. Au lieu de passer des heures dans l’interface N8N à glisser-déposer des nœuds, je décris ce que je veux en langage naturel et Claude Code s’occupe du reste.
Les ingrédients clés :
- Un modèle puissant (Opus 4.6) pour le raisonnement complexe
- Des MCPs bien choisis pour l’exécution directe
- NotebookLM comme RAG pour la connaissance métier
- Une documentation soignée (CLAUDE.md + mémoire) pour la continuité
- Un cycle d’itération automatique pour la fiabilité
Le résultat ? Un workflow de newsletter de 31 nœuds, créé, testé et optimisé — avec une IA qui apprend de ses erreurs et ne les refait jamais. Pendant que Claude itère, je peux faire autre chose. L’IA travaille, je supervise. C’est un changement de paradigme.