01 — Pourquoi Claude Code

Pourquoi Claude Code (et pas ChatGPT, Cursor ou Copilot)

La question revient souvent : pourquoi ne pas simplement demander à ChatGPT de générer un workflow N8N ? Ou utiliser Cursor qui est aussi excellent pour coder ?

La réponse tient en un mot : l’agenticité.

Claude Code n’est pas un simple chatbot qui génère du texte. C’est un agent CLI autonome qui peut :

  • Exécuter des commandes sur votre machine
  • Appeler des APIs externes via les serveurs MCP (Model Context Protocol)
  • Lire et écrire des fichiers dans votre arborescence projet
  • Itérer en boucle jusqu’à obtenir le résultat attendu
  • Maintenir une mémoire persistante d’une session à l’autre

Concrètement, quand je demande à Claude Code de créer un workflow N8N, il ne se contente pas de me donner un JSON à copier-coller. Il se connecte directement à mon instance N8N, crée les nœuds, configure les connexions, valide le résultat, et corrige lui-même les erreurs qu’il détecte. Tout ça dans le terminal, sans interface graphique, sans intervention manuelle.

C’est cette capacité à agir, pas seulement conseiller, qui fait toute la différence.

La différence avec les autres outils

Critère ChatGPT Cursor / Copilot Claude Code
Génère du JSON N8N ✓ Oui ✓ Oui ✓ Oui
Déploie directement sur N8N ✗ Non ✗ Non ✓ Oui (via MCP)
Valide le workflow ✗ Non ✗ Non ✓ Oui (intégré)
Corrige automatiquement ✗ Non ~ Partiel ✓ Oui (boucle)
Mémoire inter-sessions ~ Limité ✗ Non ✓ Oui (fichiers)
Accès à la doc à jour ✗ Non (cutoff) ✗ Non ✓ Oui (Context7)
Exécution shell ✗ Non ~ Partiel ✓ Oui (natif)

02 — Le modèle

Claude Opus 4.6, le cerveau de l’opération

Mon setup utilise Claude Opus 4.6, le modèle le plus puissant de la famille Claude. Ce n’est pas un choix anodin : la création de workflows N8N complexes exige un niveau de raisonnement que les modèles plus légers ne peuvent pas fournir.

Pourquoi Opus et pas Sonnet ou Haiku ?

Un workflow N8N de 30+ nœuds implique de :

  • Comprendre l’architecture globale : quels nœuds, dans quel ordre, avec quelles dépendances
  • Maîtriser les détails techniques : le format exact des paramètres de chaque nœud, les différences entre versions d’API
  • Raisonner sur plusieurs étapes : si je modifie le nœud 10, quel impact sur les nœuds 11 à 18 ?
  • Débugger des problèmes subtils : comme le fait qu’un updateNode dans l’API N8N remplace tous les paramètres
En pratique

J’utilise Opus pour la création et le debugging de workflows complexes. Pour des modifications simples (changer un texte, ajuster un paramètre), Sonnet 4.6 suffit amplement et coûte bien moins cher.

03 — L’architecture MCP

4 serveurs MCP pour un pilotage total

Le Model Context Protocol (MCP) est la pièce maîtresse de ce setup. C’est un standard ouvert qui permet à Claude Code de se connecter à des services externes. Pensez-y comme des plugins qui donnent à l’IA des super-pouvoirs spécialisés.

Mon installation repose sur 4 serveurs MCP qui couvrent 100% de mes besoins :

MCP #1 — Le serveur N8N : le bras armé

C’est le serveur le plus important. Il permet à Claude Code d’interagir directement avec mon instance N8N hébergée sur un VPS Hostinger via Docker. Il peut :

  • Lister, créer, modifier, supprimer des workflows — sans jamais ouvrir l’interface web
  • Rechercher des nœuds (search_nodes) — pour trouver le bon nœud parmi les centaines disponibles
  • Inspecter un nœud en détail (get_node) — pour connaître tous ses paramètres, versions et options
  • Valider un workflow (validate_workflow) — vérifier la structure et les connexions avant de déployer
  • Tester l’exécution (n8n_test_workflow) — déclencher un workflow et analyser le résultat
  • Corriger automatiquement (n8n_autofix_workflow) — résoudre les problèmes courants de format

MCP #2 — Context7 : la documentation vivante

Un des plus gros problèmes avec les LLM, c’est la date de coupure des connaissances. Context7 résout ce problème en donnant à Claude un accès en temps réel à la documentation officielle de N8N : plus de 1 500 snippets indexés et consultables, avec un score de fiabilité de 84/100.

MCP #3 — NotebookLM : le RAG maison

Google NotebookLM est utilisé comme une base de connaissances interrogeable par l’IA. Claude le consulte avant chaque décision architecturale importante. J’en détaille le fonctionnement plus bas.

MCP #4 — Hostinger : le contrôle de l’infrastructure

Mon instance N8N tourne dans un container Docker sur un VPS Hostinger. Le MCP Hostinger permet à Claude Code de consulter les logs, redémarrer le container, vérifier l’état du firewall — sans intervention manuelle.

L’orchestration des 4 MCPs

La vraie puissance vient de la combinaison. Voici le flux typique lors de la création d’un workflow :

1. Context7 → Consulte la doc N8N à jour
2. NotebookLM → Vérifie les patterns et conventions du projet
3. N8N MCP → Recherche les nœuds, inspecte leurs paramètres
4. N8N MCP → Crée le workflow, le valide, le teste
5. Hostinger → Si erreur infrastructure, consulte les logs
6. N8N MCP → Corrige et redéploie jusqu’à succès

04 — NotebookLM comme RAG

La mémoire institutionnelle de l’IA

C’est probablement l’aspect le plus original de mon setup. J’utilise Google NotebookLM comme un système RAG (Retrieval-Augmented Generation) pour Claude Code.

Le concept

Un RAG classique nécessite une base vectorielle, un pipeline d’indexation, du chunking… C’est complexe à mettre en place. NotebookLM offre tout ça gratuitement et sans code, avec en bonus le moteur de raisonnement de Gemini pour synthétiser les réponses.

Mon notebook contient : les 5 architectures clés d’agents IA, les configurations LLM pour OpenAI et Anthropic/Bedrock, l’architecture Docker, les expressions avancées N8N, la gestion d’erreurs, et des cas d’usage réels.

Comment Claude l’utilise

Grâce au MCP NotebookLM, Claude peut interroger ce notebook en langage naturel pendant qu’il travaille :

ask_question(
  notebook_id: "n8n-base-de-connaissances-comp",
  question: "Quel pattern d'agent utiliser pour une recherche
             parallèle suivie d'une fusion de résultats ?"
)

Pourquoi pas un RAG classique ?

Critère RAG classique (Pinecone…) NotebookLM via MCP
Setup Complexe (vectorDB, embeddings, chunking) Upload de documents, c’est tout
Coût $$$ (hébergement + embeddings) Gratuit (100 notebooks)
Maintenance Re-indexation, monitoring Zéro
Mise à jour Pipeline de réindexation Ajouter/modifier une source

05 — La documentation comme fondation

CLAUDE.md et la mémoire persistante

Si les MCPs sont les bras de Claude Code, la documentation est son cerveau à long terme. Sans elle, chaque session repart de zéro.

Le fichier CLAUDE.md : les directives de mission

À la racine de mon projet, un fichier CLAUDE.md est automatiquement chargé à chaque session. C’est le « brief permanent » que Claude suit systématiquement :

# Projet N8N - Directives Claude Code

## MCP disponibles
- Description de chaque MCP et de son rôle
- Règles d'utilisation (ex: "Toujours appeler get_node
  avec detail='standard' avant de configurer un nœud")

## Workflow de création d'un flow N8N
1. Consulter Context7 pour la doc N8N à jour
2. Consulter le notebook N8N dans NotebookLM
3. Rechercher les nœuds avec search_nodes
4. Configurer avec get_node (detail='standard')
5. Valider avec validate_workflow
6. Créer/déployer avec n8n_create_workflow

## Langue
Toujours répondre en français.

La mémoire persistante : MEMORY.md

Au-delà du CLAUDE.md, Claude Code dispose d’un répertoire de mémoire qu’il met à jour lui-même. Voici un exemple concret de ce que Claude a retenu de lui-même :

# Problèmes résolus (mars 2026)

### Messages OpenAI vidés par updateNode (CRITIQUE)
- Cause : updateNode REMPLACE tout 'parameters'.
  Mettre juste modelId → wipe les messages
- Fix : Toujours inclure TOUS les paramètres
  dans chaque updateNode

### responses.values vs messages.values (CRITIQUE)
- OpenAI node v2.1 a DEUX modes :
  - Chat Completions API → utilise messages.values
  - Responses API (DÉFAUT v2.1) → utilise responses.values
Clé du système

Ce mécanisme fait que Claude ne commet jamais la même erreur deux fois. Quand il a découvert que l’API updateNode efface tous les paramètres non spécifiés, il l’a documenté. À la session suivante, il savait déjà comment l’éviter.

06 — Confier une mission

De l’instruction au workflow opérationnel

C’est là que la magie opère. Voici comment se passe concrètement une mission « création de workflow » :

Ce que je donne à Claude

Un brief en langage naturel. Pas de JSON, pas de spécification technique :

« Crée un workflow N8N qui automatise ma newsletter The Next Mind Tricks. Il doit chercher les actus IA de la semaine via Perplexity et GPT avec web search, faire une sélection éditoriale, générer le contenu section par section, assembler le tout en Markdown et sauvegarder le fichier. »

Ce que Claude fait (sans intervention)

Phase 1 — Recherche et compréhension Automatique
Lit les fichiers de prompts · Consulte Context7 · Interroge NotebookLM · Analyse les références existantes

Phase 2 — Conception Automatique
Propose un plan d’architecture · Identifie les nœuds via search_nodes · Inspecte via get_node

Phase 3 — Création Automatique
Crée le workflow via l’API N8N · Configure chaque nœud · Valide avec validate_workflow

Phase 4 — Itération Automatique
Teste l’exécution · Analyse les résultats · Modifie les nœuds problématiques · Re-teste jusqu’au succès

07 — L’itération automatique

Tester, corriger, redéployer sans intervention

Claude Code ne s’arrête pas à la première version : il boucle jusqu’à ce que ça marche. Voici des exemples réels de bugs qu’il a détectés et corrigés seul :

Bug #1
Le contenu Tricks dérivait vers du générique
Symptôme
La section « Tricks » ne parlait pas du sujet sélectionné.

Diagnostic
Le nœud Perplexity recevait le texte complet de la sélection au lieu du sujet Tricks spécifique.

Correction
Remplacement de $json.selectionText par $json.tricksSubject, plus ajout d’une instruction de fallback.

Bug #2
Les paramètres OpenAI s’effaçaient à chaque mise à jour
Symptôme
Après modification d’un nœud OpenAI, GPT répondait « Hello! How can I assist you? » — les prompts avaient disparu.

Diagnostic
L’API updateNode de N8N remplace tous les paramètres, pas seulement ceux envoyés.

Correction
Inclusion systématique de tous les paramètres dans chaque appel updateNode. Documenté en mémoire persistante.

Bug #3
La mauvaise API OpenAI utilisée par défaut
Symptôme
Les nœuds OpenAI renvoyaient des réponses vides ou génériques.

Diagnostic
Le nœud OpenAI v2.1 utilise par défaut la Responses API. Les messages étaient configurés en messages.values alors qu’il fallait responses.values.

Correction
Migration vers le bon format de paramètres. Un piège qu’un développeur expérimenté aurait pu mettre des heures à identifier.

08 — Cas réel

Le workflow « TNM Newsletter Automatique » — 31 nœuds

Pour rendre tout ça concret, voici le workflow que Claude a créé et optimisé pour ma newsletter hebdomadaire sur l’IA, « The Next Mind Tricks ».

L’architecture : 7 phases

PHASE 1 — Déclencheur
Chat Trigger → Init Variables

PHASE 2 — Double recherche parallèle 6 nœuds
Perplexity sonar-pro ←→ OpenAI GPT web search · (Actus | Outils | Tendances) × 2 sources

PHASE 3 — Fusion et sélection éditoriale
Merge & Validate → Sélection IA (GPT, reasoning: high)

PHASE 4 — Génération de contenu 5 nœuds
Actus → Outils → Tendances → Recherche Tricks → Rédaction Tricks

PHASE 5 — Assemblage et contrôle qualité
Assemble Markdown → QA automatique (GPT)

PHASE 6 — Sauvegarde fichiers
Export Markdown structuré

PHASE 7 — Notification
Chat + Telegram

Les chiffres

31
Nœuds
3.5min
Durée d’exécution
0
Warning QA à l’exec #62
8
Newsletters produites

09 — Les limites

Ce que j’ai appris

Ce qui ne fonctionne pas (encore) parfaitement

  • Les credentials : Claude ne peut pas configurer les clés API dans N8N pour des raisons de sécurité. Étape manuelle obligatoire.
  • Le debugging visuel : Certains problèmes sont plus faciles à diagnostiquer dans l’interface graphique de N8N.
  • La consommation de tokens : Un workflow complexe avec Opus peut être coûteux. Basculer sur Sonnet pour les tâches simples.
  • La dépendance aux MCPs : Si un serveur est indisponible, Claude perd cette capacité. Pas de fallback automatique.

Les leçons clés

  • Investir dans le CLAUDE.md — C’est le fichier le plus rentable du projet. Chaque minute passée à le rédiger économise des heures.
  • Laisser Claude documenter — La mémoire persistante est un outil puissant. Laissez-le écrire ses propres notes techniques.
  • Commencer simple, itérer — Donnez le brief global et laissez Claude proposer l’architecture.
  • Alimenter le notebook NotebookLM — Plus il contient d’informations pertinentes, meilleurs sont les résultats.
  • Utiliser la validation systématiquementvalidate_workflow avant chaque déploiement, c’est non négociable.

10 — Comment commencer

Le setup minimal

Prérequis

  • Un compte Anthropic avec accès à Claude Code (API ou abonnement Max)
  • Une instance N8N (self-hosted ou cloud)
  • Un compte Google pour NotebookLM (gratuit)

Étape 1 : Installer Claude Code

npm install -g @anthropic-ai/claude-code

Étape 2 : Configurer le MCP N8N

Dans votre fichier de configuration MCP Claude Code, ajoutez le serveur N8N. Vous aurez besoin de l’URL de votre instance et d’une clé API N8N.

Étape 3 : Configurer Context7

Ajoutez le serveur MCP Context7 pour l’accès à la documentation. C’est un service gratuit qui indexe la documentation des bibliothèques open source.

Étape 4 : Créer votre notebook NotebookLM

  1. Allez sur notebooklm.google.com
  2. Créez un nouveau notebook et uploadez vos documents de référence N8N
  3. Partagez-le avec un lien public
  4. Ajoutez-le dans votre configuration MCP NotebookLM

Étape 5 : Créer votre CLAUDE.md

# Mon Projet N8N - Directives Claude Code

## MCP disponibles
[Liste de vos MCPs avec leur rôle]

## Workflow de création
1. Consulter Context7 pour la doc à jour
2. Consulter NotebookLM pour les conventions
3. Rechercher les nœuds avec search_nodes
4. Configurer avec get_node (detail='standard')
5. Valider avec validate_workflow
6. Créer/déployer

## Conventions
[Vos règles spécifiques]

## Langue
[Votre langue préférée]

Étape 6 : Lancez votre première mission

Commencez par quelque chose de simple :

« Crée un workflow N8N avec un webhook trigger qui reçoit un JSON, le transforme avec un nœud Code, et envoie le résultat sur Telegram. »

Observez comment Claude consulte la doc, recherche les nœuds, crée le workflow et le valide. C’est la boucle fondamentale sur laquelle tout le reste se construit.

L’automatisation de l’automatisation

Ce que j’ai construit, c’est en quelque sorte l’automatisation de l’automatisation. Au lieu de passer des heures dans l’interface N8N à glisser-déposer des nœuds, je décris ce que je veux en langage naturel et Claude Code s’occupe du reste.

Les ingrédients clés :

  • Un modèle puissant (Opus 4.6) pour le raisonnement complexe
  • Des MCPs bien choisis pour l’exécution directe
  • NotebookLM comme RAG pour la connaissance métier
  • Une documentation soignée (CLAUDE.md + mémoire) pour la continuité
  • Un cycle d’itération automatique pour la fiabilité

Le résultat ? Un workflow de newsletter de 31 nœuds, créé, testé et optimisé — avec une IA qui apprend de ses erreurs et ne les refait jamais. Pendant que Claude itère, je peux faire autre chose. L’IA travaille, je supervise. C’est un changement de paradigme.