Le LLM Council
Tu poses ta question a un seul LLM, t'as une seule reponse. Elle peut etre top, elle peut etre molle, t'as aucun moyen de le savoir parce que t'as vu qu'un seul angle. Le Council passe ta question dans 5 advisors independants, qui se peer-review en aveugle, puis un chairman synthetise un verdict tranche.
L'idee en deux phrases
Une seule reponse d'IA, c'est une seule perspective — souvent affadie par la moyenne des opinions du modele. Le Council force la divergence : 5 sub-agents avec des styles de pensee opposes attaquent ta question en parallele, sans se voir.
Ensuite, leurs reponses sont anonymisees et croisees : chaque advisor critique les 4 autres sans savoir qui a ecrit quoi. Un chairman lit tout, repere les convergences, les clashs, les angles morts collectifs, et tranche. Tu recois un rapport HTML scannable et un transcript complet pour creuser.
Les 5 advisors
Pas des metiers, pas des personas. Des styles de pensee qui creent des tensions naturelles entre eux.
The Contrarian
Cherche activement ce qui cloche, ce qui manque, ce qui va casser. Part du principe que l'idee a une faille fatale et tente de la trouver. C'est le pote qui te sauve d'un mauvais deal en posant les questions que t'evites.
The First Principles Thinker
Ignore la question de surface et demande "qu'est-ce qu'on essaie vraiment de resoudre la ?". Strip les hypotheses, reconstruit du sol. Parfois sa plus grande valeur c'est de te dire : tu poses la mauvaise question.
The Expansionist
Cherche le potentiel que tout le monde rate. Et si c'etait plus gros ? Quelle opportunite adjacente est cachee ? Qu'est-ce qu'on sous-evalue ? Il s'en fout du risque (c'est le job du Contrarian), il pense au scenario ou ca cartonne mieux que prevu.
The Outsider
Zero contexte sur toi, ton secteur, ton historique. Repond a ce qu'il voit, point. C'est l'advisor le plus sous-cote : les experts developpent des angles morts, l'Outsider attrape la "curse of knowledge" — les trucs evidents pour toi mais opaques pour ton audience.
The Executor
Une seule chose en tete : est-ce que ca peut etre fait, et c'est quoi le chemin le plus court ? Ignore la theorie. Regarde chaque idee a travers "OK mais tu fais quoi lundi matin ?". Si l'idee est brillante mais sans premier pas clair, il le dit.
Le synthetiseur
Lit les 5 reponses + les 5 peer reviews. Produit le verdict final structure : convergences, clashs, angles morts captes par le peer review, recommandation tranchee, et une seule action a faire en premier. Le chairman peut aller contre la majorite si le raisonnement du dissenter est plus fort.
Le tuto en 3 etapes
Installer Claude Code
Si c'est pas deja fait, installe Claude Code via npm :
npm install -g @anthropic-ai/claude-code
claude
Premier lancement : il te demande de te connecter a ton compte Anthropic. Une fois la CLI dispo, tu peux installer des skills — des prompts permanents que Claude declenche automatiquement quand le contexte le justifie.
Installer le skill LLM Council
Cree le fichier ~/.claude/skills/llm-council.md (ou le chemin equivalent
sur Windows : C:\Users\TOI\.claude\skills\llm-council.md). Colle le
contenu integral ci-dessous, sauvegarde, redemarre Claude Code.
---
name: llm-council
description: "Run any question, idea, or decision through a council of 5 AI advisors who independently analyze it, peer-review each other anonymously, and synthesize a final verdict. Based on Karpathy's LLM Council methodology. MANDATORY TRIGGERS: 'council this', 'run the council', 'war room this', 'pressure-test this', 'stress-test this', 'debate this'. STRONG TRIGGERS (use when combined with a real decision or tradeoff): 'should I X or Y', 'which option', 'what would you do', 'is this the right move', 'validate this', 'get multiple perspectives', 'I can't decide', 'I'm torn between'. Do NOT trigger on simple yes/no questions, factual lookups, or casual 'should I' without a meaningful tradeoff. DO trigger when the user presents a genuine decision with stakes, multiple options, and context that suggests they want it pressure-tested from multiple angles."
---
# LLM Council
You ask one AI a question, you get one answer. That answer might be great. It might be mid. You have no way to tell because you only saw one perspective.
The council fixes this. It runs your question through 5 independent advisors, each thinking from a fundamentally different angle. Then they review each other's work. Then a chairman synthesizes everything into a final recommendation that tells you where the advisors agree, where they clash, and what you should actually do.
Adapted from Andrej Karpathy's LLM Council. He dispatches queries to multiple models and has them peer-review each other anonymously, then a chairman produces the final answer. We do the same thing inside Claude using sub-agents with different thinking lenses instead of different models.
## When to run the council
Good council questions: "Should I launch a $97 workshop or a $497 course?", "Which positioning angle is strongest?", "Should I pivot from X to Y?", "Here's my landing page copy — what's weak?", "Should I hire a VA or build automation first?"
Bad council questions: factual lookups, creation tasks, summaries. The council shines when there's genuine uncertainty and the cost of a bad call is high.
## The five advisors
1. The Contrarian — actively looks for what's wrong, missing, will fail. Saves you from bad deals by asking the questions you're avoiding.
2. The First Principles Thinker — ignores the surface question. Asks what we're actually trying to solve. Strips assumptions, rebuilds from ground up.
3. The Expansionist — looks for upside everyone is missing. What could be bigger? What adjacent opportunity is hiding?
4. The Outsider — zero context about you, your field, your history. Catches the curse of knowledge: things obvious to you but confusing to everyone else.
5. The Executor — only cares whether this can be done and what the fastest path is. "OK but what do you do Monday morning?"
## How a council session works
### Step 1: frame the question (with context enrichment)
When the user says "council this" (or any trigger phrase):
A. Scan the workspace for context. Read CLAUDE.md, any memory/ folder, files the user referenced, recent council transcripts. Use Glob and quick Read calls. Don't spend more than 30 seconds — just find the 2-3 files that give advisors enough context to be specific instead of generic.
B. Frame the question. Reframe the user's raw question + enriched context as a clear, neutral prompt that all 5 advisors will receive. Include: the core decision, key context from the message, key context from workspace files (stage, audience, constraints, past results, numbers), what's at stake. Don't add your own opinion. If the question is too vague, ask ONE clarifying question, then proceed. Save the framed question for the transcript.
### Step 2: convene the council (5 sub-agents in parallel)
Spawn all 5 advisors simultaneously. Each gets their advisor identity, the framed question, and a clear instruction: respond independently, don't hedge, don't try to be balanced, lean fully into your assigned perspective. 150-300 words each.
Sub-agent prompt template:
You are [Advisor Name] on an LLM Council.
Your thinking style: [advisor description]
A user has brought this question:
---
[framed question]
---
Respond from your perspective. Be direct and specific. Don't hedge or try to be balanced. Lean fully into your assigned angle. The other advisors will cover the angles you're not. Keep your response between 150-300 words. No preamble.
### Step 3: peer review (5 sub-agents in parallel)
This is the step that makes the council more than "ask 5 times." The core of Karpathy's insight.
Anonymize the 5 responses as A through E (randomize the mapping so no positional bias). Spawn 5 reviewers. Each sees all 5 anonymized responses and answers:
1. Which response is the strongest and why?
2. Which response has the biggest blind spot and what is it?
3. What did ALL responses miss that the council should consider?
Reviewer prompt template:
You are reviewing the outputs of an LLM Council. Five advisors independently answered this question:
---
[framed question]
---
Here are their anonymized responses:
**Response A:** [response]
**Response B:** [response]
**Response C:** [response]
**Response D:** [response]
**Response E:** [response]
Answer these three questions. Be specific. Reference responses by letter.
1. Which response is the strongest? Why?
2. Which response has the biggest blind spot? What is it missing?
3. What did ALL five responses miss that the council should consider?
Keep under 200 words.
### Step 4: chairman synthesis
One agent gets everything: the original question, the 5 advisor responses (de-anonymized), all 5 peer reviews. Produces the final verdict with this exact structure:
## Where the Council Agrees
[Points multiple advisors converged on independently. High-confidence signals.]
## Where the Council Clashes
[Genuine disagreements. Present both sides. Explain why reasonable advisors disagree.]
## Blind Spots the Council Caught
[Things that emerged through peer review. Things individual advisors missed that others flagged.]
## The Recommendation
[A clear, direct recommendation. Not "it depends." A real answer with reasoning.]
## The One Thing to Do First
[A single concrete next step. Not a list. One thing.]
Be direct. Don't hedge.
### Step 5: generate the council report
After the chairman synthesis, generate `council-report-[timestamp].html` — a single self-contained HTML file with inline CSS. Clean design, easy to scan. Contents:
1. The question at the top
2. The chairman's verdict prominently displayed
3. An agreement/disagreement visual showing advisor positions
4. Collapsible sections for each advisor's full response
5. Collapsible section for peer review highlights
6. Footer with timestamp
White background, subtle borders, system font stack, soft accents. Nothing flashy. Open the file after generating.
### Step 6: save the full transcript
Save `council-transcript-[timestamp].md` with: original question, framed question, 5 advisor responses, 5 peer reviews (anonymization mapping revealed), full chairman synthesis. The artifact for future reference.
## Important notes
- Always spawn all 5 advisors in parallel. Sequential spawning wastes time and lets earlier responses bleed into later ones.
- Always anonymize for peer review. If reviewers know who said what, they defer to certain styles instead of evaluating on merit.
- The chairman can disagree with the majority. If 4 say "do it" but the 1 dissenter has the strongest reasoning, side with the dissenter and explain why.
- Don't council trivial questions. If there's one right answer, just answer it.
- The visual report matters. Most users scan it instead of reading the full transcript.
/skills ou
liste tes skills. llm-council doit apparaitre. Sinon, verifie le chemin du
fichier et la syntaxe du frontmatter YAML (3 tirets en haut, 3 en bas, pas
d'espace mal place).
Lancer ta premiere session
Dans Claude Code, balance n'importe lequel de ces phrases :
council this: je dois choisir entre lancer un workshop a 97€
ou un programme complet a 497€. Audience = solopreneurs
non-techniques. Quel est le bon move ?
Claude scanne ton workspace (CLAUDE.md, memory/, fichiers references), enrichit la question, spawn les 5 advisors en parallele, anonymise, fait le peer review, synthetise, et te genere :
council-report-[timestamp].html— rapport visuel scannable, ouvert automatiquement dans ton navigateurcouncil-transcript-[timestamp].md— transcript complet pour creuser chaque advisor en detail
Compte 3 a 6 minutes par session selon la complexite. C'est lent comparé a une seule reponse, mais tu paies pour 5 perspectives + un peer review + une synthese tranchee.
Quand l'utiliser (et quand pas)
Le Council brille quand se tromper coute cher. Sur une question avec une reponse evidente, il va te dire des trucs que tu veux pas entendre. C'est exactement le but, mais sois sur que tu veux du friction.
| Type de question | Council ? | Pourquoi |
|---|---|---|
| "Je lance a 97€ ou 497€ ?" | OUI | Vrai tradeoff, vraies consequences |
| "Je pivote de X vers Y ?" | OUI | Decision strategique a fort impact |
| "Critique ma landing page" | OUI | Outsider + Contrarian destroyent les angles morts |
| "Je hire un VA ou j'automatise ?" | OUI | Tradeoff classique avec des biais perso forts |
| "Capitale de la France ?" | NON | Une seule reponse, zero perspective utile |
| "Ecris-moi un tweet" | NON | Tache de creation, pas de decision |
| "Resume cet article" | NON | Tache de processing, pas de jugement |
| "Je devrais utiliser Markdown ?" | NON | "Should I" mais sans tradeoff reel |
Exemple concret
Question soumise au Council : "Je veux lancer un cours a 297€ sur Claude Code pour debutants. Mon audience = solopreneurs non-techniques. C'est le bon move ?"
Les 5 advisors (extraits)
Contrarian. "Le marche est sature de cours Claude. A 297€, tu concurrences du contenu YouTube gratuit. Audience non-tech = burden support eleve, risque refund. Les gens qui paieraient 297€ sont deja au-dela du niveau debutant..."
First Principles. "Tu cherches quoi vraiment ? Si c'est le revenu, le cours est un des chemins les plus lents. Si c'est l'autorite, une ressource gratuite ferait mieux. Si c'est une base client pour du higher-ticket, le prix et l'audience peuvent etre mismatch..."
Expansionist. "Claude debutants pour solopreneurs = marche massif sous-servi. Tout le monde enseigne le cote avance. Si tu nailles l'angle debutant, tu owns l'entry point de tout cet espace. 297€ c'est peut-etre trop bas. Et si ca devenait un programme a 997€ avec communaute..."
Outsider. "Je sais pas ce que c'est Claude Code. Si je vois 'cours a 297€ sur Claude Code pour debutants', je sais pas si c'est pour moi. Le nom signifie rien pour quelqu'un en dehors de ton monde. Ta landing doit vendre l'outcome, pas l'outil..."
Executor. "Un cours complet prend 4-8 semaines a produire correctement. Avant de construire quoi que ce soit, lance un workshop live a 97€ pour 50 personnes. Tu valides la demande, tu generes des temoignages, tu crees la matiere brute du cours. Si 50 personnes achetent pas le workshop, 500 acheteront pas le cours..."
Verdict du Chairman
Convergence : l'angle "debutants solopreneurs" a une vraie demande, mais le framing actuel ("cours sur Claude Code") est trop tool-specific et resonnera pas avec une audience non-tech.
Clash : le prix. Contrarian dit 297€ trop haut. Expansionist dit trop bas. La resolution depend du niveau de support et de communaute bundle.
Angle mort capte par le peer review : le point de l'Outsider que "Claude Code" signifie rien pour le buyer cible est l'insight le plus important. Tous les autres advisors sauf l'Outsider supposaient que l'audience savait deja ce que c'etait.
Recommandation : ne construis pas le cours encore. Valide avec une offre a faible engagement d'abord. Mais reframe entierement : vends l'outcome (automatise ton biz, recupere 10h/semaine), pas l'outil.
Une chose a faire en premier : lance un workshop live a 97€ intitule "Comment automatiser ta premiere tache business avec l'IA" pour 50 personnes. Ne mentionne pas Claude Code dans le titre.
TL;DR
Recap executif
- 5 advisors avec des styles de pensee opposes attaquent ta question en parallele.
- Peer review anonymise pour eviter les biais de deference.
- Un chairman synthetise : convergences, clashs, angles morts, reco tranchee, action #1.
- Setup en 3 etapes : Claude Code installe, skill copie dans
~/.claude/skills/, trigger avec "council this". - Output : un rapport HTML scannable + un transcript MD complet, par session.
- Pour les decisions ou se tromper coute cher. Pas pour les questions a une seule bonne reponse.