Qu’est-ce que le Chain-of-Thought (CoT) en IA ?

Lexique & définitions

LEXIQUE IA PROMPT LAB

Prompt & ingénierie

Chain-of-Thought : Débloquez le raisonnement complexe des LLM

Définition express

Le Chain-of-Thought (CoT) est une méthode de prompting qui encourage les grands modèles de langage (LLM) à décomposer un problème complexe en étapes de raisonnement intermédiaires avant de donner la réponse finale.

Points clés

  • Améliore drastiquement les performances en mathématiques et logique.
  • S’active souvent avec la phrase magique : ‘Pensons étape par étape’.
  • Permet de comprendre le cheminement logique de l’IA (transparence).

Le point différenciant

Contrairement au prompting standard qui cherche une réponse immédiate (Input -> Output), le CoT force le modèle à ‘montrer son travail’ (Input -> Raisonnement -> Output), réduisant ainsi les erreurs de logique.

En résumé

Imaginez que vous demandez à un élève de résoudre un problème de mathématiques. Si vous lui demandez juste la réponse, il peut deviner au hasard. Si vous lui demandez de ‘détailler ses calculs’, il est obligé de structurer sa pensée, ce qui augmente ses chances de trouver la bonne solution. Le Chain-of-Thought fait exactement cela avec l’IA : il lui demande d’expliciter son cheminement mental avant de conclure.

Pourquoi c’est important ?

Dans un prompt classique (Zero-Shot), le modèle tente de prédire la réponse finale directement à partir de la question, ce qui fonctionne pour les connaissances factuelles mais échoue souvent pour les problèmes nécessitant plusieurs étapes logiques. Le Chain-of-Thought introduit une étape intermédiaire cruciale : la génération d’une séquence de raisonnement. Cette distinction est fondamentale car elle transforme une tâche de ‘récupération d’information’ en une tâche de ‘résolution de problème’.

Détails & Concepts liés


Zero-Shot CoT vs Few-Shot CoT

Il existe deux façons principales d’activer le CoT. Le ‘Zero-Shot CoT’ consiste simplement à ajouter une instruction comme ‘Pensons étape par étape’ à la fin du prompt (découvert par Kojima et al., 2022). Le ‘Few-Shot CoT’ est plus robuste : on fournit au modèle des exemples complets de questions suivies de leur raisonnement détaillé, pour qu’il imite cette structure sur le nouveau problème (Wei et al., 2022).


Pourquoi ça marche ? (La fenêtre contextuelle)

Techniquement, les LLM prédisent le mot suivant. En forçant le modèle à écrire les étapes intermédiaires, on remplit sa fenêtre de contexte avec des informations logiques valides qui servent d’ancrage pour les prédictions suivantes. Le modèle ‘s’aide lui-même’ en générant son propre contexte de support au fur et à mesure.


Vers le Tree-of-Thoughts (ToT)

Le Chain-of-Thought est linéaire. Une évolution plus avancée est le Tree-of-Thoughts, où le modèle explore plusieurs branches de raisonnement possibles, s’auto-évalue, et revient en arrière si une piste ne mène nulle part, simulant une réflexion plus humaine et exploratoire.

Cas d’usage concrets

  • Résolution de problèmes mathématiques à énoncé (word problems).

  • Raisonnement logique complexe et énigmes.

  • Débogage de code informatique (en expliquant pourquoi le code ne fonctionne pas avant de le corriger).

  • Prise de décision stratégique nécessitant l’analyse de plusieurs facteurs.

Méthode & Prompting

À éviter

Prompt : ‘Roger a 5 balles. Il en achète 2 pots de 3. Combien a-t-il de balles ? Donne la réponse.’ (Risque d’hallucination sur le calcul immédiat).

Bon usage

Utiliser l’instruction explicite de décomposition pour les tâches logiques, en demandant de structurer la réponse.

TEMPLATE DE PROMPT
Q: Roger a 5 balles de tennis. Il achète 2 boîtes contenant chacune 3 balles de tennis. Combien a-t-il de balles maintenant ?
A: Pensons étape par étape.
1. Roger commence avec 5 balles.
2. Il achète 2 boîtes de 3 balles, ce qui fait 2 * 3 = 6 nouvelles balles.
3. Total = 5 (départ) + 6 (achat) = 11 balles.
La réponse est 11.

Impact & Rentabilité

⏱️ Gain de tempsRéduction du temps de vérification humaine grâce à l’explicabilité du résultat.
✨ Qualité attendueAugmentation significative du taux de réussite (accuracy) sur les benchmarks logiques (ex: GSM8K).
Impact DécisionnelMeilleure transparence : permet de comprendre pourquoi l’IA a pris une décision, facilitant l’audit.

Limites & Points d’attention

Le CoT augmente la consommation de tokens (et donc le coût et la latence) car la réponse est plus verbeuse. De plus, le modèle peut parfois avoir un raisonnement correct mais une conclusion fausse (ou l’inverse), ou encore halluciner des étapes logiques qui semblent cohérentes mais sont factuellement fausses.

L’essentiel à retenir

  • Le CoT transforme la réponse réflexe de l’IA en une réflexion structurée.
  • Indispensable pour les mathématiques, la logique et le code.
  • La phrase ‘Let’s think step by step’ est un hack simple mais puissant.
  • Augmente la précision mais aussi la longueur et le coût des réponses.

Questions Fréquentes

Le Chain-of-Thought est-il nécessaire pour GPT-4 ?+
Pour des tâches simples, non. GPT-4 a de meilleures capacités de raisonnement intrinsèques que ses prédécesseurs. Cependant, pour des problèmes très complexes, le forcer à utiliser le CoT reste une bonne pratique pour maximiser la fiabilité.
Peut-on utiliser le CoT pour de la rédaction créative ?+
C’est moins pertinent. Le CoT brille dans les tâches logiques et déterministes. Pour la créativité, on préférera des prompts axés sur le style, le ton et l’imagination sans imposer une structure rigide étape par étape.
Est-ce que cela coûte plus cher ?+
Oui, car les modèles sont facturés au token (mot/morceau de mot). Comme le CoT génère plus de texte pour expliquer le raisonnement, la réponse finale consomme plus de crédits.
Comment faire si le modèle refuse de penser étape par étape ?+
C’est rare, mais vous pouvez utiliser le ‘Few-Shot CoT’ en lui donnant un exemple concret de ce que vous attendez : ‘Voici un exemple de la réflexion que je veux : [Question Exemple] -> [Raisonnement] -> [Réponse]. À toi maintenant : [Votre Question]’.

PROMPT-LAB.FR

Comprendre • Prompter • Accélérer

Sommaire

Découvre comment l’IA peut te faire gagner 1h par jour (sans devenir expert)

Les articles similaires

C’est quoi Perplexity AI ?

C’est quoi un prompt contradictoire ?

C’est quoi HeyGen ?

L’IA peut-elle vraiment dicter nos choix ?

passe en premium pour débloquer
tous les prompts marketing