LEXIQUE IA PROMPT LAB
Chain-of-Thought : Débloquez le raisonnement complexe des LLM
Définition express
Le Chain-of-Thought (CoT) est une méthode de prompting qui encourage les grands modèles de langage (LLM) à décomposer un problème complexe en étapes de raisonnement intermédiaires avant de donner la réponse finale.
Points clés
- Améliore drastiquement les performances en mathématiques et logique.
- S’active souvent avec la phrase magique : ‘Pensons étape par étape’.
- Permet de comprendre le cheminement logique de l’IA (transparence).
Le point différenciant
Contrairement au prompting standard qui cherche une réponse immédiate (Input -> Output), le CoT force le modèle à ‘montrer son travail’ (Input -> Raisonnement -> Output), réduisant ainsi les erreurs de logique.
En résumé
Imaginez que vous demandez à un élève de résoudre un problème de mathématiques. Si vous lui demandez juste la réponse, il peut deviner au hasard. Si vous lui demandez de ‘détailler ses calculs’, il est obligé de structurer sa pensée, ce qui augmente ses chances de trouver la bonne solution. Le Chain-of-Thought fait exactement cela avec l’IA : il lui demande d’expliciter son cheminement mental avant de conclure.
Pourquoi c’est important ?
Dans un prompt classique (Zero-Shot), le modèle tente de prédire la réponse finale directement à partir de la question, ce qui fonctionne pour les connaissances factuelles mais échoue souvent pour les problèmes nécessitant plusieurs étapes logiques. Le Chain-of-Thought introduit une étape intermédiaire cruciale : la génération d’une séquence de raisonnement. Cette distinction est fondamentale car elle transforme une tâche de ‘récupération d’information’ en une tâche de ‘résolution de problème’.
Détails & Concepts liés
Zero-Shot CoT vs Few-Shot CoT
Il existe deux façons principales d’activer le CoT. Le ‘Zero-Shot CoT’ consiste simplement à ajouter une instruction comme ‘Pensons étape par étape’ à la fin du prompt (découvert par Kojima et al., 2022). Le ‘Few-Shot CoT’ est plus robuste : on fournit au modèle des exemples complets de questions suivies de leur raisonnement détaillé, pour qu’il imite cette structure sur le nouveau problème (Wei et al., 2022).
Pourquoi ça marche ? (La fenêtre contextuelle)
Techniquement, les LLM prédisent le mot suivant. En forçant le modèle à écrire les étapes intermédiaires, on remplit sa fenêtre de contexte avec des informations logiques valides qui servent d’ancrage pour les prédictions suivantes. Le modèle ‘s’aide lui-même’ en générant son propre contexte de support au fur et à mesure.
Vers le Tree-of-Thoughts (ToT)
Le Chain-of-Thought est linéaire. Une évolution plus avancée est le Tree-of-Thoughts, où le modèle explore plusieurs branches de raisonnement possibles, s’auto-évalue, et revient en arrière si une piste ne mène nulle part, simulant une réflexion plus humaine et exploratoire.
Cas d’usage concrets
- ✓
Résolution de problèmes mathématiques à énoncé (word problems).
- ✓
Raisonnement logique complexe et énigmes.
- ✓
Débogage de code informatique (en expliquant pourquoi le code ne fonctionne pas avant de le corriger).
- ✓
Prise de décision stratégique nécessitant l’analyse de plusieurs facteurs.
Méthode & Prompting
À éviter
Prompt : ‘Roger a 5 balles. Il en achète 2 pots de 3. Combien a-t-il de balles ? Donne la réponse.’ (Risque d’hallucination sur le calcul immédiat).
Bon usage
Utiliser l’instruction explicite de décomposition pour les tâches logiques, en demandant de structurer la réponse.
Impact & Rentabilité
Limites & Points d’attention
Le CoT augmente la consommation de tokens (et donc le coût et la latence) car la réponse est plus verbeuse. De plus, le modèle peut parfois avoir un raisonnement correct mais une conclusion fausse (ou l’inverse), ou encore halluciner des étapes logiques qui semblent cohérentes mais sont factuellement fausses.
L’essentiel à retenir
- Le CoT transforme la réponse réflexe de l’IA en une réflexion structurée.
- Indispensable pour les mathématiques, la logique et le code.
- La phrase ‘Let’s think step by step’ est un hack simple mais puissant.
- Augmente la précision mais aussi la longueur et le coût des réponses.
Questions Fréquentes
PROMPT-LAB.FR
Comprendre • Prompter • Accélérer