Vous avez désormais les fondations solides d’un prompt engineer compétent. Vous savez structurer une instruction, enrichir un contexte, spécifier un format, guider avec des exemples, activer des rôles et forcer le raisonnement étape par étape. Ces compétences vous permettent déjà d’obtenir des résultats très supérieurs à la moyenne.
Dans ce module, vous franchissez un nouveau palier. Vous allez découvrir cinq techniques avancées conçues pour les situations où les approches standard atteignent leurs limites — les problèmes complexes qui n’ont pas une seule bonne réponse, les tâches trop longues pour tenir dans un seul prompt, les formats si spécifiques que même le few-shot ne suffit pas, et les situations où vous avez besoin que l’IA améliore l’IA elle-même.
Vous allez apprendre le Tree-of-Thought, qui explore plusieurs chemins de raisonnement en parallèle pour les problèmes stratégiques et créatifs. Le Meta-Prompting, qui utilise le modèle pour construire de meilleurs prompts que les vôtres. Le Prompt Chaining, qui décompose les tâches complexes en étapes maîtrisables enchaînées. Les délimiteurs et la structuration XML, qui donnent au modèle une carte précise de votre prompt lorsque sa complexité augmente. Et enfin le contrôle de la température, qui vous permet de régler finement le curseur entre précision et créativité.
À la fin de ce module, vous avez les outils pour aborder des problèmes d’une complexité que la plupart des utilisateurs considèrent comme hors de portée de l’IA.
Le Chain-of-Thought que vous avez appris au module précédent est remarquablement efficace pour les problèmes qui ont un chemin de résolution unique et bien défini. Un calcul à plusieurs étapes, une inférence logique, une analyse structurée — autant de situations où raisonner étape par étape en ligne droite mène naturellement à la bonne conclusion.
Mais tous les problèmes n’ont pas cette structure. Certains problèmes — les plus intéressants, souvent — sont ceux pour lesquels plusieurs approches sont légitimes, plusieurs perspectives sont valides, plusieurs solutions sont défendables. Des problèmes stratégiques, créatifs, organisationnels, éthiques. Des situations où la bonne réponse n’est pas au bout d’un chemin unique, mais quelque part dans l’espace entre plusieurs chemins explorés simultanément.
Pour ces problèmes, le Chain-of-Thought a une limite fondamentale : il engage le modèle sur un seul chemin dès le départ, sans jamais explorer les alternatives. Si ce premier chemin est le mauvais, le modèle y reste enfermé jusqu’à la conclusion. Le Tree-of-Thought résout ce problème.
L’image la plus parlante pour comprendre le Tree-of-Thought est celle d’un joueur d’échecs expert. Avant de jouer un coup, il ne suit pas un seul fil de raisonnement — il explore mentalement plusieurs branches possibles, évalue les conséquences de chacune, et choisit ensuite la meilleure. Ce n’est pas de l’hésitation, c’est de la profondeur.
Le Tree-of-Thought applique exactement cette logique aux LLM. Plutôt que de demander au modèle de suivre un raisonnement unique, vous lui demandez d’explorer plusieurs branches en parallèle avant de converger vers une synthèse. Chaque branche représente une perspective différente, un angle d’approche différent, ou une hypothèse différente sur la nature du problème.
La forme la plus naturelle et la plus puissante de cette technique consiste à mobiliser plusieurs experts fictifs. Vous demandez au modèle d’incarner successivement deux, trois ou quatre experts avec des formations et des perspectives très différentes, de les faire chacun analyser le problème depuis leur angle, puis de les faire converger vers une synthèse collective. Le résultat est une réponse bien plus riche, nuancée et robuste qu’un raisonnement monoperspectif.
Le Tree-of-Thought est particulièrement adapté à cinq types de situations.
Les décisions stratégiques complexes où plusieurs parties prenantes ont des intérêts légitimes différents — lancer un nouveau produit, restructurer une organisation, choisir entre plusieurs orientations technologiques. La délibération multi-experts permet de ne négliger aucune dimension critique.
Les problèmes créatifs qui bénéficient d’une exploration large avant la convergence — concevoir une campagne de communication, trouver le positionnement d’une marque, imaginer de nouveaux usages pour un produit existant. L’exploration parallèle évite de s’arrêter trop tôt sur la première bonne idée.
Les analyses de risque où différents types de risques doivent être identifiés et évalués simultanément — risques financiers, opérationnels, juridiques, réputationnels. Chaque expert voit les risques depuis son prisme et l’ensemble couvre le spectre.
Les questions éthiques ou de politique publique où des valeurs légitimes mais contradictoires entrent en tension. La délibération multi-perspectives permet de rendre visible la complexité sans la nier.
Les plans d’action complexes où les implications d’une décision se propagent dans plusieurs domaines simultanément — financier, humain, technique, commercial. Chaque expert suit les implications dans son domaine et le croisement révèle les interdépendances.
Voici comment formuler un prompt Tree-of-Thought pour une décision stratégique. La structure est simple et adaptable à n’importe quelle situation.
“Trois experts analysent la question suivante depuis leurs perspectives respectives, en développant leur raisonnement, puis débattent et aboutissent à une synthèse commune.
Expert 1, directeur financier : il analyse les implications en termes de coûts, de flux de trésorerie, de retour sur investissement et de risque financier.
Expert 2, directeur des ressources humaines : il examine l’impact sur les équipes, les compétences nécessaires, la conduite du changement et les risques sociaux.
Expert 3, directeur technique : il évalue la faisabilité technique, les délais réalistes, les contraintes d’infrastructure et les risques opérationnels.
Après leurs analyses individuelles, les trois experts identifient les points de convergence, arbitrent les tensions, et formulent ensemble une recommandation finale avec un plan d’action priorisé.
Question soumise aux experts : [votre situation].”
Cette structure produit des réponses d’une richesse analytique que vous n’obtiendriez pas avec dix reformulations d’un prompt standard.
Voici une idée que beaucoup trouvent déconcertante la première fois qu’ils la rencontrent. Si vous ne savez pas exactement comment formuler votre prompt pour obtenir le meilleur résultat possible, vous pouvez demander au modèle de le faire à votre place.
Ce n’est pas de la paresse. C’est une stratégie intelligente qui repose sur un fait simple : les LLM ont été entraînés sur d’immenses volumes de textes incluant des discussions sur les bonnes pratiques de prompting, des exemples de prompts efficaces, des analyses comparatives, des tutoriels, des papiers de recherche. Ils ont développé une compréhension implicite de ce qui fonctionne et de ce qui ne fonctionne pas. Le Meta-Prompting exploite directement cette compétence.
Le Meta-Prompting fonctionne en deux temps. Dans un premier prompt, vous décrivez en langage naturel votre objectif — ce que vous voulez accomplir, pour qui, dans quel contexte, avec quelles contraintes. Et vous demandez explicitement au modèle de construire le prompt optimal pour atteindre cet objectif. Dans un second temps, vous utilisez ce prompt généré comme point de départ, en l’affinant si nécessaire selon vos besoins spécifiques.
Le résultat est presque toujours supérieur à ce que vous auriez écrit vous-même, surtout pour des tâches inhabituelles ou complexes où vous n’avez pas encore d’expérience en prompting. Le modèle va naturellement inclure les éléments que vous avez omis — un rôle pertinent, des contraintes de format, des instructions anti-hallucination, des exemples guidants — parce qu’il sait que ces éléments améliorent les résultats.
Le Meta-Prompting est particulièrement utile dans trois situations.
Quand vous faites face à une tâche nouvelle pour laquelle vous n’avez pas encore de prompt éprouvé dans votre bibliothèque. Plutôt que de partir de zéro, vous décrivez vos besoins et laissez le modèle construire le cadre de base que vous affinerez ensuite.
Quand vous avez un prompt qui produit des résultats décevants mais que vous ne savez pas exactement pourquoi ni comment l’améliorer. Vous pouvez soumettre votre prompt au modèle et lui demander de l’analyser, d’identifier ses faiblesses et de proposer une version améliorée. C’est une forme de revue de code, appliquée au langage.
Quand vous avez besoin de créer un système de prompts réutilisables pour une organisation — un ensemble de templates pour différentes tâches récurrentes. Le Meta-Prompting permet de générer rapidement une première version de chaque template, que vous validez et affinez ensuite avec votre connaissance du contexte.
Voici à quoi ressemble un Meta-Prompt bien construit.
“Tu es un expert en prompt engineering avec une connaissance approfondie des meilleures pratiques pour les LLM modernes.
J’ai besoin que tu construises un prompt très efficace pour la tâche suivante : analyser des rapports financiers annuels d’entreprises cotées et produire pour chaque rapport une synthèse stratégique destinée à des investisseurs particuliers non-spécialistes.
Ce prompt doit guider le modèle à identifier systématiquement les indicateurs clés de performance les plus significatifs, à contextualiser les chiffres par rapport au secteur et à l’historique de l’entreprise, à identifier les signaux d’alerte et les points de vigilance, à produire une conclusion claire sur les perspectives à moyen terme, et à calibrer son langage pour des lecteurs intelligents mais sans formation financière avancée.
Génère ce prompt optimisé. Ensuite, pour chaque choix de formulation important, explique brièvement pourquoi tu l’as fait.”
Cette dernière instruction — “explique pourquoi tu l’as fait” — est précieuse. Elle vous permet de comprendre la logique derrière le prompt généré, ce qui vous aide à l’affiner intelligemment plutôt qu’à l’utiliser comme une boîte noire.
Aussi bien conçu soit-il, un prompt unique a des limites structurelles. La première est cognitive : demander à un modèle de faire trop de choses simultanément dilue son attention et dégrade la qualité de chaque composante. La deuxième est liée à la fenêtre de contexte : au-delà d’une certaine longueur, les informations situées au début du prompt commencent à peser moins lourd dans la génération, ce qui peut produire des incohérences dans les réponses longues. La troisième est pratique : un prompt tout-en-un ne permet pas de contrôler la qualité de chaque étape intermédiaire — si une étape échoue, tout le résultat final est compromis sans que vous puissiez facilement identifier où le problème s’est produit.
Le Prompt Chaining répond à ces trois limites en adoptant une approche radicalement différente. Plutôt que de demander tout en une seule fois, vous décomposez la tâche en une séquence de sous-prompts, chacun ciblé sur une responsabilité unique et bien définie. La sortie de chaque prompt devient l’entrée du suivant. Vous contrôlez et validez chaque maillon avant de passer au suivant.
L’analogie la plus claire est celle du pipeline industriel. Dans une usine, un produit complexe n’est jamais fabriqué en une seule opération. Il passe par une séquence d’étapes spécialisées — chacune réalisée par un outil ou un opérateur dédié, chacune vérifiée avant de passer à la suivante. Le Prompt Chaining applique cette logique à la production d’information.
Chaque maillon de la chaîne a une responsabilité unique et clairement délimitée. Il reçoit un input précis, réalise une seule transformation bien définie, et produit un output qui servira d’input au maillon suivant. Cette spécialisation est ce qui permet d’obtenir une qualité élevée sur chaque dimension, là où un prompt unique aurait produit quelque chose de correct mais superficiel sur chacune.
Construire une chaîne de prompts efficace commence par une décomposition rigoureuse de la tâche globale. Avant d’écrire le moindre prompt, posez-vous ces questions : Quelles sont les grandes étapes logiques pour aller de mon point de départ à mon résultat final ? Dans quel ordre ces étapes doivent-elles se succéder ? Quelle est la dépendance entre elles — quelles informations produites à l’étape N sont nécessaires à l’étape N+1 ? Où sont les points de contrôle où je dois vérifier la qualité avant de continuer ?
Une fois la décomposition faite, chaque étape devient un prompt autonome, optimisé pour sa fonction spécifique. Le premier prompt d’une chaîne est souvent le plus large — il produit la matière brute. Les prompts suivants affinent, sélectionnent, transforment, restructurent, jusqu’à ce que le dernier maillon produise le livrable final.
Voici un exemple concret pour illustrer comment une chaîne de quatre prompts peut produire un livrable de haute qualité qu’un prompt unique n’aurait pas pu approcher.
Objectif : produire un article de blog expert sur un sujet donné, optimisé pour un public professionnel et structuré pour maximiser l’engagement.
Prompt 1 — Exploration et matière première. “Tu es un expert en [domaine]. Génère une liste exhaustive des dix angles les plus pertinents et les moins couverts pour traiter le sujet [X] dans un contexte professionnel en 2024. Pour chaque angle, décris en deux phrases pourquoi il est pertinent et quelle valeur unique il apporterait au lecteur.”
Vous évaluez les dix angles et choisissez celui qui correspond le mieux à votre audience et à vos objectifs.
Prompt 2 — Architecture du contenu. “En t’appuyant sur l’angle suivant : [angle choisi à l’étape 1], construis un plan détaillé pour un article de blog professionnel de 1200 mots. Le plan doit inclure : un titre accrocheur, une introduction qui pose le problème, quatre à cinq sections avec leurs sous-points clés, et une conclusion avec un appel à l’action. Pour chaque section, précise l’argument principal et les deux ou trois points qui le soutiennent.”
Vous vérifiez la structure, réorganisez si nécessaire, puis passez à l’étape suivante.
Prompt 3 — Rédaction. “En suivant exactement ce plan [plan de l’étape 2], rédige l’article complet. Ton : expert mais accessible, sans jargon inutile. Style : phrases directes, exemples concrets, transitions fluides entre les sections. L’introduction doit accrocher en posant une question ou en annonçant une statistique surprenante. Chaque section doit commencer par son argument principal avant de le développer.”
Vous relisez l’article, notez ce qui doit être ajusté.
Prompt 4 — Optimisation et finalisation. “Voici un article [article de l’étape 3]. Réalise les améliorations suivantes : renforce l’accroche de l’introduction, remplace les trois formulations les plus génériques par des formulations plus spécifiques et mémorables, vérifie que chaque section tient sa promesse annoncée dans le titre, et propose trois variantes de titre A/B testables.”
Le résultat de cette chaîne est un article d’une qualité et d’une cohérence qu’un prompt unique — même très bien construit — n’aurait pas pu produire. Et à chaque étape, vous avez eu la possibilité d’orienter, corriger, choisir. Vous n’avez pas juste accepté ce que le modèle a produit — vous avez collaboré avec lui.
Les techniques que vous avez apprises jusqu’ici produisent naturellement des prompts de plus en plus riches — un rôle, un contexte détaillé, des exemples, des instructions pour le format, des contraintes spécifiques, parfois du texte à analyser ou des données à traiter. Tout cela est excellent. Mais à mesure que votre prompt gagne en richesse, il gagne aussi en complexité — et cette complexité peut devenir une source de confusion pour le modèle.
Imaginez un prompt qui contient votre rôle, le contexte de la situation, un texte à analyser, des instructions de traitement, des contraintes de format, et quelques exemples. Sans organisation visuelle, tout cela forme un bloc de texte dense dans lequel le modèle doit deviner où finit le contexte et où commencent les instructions, où finissent les exemples et où commence le cas à traiter. Ces zones d’ambiguïté sont des sources d’erreurs silencieuses — des situations où le modèle traite une partie du contenu comme s’il appartenait à la mauvaise catégorie.
Les délimiteurs sont la solution. Ce sont des marqueurs visuels et sémantiques qui découpent votre prompt en sections clairement identifiées, chacune avec un rôle précis. Ils donnent au modèle une carte de votre prompt plutôt qu’un territoire à explorer à l’aveugle.
Il existe plusieurs conventions de délimitation, chacune avec ses avantages.
Les balises XML — du style <contexte>, <tâche>, <exemples>, <texte_à_analyser> — sont particulièrement efficaces avec les modèles modernes, qui ont été entraînés sur d’importants volumes de XML structuré et reconnaissent naturellement ces patterns. Elles ont l’avantage d’être explicitement nommées, ce qui signifie que le modèle sait non seulement où une section commence et où elle finit, mais aussi ce qu’elle contient.
Les triples backticks — ``` — sont la convention standard pour délimiter des blocs de code ou de données. Ils signalent au modèle que le contenu délimité doit être traité comme un objet à manipuler plutôt que comme une instruction à suivre.
Les en-têtes en majuscules — CONTEXTE :, TÂCHE :, FORMAT DE SORTIE : — sont une alternative plus légère pour les prompts de complexité moyenne. Ils organisent sans la verbosité des balises XML complètes.
Les lignes de séparation — --- ou === — peuvent délimiter de grandes sections dans des prompts très longs, en signalant une rupture thématique majeure.
Voici un exemple de prompt bien structuré qui combine plusieurs des techniques du cours dans une architecture claire et lisible.
<rôle>
Tu es un consultant senior en transformation digitale, avec quinze
ans d'expérience en accompagnement de PME industrielles. Tu combines
une vision stratégique à long terme avec une forte sensibilité
aux réalités opérationnelles du terrain.
</rôle>
<contexte>
L'entreprise cliente est une PME familiale de 45 salariés dans
le secteur de la mécanique de précision. Son dirigeant, ingénieur
de formation, est convaincu de la nécessité de se digitaliser
mais ne sait pas par où commencer. Budget disponible : 80 000€.
Délai souhaité : résultats tangibles en moins de 12 mois.
Contrainte principale : l'équipe est peu à l'aise avec les outils
numériques avancés.
</contexte>
<texte_à_analyser>
[Ici, le compte-rendu de diagnostic de l'entreprise]
</texte_à_analyser>
<tâche>
Raisonne étape par étape. Identifie d'abord les trois opportunités
de digitalisation les plus accessibles et à fort impact pour cette
entreprise. Pour chacune, évalue l'effort d'implémentation, le
retour attendu, et les risques principaux. Propose ensuite une
feuille de route sur 12 mois avec les jalons clés.
</tâche>
<format_de_sortie>
Rapport structuré avec :
- Une section par opportunité (titre + analyse en prose + tableau
effort/impact/risque)
- Une feuille de route visuelle sous forme de tableau chronologique
- Une conclusion de deux paragraphes maximum pour le dirigeant
</format_de_sortie>
Cette structure est immédiatement lisible pour vous — et parfaitement intelligible pour le modèle. Chaque section a un périmètre clair. Il n’y a aucune ambiguïté sur ce qui est du contexte, ce qui est une instruction, ce qui est du contenu à analyser, et ce que vous attendez en sortie.
Quand vous utilisez un LLM via une API, vous avez accès à un paramètre appelé température qui contrôle le comportement statistique du modèle lors de la génération de chaque token. C’est l’un des paramètres les plus puissants et les plus mal compris.
Pour comprendre ce qu’il fait, revenons au mécanisme fondamental des LLM. À chaque étape de la génération, le modèle calcule une distribution de probabilité sur l’ensemble de son vocabulaire — chaque mot possible se voit attribuer une probabilité d’être le prochain token. Sans température, le modèle choisit simplement le token le plus probable. Ce comportement est parfaitement déterministe et parfaitement prévisible, mais aussi parfaitement répétitif et sans surprise.
La température modifie cette distribution de probabilité avant que le choix ne soit fait. Une température basse — proche de zéro — compresse la distribution, concentrant toute la probabilité sur les quelques tokens les plus probables. Le comportement devient très déterministe : à chaque génération du même prompt, vous obtenez la même réponse ou une réponse très proche. Une température élevée — au-delà de 0.7 ou 0.8 — aplatit la distribution, donnant une chance significative à des tokens moins probables. Le comportement devient plus aléatoire, plus varié, plus surprenant — et aussi potentiellement moins cohérent sur les faits.
Température 0.0 à 0.2 — Le domaine du déterminisme. C’est la zone des tâches factuelles, des classifications, des extractions de données structurées, de la traduction précise, de la vérification de code. Vous voulez la réponse juste, reproductible, sans variation. La créativité serait une nuisance dans ces contextes. Utilisez cette plage quand la précision prime absolument sur toute autre considération.
Température 0.3 à 0.5 — L’équilibre travaillé. C’est la zone de la rédaction professionnelle structurée — rapports, analyses, synthèses, documentation technique. Vous voulez une réponse cohérente et précise, mais qui autorise un peu de variété dans les formulations pour éviter la rigidité mécanique. La plupart des tâches professionnelles quotidiennes tombent dans cette plage.
Température 0.6 à 0.8 — La créativité maîtrisée. C’est la zone du brainstorming guidé, du copywriting, de la génération d’idées, de la rédaction de contenu engageant. Vous voulez de la variété et de la fraîcheur dans les formulations, sans perdre la cohérence et la pertinence de fond. C’est aussi la plage idéale pour générer plusieurs variantes d’un même contenu — titres, slogans, accroches — parmi lesquelles vous choisissez ensuite.
Température 0.9 à 1.2 — La créativité libérée. C’est la zone de l’écriture créative pure, de la génération de concepts inattendus, de l’exploration d’idées hors des sentiers battus. Vous acceptez des réponses qui sortent des patterns les plus probables, parce que c’est précisément là que se trouvent les idées originales. En contrepartie, vous acceptez aussi plus d’incohérences potentielles et une moins grande fiabilité factuelle. C’est une zone à utiliser consciemment, pour des tâches où la surprise est un atout.
La température ne fonctionne pas de façon isolée. Elle interagit avec tous les autres éléments de votre prompt. Un Chain-of-Thought avec une température élevée produit un raisonnement créatif mais moins rigoureux. Un prompt de classification avec une température élevée produit des résultats erratiques. Un prompt de génération créative avec une température à zéro produit un texte fonctionnel mais prévisible.
La règle pratique : faites votre choix de température en fonction de la nature de la tâche, pas de l’envie d’expérimenter. Pour toute tâche où la précision et la reproductibilité sont importantes, restez bas. Pour toute tâche où la variété et l’originalité sont des atouts, montez. Et pour les tâches hybrides — une analyse créative, un rapport qui doit être lisible — testez dans la zone intermédiaire jusqu’à trouver le bon équilibre.
Vous disposez maintenant de l’arsenal complet d’un prompt engineer avancé. Le Tree-of-Thought pour les problèmes qui méritent d’être vus depuis plusieurs angles. Le Meta-Prompting pour laisser l’IA vous aider à mieux lui parler. Le Prompt Chaining pour décomposer les grandes tâches sans en perdre la qualité. Les délimiteurs pour organiser vos prompts complexes avec clarté. Et le contrôle de la température pour doser précisément le curseur entre fiabilité et créativité.
Ces cinq techniques ne sont pas indépendantes. Un workflow professionnel complet combine souvent plusieurs d’entre elles — une chaîne de prompts structurés en XML, dont chaque maillon utilise un rôle précis, un Chain-of-Thought là où le raisonnement est critique, et une température calibrée selon la nature de l’étape. C’est cette orchestration qui produit des résultats vraiment exceptionnels.
Avant d’aller plus loin, il reste un module essentiel — peut-être le plus immédiatement utile de tous. Parce que connaître les bonnes techniques ne suffit pas si vous continuez à commettre les erreurs qui les sabotent silencieusement. Le module 5 vous révèle exactement lesquelles, pourquoi elles se produisent, et comment les éliminer une fois pour toutes.