Curriculum
Cours: Prompt Engineering
Connexion
Text lesson

Module 05 — Erreurs fréquentes et comment les éviter

Module 05 — Erreurs fréquentes et comment les éviter


Ce que vous allez apprendre

Vous avez maintenant entre les mains un arsenal technique impressionnant. Mais il existe une catégorie de problèmes que les techniques seules ne résolvent pas — les erreurs silencieuses, celles qui dégradent vos résultats sans que vous compreniez exactement pourquoi. Vous reformulez, vous relancez, vous obtenez quelque chose de légèrement mieux, mais jamais tout à fait ce que vous vouliez. Et vous attribuez le problème au modèle.

Ce module change cette dynamique. Vous allez apprendre à reconnaître et corriger les six erreurs les plus fréquentes en prompt engineering — pas comme une liste de règles à mémoriser, mais en comprenant précisément pourquoi chacune produit les problèmes qu’elle produit. Cette compréhension est ce qui vous permettra de les détecter dans vos propres prompts, même sous des formes que vous n’avez pas encore rencontrées.

Vous allez voir que la plupart de ces erreurs ne sont pas des fautes de débutants. Elles touchent également des utilisateurs expérimentés, précisément parce qu’elles sont contre-intuitives — elles semblent correctes de l’extérieur, et leurs effets ne se voient que dans la qualité décevante de la réponse obtenue.


Erreur 1 — L’ambiguïté non résolue : supposer que le modèle comprend ce que vous sous-entendez

Le gouffre entre ce que vous pensez et ce que vous écrivez

Il existe dans toute communication humaine un mécanisme d’inférence contextuelle. Quand vous dites à un collègue “fais-moi un résumé court de ce rapport”, il comprend implicitement ce que “court” signifie dans votre contexte professionnel commun — parce qu’il connaît vos habitudes de travail, la nature de vos réunions, le niveau de détail habituel de vos échanges. Il comble les vides avec du contexte partagé.

Le modèle de langage n’a pas ce contexte partagé. Il a des données d’entraînement, et dans ces données, “court” peut signifier trois phrases pour un résumé exécutif, deux pages pour une note de synthèse, ou un paragraphe pour un email. Face à cette ambiguïté, le modèle choisit l’interprétation statistiquement la plus probable dans son corpus — et cette interprétation ne correspond presque jamais exactement à ce que vous aviez en tête.

C’est le gouffre de l’ambiguïté. Il s’ouvre entre ce que vous pensez avoir dit et ce que vous avez effectivement écrit. Et plus vous êtes familier avec un sujet, plus ce gouffre est large — parce que vos implicites sont plus nombreux et plus profonds.

Les formes les plus fréquentes d’ambiguïté

Les adjectifs relatifs non quantifiés sont la forme la plus courante. “Court”, “long”, “détaillé”, “simple”, “complet”, “professionnel”, “accessible” — tous ces termes ont une signification qui dépend entièrement du contexte dans lequel ils sont utilisés. Quand vous les employez sans ancrage quantitatif ou comparatif, vous laissez le modèle décider seul de leur signification.

La correction est systématique : remplacez chaque adjectif relatif par sa définition opérationnelle. “Court” devient “en trois phrases maximum”. “Détaillé” devient “avec un exemple concret pour chaque point”. “Simple” devient “compréhensible par quelqu’un sans formation technique”. “Complet” devient “couvrant les dimensions financière, opérationnelle et humaine”.

Les verbes à double sens créent une ambiguïté sur la nature même de la tâche. “Améliore ce texte” peut signifier corriger les fautes, restructurer les arguments, enrichir le vocabulaire, alléger le style, ou les quatre simultanément. “Analyse cette situation” peut appeler une description factuelle, une identification des causes, une évaluation des risques, ou une recommandation d’action.

La correction est de désagréger. “Améliore ce texte” devient “corrige les fautes grammaticales, remplace les répétitions par des synonymes précis, et raccourcis les phrases de plus de vingt-cinq mots”. “Analyse cette situation” devient “identifie les trois causes principales et propose pour chacune une mesure corrective concrète”.

L’angle non précisé est une ambiguïté plus subtile mais très impactante. Quand vous demandez “que penses-tu de cette stratégie ?”, le modèle doit choisir un angle parmi des dizaines possibles — financier, organisationnel, concurrentiel, temporel, éthique. Il va en choisir un ou plusieurs selon ses propres heuristiques, qui ne sont pas nécessairement celles qui vous auraient été le plus utiles.

La correction est de préciser l’angle explicitement. “Évalue cette stratégie depuis un angle financier uniquement, en te concentrant sur la rentabilité à dix-huit mois.”

Le test de l’interprétation alternative

Voici un exercice simple pour détecter l’ambiguïté dans vos prompts avant de les envoyer. Lisez votre prompt et demandez-vous : est-ce qu’une personne intelligente, mais sans aucune connaissance de mon contexte, pourrait interpréter cette demande différemment de ce que j’attends ? Si la réponse est oui, l’ambiguïté existe et doit être résolue.

Plus spécifiquement : pourrait-elle interpréter “court” différemment ? Pourrait-elle penser que la tâche s’arrête là où je veux qu’elle commence ? Pourrait-elle comprendre “professionnel” comme “formel” alors que je veux dire “expert” ? Ce test mental, pratiqué systématiquement, élimine la grande majorité des ambiguïtés avant qu’elles ne contaminent vos résultats.


Erreur 2 — Les instructions négatives : dire ce qu’on ne veut pas plutôt que ce qu’on veut

Le paradoxe de la négation

Vous avez sans doute déjà rencontré l’injonction paradoxale classique : “Ne pensez pas à un éléphant rose.” Et bien sûr, la première chose qui surgit dans votre esprit, c’est un éléphant rose. La formulation négative active le concept qu’elle cherche à supprimer, parce que le cerveau doit d’abord représenter la chose pour ensuite la nier.

Les LLM n’échappent pas complètement à cette dynamique. Lorsque vous incluez dans votre prompt “ne parle pas de concurrence”, “n’utilise pas de jargon technique”, “évite les formulations trop formelles” — vous placez ces concepts dans le contexte immédiat du modèle. Et puisque le modèle génère du texte en fonction de son contexte, la probabilité que ces éléments influencent quand même la génération est réelle.

Mais il y a un problème encore plus fondamental avec les instructions négatives. Elles définissent un espace négatif — tout ce qui n’est pas ce que vous ne voulez pas. Cet espace est infiniment vaste et ambigu. “Ne sois pas trop formel” pourrait signifier familier, conversationnel, direct, humoristique, relâché — autant de registres différents qui correspondent tous à “pas trop formel”. Le modèle choisit arbitrairement parmi ces possibilités, sans garantie que son choix corresponde à votre intention.

La règle de la formulation positive

La solution est simple dans son principe, mais demande un peu de pratique : transformez systématiquement chaque instruction négative en son équivalent positif. Plutôt que de décrire ce que vous ne voulez pas, décrivez précisément ce que vous voulez à la place.

“N’utilise pas de jargon technique” devient “utilise uniquement des termes compréhensibles par un lycéen de terminale”. Cette formulation est infiniment plus précise — elle définit un niveau de langage concret, pas un espace vide à éviter.

“Ne fais pas une réponse trop longue” devient “réponds en cent à cent cinquante mots exactement”. Vous n’espérez plus que le modèle devine ce que “trop long” signifie pour vous — vous lui donnez une mesure opérationnelle.

“Ne sois pas trop formel” devient “adopte le ton d’un collègue senior qui explique quelque chose lors d’une conversation de couloir — direct, chaleureux, sans protocole”. Vous avez remplacé une négation vague par une image concrète et évocatrice.

“Évite de mentionner nos concurrents” devient “concentre-toi exclusivement sur nos propres produits et leurs caractéristiques différenciantes”. Vous avez redirigé l’attention plutôt que de créer une interdiction.

Quand la négation est inévitable

Il existe des situations où une instruction négative est difficile à éviter complètement — par exemple, quand vous voulez exclure un élément très spécifique pour lequel il n’existe pas d’équivalent positif évident. Dans ces cas, associez toujours la négation à une alternative positive explicite. “N’utilise pas de bullet points — utilise de la prose continue avec des transitions fluides.” La négation délimite, la formulation positive oriente.


Erreur 3 — Surcharger le prompt : tout demander en une seule fois

L’illusion de l’efficacité

La tentation est compréhensible. Un seul prompt, une seule réponse, une seule interaction — ça semble plus efficace que de multiplier les échanges. Et pour les tâches simples, c’est effectivement la bonne approche. Mais dès que les tâches se complexifient, cette logique se retourne contre elle-même.

Un prompt qui demande simultanément d’analyser un document, d’en extraire les points clés, de les comparer avec une liste de critères que vous fournissez, de produire des recommandations pour chaque écart, de formuler ces recommandations dans un style adapté à un public non-spécialiste, et de tout présenter dans un tableau structuré avec une synthèse exécutive en dessous — ce prompt est une recette pour des résultats médiocres sur chaque dimension.

La raison est cognitive autant que technique. Le modèle, comme tout système cognitif, distribue son attention sur l’ensemble des tâches demandées. Plus il y a de tâches simultanées, moins chacune reçoit d’attention. Les dimensions les plus complexes ou les moins explicitement spécifiées sont celles qui souffrent le plus de cette dilution.

Le diagnostic de la surcharge

Comment savoir si votre prompt est surchargé ? Il existe quelques signaux révélateurs.

Si votre prompt contient plus de trois ou quatre verbes d’action distincts visant des objectifs différents, il est probablement surchargé. “Analyse, compare, recommande, reformule et présente” — cinq tâches distinctes dans un seul prompt, dont chacune mériterait une attention complète.

Si la réponse que vous obtenez est correcte sur le fond mais inégalement traitée — certains aspects développés, d’autres survolés —, c’est le signe que le modèle a manqué de contexte ou d’attention pour certaines dimensions de votre demande.

Si vous trouvez que le résultat est toujours “presque bon mais pas tout à fait”, et que les lacunes se situent systématiquement sur les éléments les plus complexes ou les plus spécifiques de votre demande, la surcharge est probablement en cause.

La solution : décomposer et chaîner

La solution naturelle à la surcharge est le Prompt Chaining que vous avez appris au module précédent. Mais il n’est pas toujours nécessaire d’aller jusqu’à une chaîne complète. Parfois, il suffit d’identifier la tâche principale et de traiter les tâches secondaires dans des prompts de suivi, en partant de la réponse déjà obtenue.

Une règle pratique : pour chaque prompt que vous êtes sur le point d’envoyer, identifiez la tâche principale — celle sans laquelle les autres n’ont pas de sens. Assurez-vous que cette tâche est parfaitement spécifiée. Les tâches secondaires peuvent venir ensuite, dans des prompts distincts qui s’appuient sur le résultat déjà produit. Cette séquentialité est un investissement de temps très faible pour un gain de qualité très significatif.


Erreur 4 — Négliger le public cible : écrire pour personne

La même information, des formes radicalement différentes

Voici une expérience mentale simple. Demandez à un médecin d’expliquer le mécanisme d’une crise cardiaque. Puis demandez-lui de l’expliquer à un étudiant en médecine. Puis à un patient de soixante-cinq ans en consultation. Puis à un journaliste qui prépare un article grand public. Puis à un jury d’experts dans un procès médical.

C’est le même médecin, le même mécanisme, les mêmes faits. Mais les cinq explications seront radicalement différentes — dans le vocabulaire, le niveau de détail, les analogies utilisées, la structure, le ton, la longueur, l’emphase sur tel ou tel aspect. Et chacune sera parfaitement juste pour son audience, et probablement inadaptée pour toutes les autres.

Un LLM fait exactement la même chose — à condition que vous lui disiez à qui il s’adresse. Sans cette information, il adopte un niveau par défaut qui est généralement trop généraliste pour les experts et parfois trop technique pour les novices. Le résultat est un texte qui n’est vraiment adapté à personne.

Les dimensions du public cible

Préciser le public cible ne se limite pas à donner un titre ou une catégorie socio-professionnelle. Les dimensions qui influencent réellement la calibration de la réponse sont au nombre de quatre.

Le niveau de connaissance du sujet est la dimension la plus critique. Un expert accepte — et même préfère — le jargon technique précis. Un novice a besoin d’analogies et d’exemples concrets pour ancrer les concepts abstraits. Entre les deux, il existe un spectre que vous devez localiser précisément pour votre audience. “Quelqu’un qui a entendu parler du sujet mais n’a pas de formation spécifique” est beaucoup plus utile que simplement “grand public”.

L’enjeu de la personne vis-à-vis du sujet conditionne ce qu’elle cherche dans l’information. Un dirigeant qui doit prendre une décision stratégique cherche des implications et des recommandations. Un opérationnel qui doit implémenter cherche des étapes concrètes et des écueils à éviter. Un investisseur cherche des risques et des opportunités. Préciser l’enjeu oriente le modèle vers ce qui est réellement utile plutôt que vers ce qui est généralement pertinent.

Le canal de réception conditionne le format attendu. Un texte lu sur écran en cinq minutes a besoin de titres, de bullet points, d’une structure scandée. Un texte imprimé et lu dans un avion peut se permettre une prose continue et développée. Un texte qui sera présenté oralement doit être bref et percutant. Mentionner le canal — email, présentation, rapport, post LinkedIn, script — permet au modèle d’adapter sa forme sans que vous ayez besoin de tout spécifier.

La relation entre vous et votre audience détermine le registre relationnel. Un supérieur hiérarchique, un pair, un collaborateur, un client, un prospect, un régulateur — chacun de ces destinataires appelle une posture différente dans la communication. Préciser cette relation évite les erreurs de ton qui peuvent compromettre la réception du message.

La formulation concrète

Incorporer le public cible dans votre prompt est simple. Voici quelques formulations efficaces.

“Ce texte est destiné à des directeurs financiers de PME industrielles, familiers des concepts comptables de base mais sans expertise en fiscalité internationale.”

“L’audience est une classe de lycéens de terminale en filière générale, curieux mais sans préconnaissances sur le sujet.”

“Ce document sera présenté à un comité de direction de dix personnes lors d’une réunion de trente minutes. Les membres ont des profils variés — technique, commercial, financier — et doivent être en mesure de prendre une décision à l’issue de la présentation.”

Dans chacun de ces cas, vous donnez au modèle suffisamment d’information sur l’audience pour calibrer précisément son niveau de langage, sa structure et ses exemples.


Erreur 5 — Ignorer les hallucinations : accepter sans vérifier

Comprendre pourquoi les modèles inventent

Le terme “hallucination” désigne le phénomène par lequel un modèle de langage produit des informations factuellement fausses avec une confiance apparente — des statistiques inventées, des citations qui n’existent pas, des noms propres erronés, des dates incorrectes, des événements qui ne se sont jamais produits. Et il les présente avec exactement le même ton assuré que lorsqu’il produit des informations parfaitement exactes.

Ce phénomène n’est pas un bug à corriger dans une prochaine version. C’est une conséquence directe de la nature même des LLM. Souvenez-vous : un LLM prédit le token le plus probable étant donné le contexte. Il ne consulte pas une base de données de faits vérifiés. Il génère du texte qui ressemble statistiquement à ce que produirait un texte correct sur ce sujet. Quand il manque d’informations précises sur un point factuel, il extrapole à partir des patterns généraux — et cette extrapolation peut produire quelque chose qui sonne juste mais qui est factuellement faux.

La fréquence et la gravité des hallucinations varient selon les domaines. Les sujets très bien représentés dans les données d’entraînement — les grands événements historiques, les concepts scientifiques établis, les personnalités très connues — sont moins sujets aux hallucinations. Les sujets de niche, les informations récentes, les données précises comme les chiffres et les dates, les noms propres rares — voilà les zones à haut risque.

Les stratégies pour limiter les hallucinations

Il est important d’être honnête sur ce point : aucune technique de prompting n’élimine complètement les hallucinations. Les modèles les plus récents les ont considérablement réduites, mais pas supprimées. Ce que les bonnes pratiques permettent, c’est de les réduire significativement et de les rendre plus détectables.

Demander explicitement la signalisation des incertitudes est la technique la plus directement efficace. En ajoutant à votre prompt une instruction comme “si tu n’es pas certain d’une information, marque-la explicitement avec [INCERTAIN] ou [À VÉRIFIER]”, vous incitez le modèle à auto-évaluer sa confiance plutôt que de tout présenter avec le même niveau d’assurance. Cette technique ne fonctionne pas parfaitement — le modèle peut manquer de métacognition sur ses propres lacunes — mais elle améliore significativement la détection dans les cas d’incertitude modérée.

Limiter le modèle au contexte fourni est la stratégie la plus robuste pour les tâches où vous disposez déjà de l’information pertinente. Si vous fournissez un document dans votre prompt et demandez au modèle de répondre uniquement sur la base de ce document sans faire appel à ses connaissances générales, vous éliminez la source principale d’hallucination pour cette tâche. L’instruction est simple : “Réponds exclusivement en te basant sur le texte fourni. Si la réponse n’y figure pas, dis-le explicitement plutôt que de l’inférer.”

Décomposer les questions complexes réduit les hallucinations sur les raisonnements multi-étapes. Chaque question simple a moins de chances de produire une hallucination qu’une question complexe qui nécessite plusieurs inférences enchaînées. Le Prompt Chaining que vous connaissez maintenant est aussi une stratégie anti-hallucination.

Demander une vérification en deux temps est une technique élégante pour les contenus à enjeux élevés. Vous demandez d’abord la réponse, puis dans un deuxième prompt vous demandez au modèle de relire sa propre réponse et d’identifier les affirmations qu’il ne peut pas garantir avec certitude. Cette double passe améliore la détection des incertitudes que le premier passage avait présentées avec trop d’assurance.

Ce que la vérification humaine ne remplace pas

Ces stratégies de prompting sont des outils de réduction du risque, pas des garanties absolues. Pour tout contenu à enjeux élevés — des informations médicales, des données juridiques, des chiffres financiers, des citations directes — la vérification humaine auprès de sources primaires reste indispensable. Le modèle est un assistant extraordinairement puissant, pas une source de vérité.


Erreur 6 — Négliger la fenêtre de contexte : oublier que le modèle oublie

Ce que la fenêtre de contexte signifie vraiment

Chaque modèle de langage a une limite sur la quantité de texte qu’il peut traiter simultanément. Cette limite s’appelle la fenêtre de contexte et se mesure en tokens — des unités qui correspondent approximativement à trois quarts d’un mot en français. Les modèles modernes ont des fenêtres de contexte très larges — souvent plusieurs centaines de milliers de tokens — mais elles ne sont pas illimitées.

La limite absolue est un problème réel mais relativement rare dans les usages courants. Le problème plus subtil et plus fréquent est ce qu’on pourrait appeler la dégradation de l’attention à l’intérieur de la fenêtre. Des études ont montré que les LLM n’accordent pas une attention égale à toutes les parties d’un contexte long. Les informations situées au début et à la fin du contexte ont tendance à avoir plus de poids dans la génération que les informations situées au milieu. Ce phénomène, parfois appelé “lost in the middle”, peut produire des réponses qui ignorent des informations pourtant présentes dans le prompt — simplement parce qu’elles étaient positionnées au milieu d’un long bloc de texte.

Les erreurs concrètes que cela produit

Dans une longue conversation, le modèle peut “oublier” des instructions données au début de la session — le rôle que vous lui avez assigné, les contraintes que vous avez établies, le contexte que vous avez fourni. Si vous observez que le comportement du modèle dérive au fil d’une longue conversation — qu’il commence à ignorer des contraintes que vous aviez pourtant précisées — c’est souvent un effet de fenêtre de contexte.

Quand vous collez un très long document dans votre prompt pour l’analyser, les instructions qui précèdent ce document peuvent perdre une partie de leur poids si le document est suffisamment long pour les éloigner du point de génération. Vous obtenez une analyse du document, mais qui ne respecte pas pleinement les critères et le format que vous aviez spécifiés.

Dans les chaînes de prompts très longues où vous accumulez de nombreux échanges dans un même contexte, les informations des premiers échanges deviennent progressivement moins influentes sur les générations tardives.

Les solutions pratiques

Placer les instructions critiques à la fin du prompt plutôt qu’au début — juste avant la demande effective — les maintient proches du point de génération et leur garantit un poids maximal. Si vous devez choisir entre placer une instruction en ouverture ou en clôture d’un long prompt, la clôture est généralement plus efficace.

Rappeler les contraintes essentielles dans les prompts de suivi lors de longues conversations. Une phrase du type “comme précisé précédemment, réponds toujours en format tableau et en français soutenu” coûte très peu et préserve la cohérence sur la durée.

Résumer plutôt que d’accumuler quand vous travaillez sur de longs documents. Plutôt que de coller l’intégralité d’un document de cinquante pages, identifiez les sections pertinentes pour votre question et ne transmettez que celles-là. L’information pertinente concentrée est toujours plus efficace que l’information totale noyée dans le volume.

Utiliser le Prompt Chaining pour les très longues tâches plutôt que d’essayer de tout faire dans un contexte unique qui s’allonge indéfiniment. Chaque maillon de la chaîne repart avec un contexte frais et compact, ce qui garantit une attention maximale sur les informations réellement pertinentes à cette étape.


Le diagnostic rapide : six questions à poser avant d’envoyer un prompt

Avant de soumettre votre prochain prompt, parcourez rapidement cette liste de contrôle mentale. Elle prend dix secondes et peut vous éviter plusieurs itérations décevantes.

Est-ce que j’utilise des adjectifs relatifs non quantifiés — court, long, simple, complet, détaillé ? Si oui, remplacez-les par leur définition opérationnelle.

Est-ce que j’ai des instructions négatives — n’utilise pas, évite, ne mentionne pas ? Si oui, trouvez leur équivalent positif.

Est-ce que je demande plus de trois ou quatre choses distinctes simultanément ? Si oui, identifiez la tâche principale et déplacez les autres dans des prompts de suivi.

Est-ce que j’ai précisé à qui est destinée la réponse, avec son niveau de connaissance du sujet et l’enjeu qu’il a vis-à-vis de l’information ? Si non, ajoutez ces éléments.

Est-ce que ma demande porte sur des faits précis, des chiffres, des dates ou des citations ? Si oui, ajoutez une instruction de signalisation des incertitudes ou limitez le modèle au contexte que vous fournissez.

Est-ce que mon prompt est très long ou est-ce une session qui s’est beaucoup allongée ? Si oui, assurez-vous que vos instructions les plus critiques sont placées à la fin et rappelées explicitement.


Ce que vous maîtrisez maintenant

Vous savez maintenant non seulement construire de bons prompts, mais aussi diagnostiquer ce qui ne va pas dans vos prompts existants. Vous pouvez identifier l’ambiguïté avant qu’elle ne contaminent vos résultats. Vous savez transformer les instructions négatives en orientations positives précises. Vous reconnaissez la surcharge et vous savez la décomposer. Vous calibrez systématiquement pour votre audience. Vous avez des stratégies concrètes pour limiter les hallucinations. Et vous comprenez les effets de la fenêtre de contexte pour les anticiper.

Il ne reste plus qu’un module — et c’est celui que beaucoup considèrent comme le plus satisfaisant. Le module 6 quitte le terrain des principes et des techniques pour entrer pleinement dans la pratique. Vous allez voir tout ce que vous avez appris prendre vie dans des cas réels, sur des domaines concrets, avec des prompts complets que vous pouvez adapter et réutiliser immédiatement. C’est là que les méthodes deviennent des réflexes.

Layer 1