Curriculum
Cours: Prompt Engineering
Connexion
Text lesson

Module 01 — Introduction au Prompt Engineering

Module 01 — Introduction au Prompt Engineering


 


Ce qu’est un LLM, en termes simples

Avant de parler de prompts, il faut comprendre à qui vous parlez. Un grand modèle de langage — LLM pour Large Language Model — est un système entraîné sur des quantités astronomiques de texte : des livres, des articles, des forums, du code, des encyclopédies, des conversations. Des centaines de milliards de mots, absorbés et distillés en milliards de paramètres mathématiques.

Ce que le modèle a appris, au fond, c’est une chose très précise : prédire quel mot vient ensuite. Pas plus, pas moins. Il n’a pas de conscience, pas d’intentions, pas de mémoire entre deux conversations. Il est, dans toute sa puissance, une machine à complétion de texte d’une sophistication inouïe.

Mais voilà où ça devient intéressant. En apprenant à prédire le texte le plus probable dans des millions de contextes différents, ces modèles ont développé quelque chose qui ressemble étrangement à de la compréhension. Ils savent raisonner par analogie, structurer des arguments, adopter des styles d’écriture, résoudre des problèmes mathématiques, traduire entre des langues, écrire du code fonctionnel. Non pas parce qu’on le leur a explicitement enseigné, mais parce que tous ces comportements étaient encodés dans les textes humains sur lesquels ils ont été entraînés.

C’est une distinction capitale. Le modèle ne sait pas ce que vous voulez. Il sait ce qui est le plus probable d’être dit ensuite, étant donné ce que vous venez d’écrire. Et c’est exactement pourquoi la façon dont vous formulez votre entrée change tout à la sortie.


L’inégalité des résultats

Voici un fait qui surprend toujours au début : deux personnes utilisant exactement le même modèle, sur exactement le même sujet, peuvent obtenir des résultats d’une qualité radicalement différente. L’une repart avec une analyse creuse et générique. L’autre repart avec un livrable directement exploitable, précis, bien structuré, adapté à son contexte.

La différence ? L’une a tapé une question. L’autre a rédigé un prompt.

Ce n’est pas une question d’intelligence, ni même de maîtrise technique. C’est une question de méthode. Et la bonne nouvelle, c’est que cette méthode s’apprend. Elle s’apprend vite, elle se pratique immédiatement, et ses effets sont visibles dès la première session.

Prenons un exemple concret. Supposons que vous ayez besoin d’un email pour relancer un client qui n’a pas répondu depuis deux semaines.

L’utilisateur non formé tape : Écris un email de relance client.”

Il obtient quelque chose de poli, de correct, et d’inutilisable en l’état — parce que le modèle n’a aucune idée de qui est ce client, de quel contexte il s’agit, du ton de la relation, de ce qui a déjà été dit, ni de l’urgence de la situation.

L’utilisateur formé écrit : “Je suis responsable commercial dans une agence de conseil en stratégie. Mon client, directeur général d’une PME industrielle de 80 personnes, n’a pas répondu à ma proposition commerciale envoyée il y a 12 jours. Nous avons une relation cordiale de 18 mois. Rédige un email de relance chaleureux mais direct, de 4 à 6 phrases, qui ravive son intérêt sans le mettre sous pression.”

L’email obtenu dans le second cas est prêt à être envoyé. C’est la même IA, le même modèle, le même moment. Seul le prompt a changé.


Une discipline née de l’observation

Le Prompt Engineering n’est pas né dans un laboratoire. Il est né dans les fils de discussion de chercheurs et de curieux qui remarquaient, au fil de leurs expériences, que certaines formulations produisaient systématiquement de meilleurs résultats que d’autres.

Dès 2020, avec la publication de GPT-3, des chercheurs ont commencé à documenter ce phénomène. Ils ont observé que simplement ajouter la phrase “Réfléchissons étape par étape” à la fin d’un problème mathématique améliorait significativement les résultats. Que donner quelques exemples avant de poser une question orientait le modèle bien plus efficacement que n’importe quelle description abstraite. Que préciser un rôle — “Tu es un expert en…” — activait un registre de connaissances bien plus précis.

Ces observations, accumulées et publiées, ont progressivement constitué un corpus de bonnes pratiques. Des papiers académiques leur ont été consacrés. Des conférences en ont fait leur thème principal. Et des entreprises ont commencé à embaucher des profils spécialisés — les Prompt Engineers — pour optimiser leurs interactions avec les modèles dans des contextes de production.

Aujourd’hui, des postes de Prompt Engineer sont affichés avec des fourchettes de rémunération comparables à celles d’ingénieurs logiciels confirmés. Ce n’est pas une mode. C’est le signe que cette compétence crée de la valeur réelle et mesurable.


À qui appartient cette compétence ?

La réponse courte : à tout le monde.

L’erreur fréquente est de penser que le Prompt Engineering est une affaire de développeurs, de data scientists ou de personnes à l’aise avec la technique. C’est faux. Les techniques que vous allez apprendre dans ce cours ne nécessitent pas une seule ligne de code. Elles reposent sur quelque chose que vous pratiquez depuis l’enfance : le langage.

Ce qui change, c’est que vous apprenez à parler à un interlocuteur très particulier — un interlocuteur dont vous devez comprendre le fonctionnement pour en tirer le meilleur. Un peu comme apprendre à briefer un prestataire talentueux mais qui ne connaît rien de votre contexte : plus votre brief est précis, riche et bien structuré, plus le résultat est à la hauteur.

Que vous soyez marketeur, enseignant, juriste, médecin, entrepreneur, analyste, journaliste ou développeur — cette compétence vous concerne directement. Et dans les années qui viennent, la maîtriser deviendra aussi naturelle que de savoir faire une recherche Google efficace.


Ce que vous allez construire au fil de ce cours

Ce premier module pose le décor. À partir du module 2, vous entrez dans la pratique.

Vous allez apprendre à construire des prompts structurés autour de quatre piliers fondamentaux. Vous allez maîtriser des techniques comme le Chain-of-Thought, le Role Prompting ou le Prompt Chaining — des méthodes aux noms un peu barbares mais dont la logique est immédiatement intuitive une fois expliquée. Vous allez apprendre à éviter les erreurs les plus courantes, celles qui sabotent silencieusement vos résultats sans que vous en compreniez la cause. Et vous allez appliquer tout cela sur des cas concrets issus de domaines très différents.

À la fin de ce parcours, vous ne taperez plus jamais un prompt à l’aveugle. Chaque interaction avec un modèle d’IA sera le résultat d’un choix conscient, d’une intention claire, d’une méthode éprouvée.


Un dernier mot avant de commencer

Le Prompt Engineering n’est pas une formule magique. Ce n’est pas non plus une liste de trucs et astuces à mémoriser. C’est une façon de penser la communication avec des systèmes d’IA — une façon qui se développe avec la pratique, s’affine avec l’expérience, et s’adapte à mesure que les modèles eux-mêmes évoluent.

Ce cours vous donne les fondations. Le reste, c’est vous qui le construisez — prompt après prompt, session après session.

Passons au module 2.

Layer 1