
Sommaire
(ou comment bien utiliser l’IA sans se faire manger par une hallucination)
— Père Castor, Père Castor ! Raconte-nous comment discuter avec l’Intelligence Artificielle !
— Ah, mes petits, vous tombez bien. Installez-vous près du feu, posez vos tablettes, rangez vos écouteurs… Je vais vous raconter une histoire bien de notre époque. Une histoire de machines qui parlent, de mots qui dansent, et de promesses parfois trop belles pour être vraies.
Il était une fois, dans le royaume numérique, une créature étrange appelée l’IA générative. On la disait prodigieuse : elle écrivait des poèmes, répondait aux questions, rédigeait des mails, programmait des sites, chantait même des chansons. Certains la prenaient pour une fée savante, d'autres pour une dangereuse usurpatrice.
Mais ce que peu savaient, c’est que cette IA ne pense pas. Elle ne comprend pas. Elle ne réfléchit pas comme toi et moi. Non. Elle calcule.
Et dans ce monde peuplé de pixels et de probabilités, un seul sort permettait de la faire parler avec un brin de sens : le prompt.
Un prompt bien lancé, c’était comme une flèche droite dans le mille. Un prompt mal fichu, et hop; tu obtiens une soupe de mots sans queue ni tête, ou pire : une réponse qui semble brillante, mais qui dit n’importe quoi !
Alors aujourd’hui, mes petits castors, je vais vous apprendre l’art ancien et précieux du prompt engineering.
Pas celui des marchands de poudre de perlimpinpin. Pas celui des vendeurs de “prompts miracles”. Non. Le vrai. Le simple. Le fiable.
Car si l’IA est une lanterne, le prompt est la main qui la tient. Et bien la tenir, c’est tout un savoir.
Le Perroquet qui ne comprenait rien
— Alors, Père Castor, c’est vrai que l’IA est plus intelligente que nous ?
— Oh, que non, mes petits. Ce n’est pas un cerveau, c’est un perroquet savant. Un grand, très rapide, très impressionnant, mais qui répète sans comprendre.
Laissez-moi vous raconter.
Quand vous posez une question à l’IA, elle ne fait pas comme vous. Elle ne se gratte pas la tête. Elle ne cherche pas dans un tiroir de souvenirs. Non. Elle découpe votre phrase en petits bouts, comme on découperait une bûche en copeaux.
Ces petits morceaux, on les appelle des tokens. Ce ne sont pas toujours des mots entiers. Parfois juste des syllabes, parfois même des débuts ou des fins de mot. C’est comme si elle entendait :
« Qu – elle – est – la – cou – leur – du – ciel – ? »
Ensuite, elle transforme chacun de ces tokens en un vecteur : une suite de chiffres, qui représente sa position dans un immense espace.
Pas un espace avec des étoiles, non non. Un espace mathématique à 16 384 dimensions. Essayez de vous représenter ça, mes castors…
Moi, j’ai déjà du mal avec la 4e !
Et dans cet espace, elle mesure, elle calcule, elle regarde quels mots vont statistiquement bien ensemble. Pas parce qu’ils sont vrais. Pas parce qu’ils sont jolis. Juste parce qu’ils sont probables.
Un peu comme si elle avait lu des milliards de phrases et qu’elle se demandait :
« Quand je lis Quelle est la couleur du ciel, le mot qui vient souvent après… c’est quoi ? Ah ! bleu. Allez hop ! »
Et si, dans ses lectures, elle a croisé un jour :
Quelle est la couleur du ciel dans Minecraft ?
Elle pourrait vous répondre :
Cube arc-en-ciel en pixels baveux.
Avec tout le sérieux du monde.
Vous voyez, mes castors ? Ce n’est pas de la compréhension. C’est de la statistique savante.
Alors si vous voulez qu’elle dise quelque chose de sensé… il faudra bien lui expliquer ce que vous voulez, dans ses propres mots.
Le bâton du prompt
Vous souvenez-vous, mes castors, du conte du Bâton de Parole ? Celui qu’on se passait autour du feu pour que chacun puisse s’exprimer ?
Eh bien avec l’IA, c’est pareil. Le prompt, c’est votre bâton. C’est avec lui que vous donnez la direction, que vous ouvrez la marche. Et sans lui… l’IA vous regarde, un peu perdue, comme un hibou dans une salle de classe.
Voyons cela de plus près.
Quand vous parlez à l’IA sans réfléchir, vous dites des choses comme :
“Fais-moi un bon texte.”
Mais qu’est-ce qu’un bon texte ? Pour qui ? Pourquoi ? Combien de mots ? Drôle ou sérieux ? L’IA ne le sait pas. Alors elle vous sort un truc tiède, banal, passe-partout. Et vous, vous froncez les sourcils en disant :
“C’est nul.”
Et pourtant, mes petits, c’est vous qui avez oublié de tendre le bon bâton.
Le bon prompt, c’est comme une baguette magique bien taillée :
- Il définit la mission : “Écrire un article”, “Comparer deux idées”, “Analyser un texte”...
- Il explique le pourquoi : “Pour un post LinkedIn”, “Pour un enfant de 8 ans”, “Pour convaincre un client”.
- Il donne le contexte : “Je suis directeur marketing”, “Je parle de café équitable”, “Je m’adresse à des ingénieurs”.
- Il propose un style ou un ton : “Convaincant”, “Drôle”, “Technique”.
Et voilà, mes petits castors. Si vous tenez bien le bâton du prompt, l’IA vous suit avec plus d’entrain. Sinon… elle s’assied sur une souche et vous chante une chanson au hasard.
Les fausses potions
Ah… les fausses potions, mes petits castors. Celles que l’on vous vend dans les marchés numériques, sous le manteau ou avec de grands sourires. Des “trucs et astuces” qui brillent comme des gemmes, mais qui fondent comme du sucre dans l’eau dès qu’on gratte un peu.
Dans le village du prompt, il y a des colporteurs de recettes faciles,
des marchands de mirages, des vendeurs de sortilèges.
Aujourd’hui, Père Castor vous les révèle, pour ne pas vous faire avoir.
Potion n°1 : « Tutoyez l’IA, elle vous comprendra mieux »
“Peux-tu me faire un résumé, s’il te plaît ?”
C’est mignon. C’est poli. C’est humain. Mais l’IA s’en fiche.
Elle ne ressent ni gêne ni flatterie. Elle ne se fâche pas si vous êtes sec, ni ne vous sourit si vous êtes charmant.
Tous ces “peux-tu”, “s’il te plaît”, “tu peux me faire”… ce sont des tokens inutiles.
Elle les traite comme des copeaux de bois : elle les hache, les mesure, mais ils n’aident pas à comprendre la tâche.
Faux respect ➜ Vraie perte d’efficacité.
“Peux-tu me faire un résumé s’il te plaît ?”
devient :
tokens inutiles = "peux", "tu", "me", "faire", "s'il", "te", "plaît"
Ce sont autant de petits mots analysés et traités, qui n’aident en rien à préciser la tâche.
“Résumer le texte suivant en 100 mots, avec un style accessible à un public collégien.”
Potion n°2 : « Ne lui donnez pas de rôle, c’est ridicule »
Ah ! Celle-là, Père Castor l’entend souvent dans les bois du Web.
“Agis comme un avocat spécialisé en droit social.”
Certains crient au ridicule : “Mais l’IA ne devient pas avocat, quelle sottise !”
Et c’est vrai.
Mais ce n’est pas absurde pour autant.
Ce genre d'instruction n'ajoute pas de diplômes au modèle, mais aide à orienter le style, les termes, la logique de réponse.
Elle s’aligne, comme un danseur qui entre dans un rôle.
Donc oui : donner un rôle, c’est utile… si vous savez pourquoi vous le faites.
“Explique les conséquences d’un redressement fiscal.”
Réponse : vague, généraliste.
“Réponds comme un avocat fiscaliste spécialisé PME. Explique les conséquences concrètes d’un redressement fiscal à un chef d’entreprise.”
Réponse : plus technique, plus ciblée, plus utile.
La recette des 7 couches
— Père Castor, comment on fait un vrai bon prompt ?
— Ah… voilà la bonne question.
C’est comme une bonne galette : il faut plusieurs couches, chacune bien dosée, pour qu’elle soit savoureuse, nourrissante… et surtout utile.
Certains magiciens du numérique jurent qu’il faut exactement 7 couches. C’est une bonne boussole, mais ce n’est pas une loi des castors. Parfois 5 suffisent, parfois il en faut 9.
Mais 7, c’est un bon point de départ.
Couche 1 — La tâche
C’est ce que tu veux que l’IA fasse. Pas peut-être, pas devine, mais clairement.
- “Écrire un email de relance client”
- “Comparer deux offres d’emploi”
- “Rédiger une introduction de roman de fantasy”
Sans tâche claire, pas de réponse utile.
Couche 2 — Le but
Pourquoi fais-tu cela ? Quel est l’objectif ?
Tu veux convaincre ? Informer ? Résumer pour quelqu’un d’autre ?
- “Pour convaincre un prospect hésitant”
- “Pour expliquer à un collègue junior”
- “Pour former mes élèves de terminale”
L’IA n’a pas d’intuition. Il faut lui dire le “pour quoi faire”.
Couche 3 — Le contexte
C’est le terrain sur lequel se joue ta demande. Qui es-tu ? Quelle est ton entreprise ? À qui tu parles ?
- “Je suis chef de projet dans une PME du BTP”
- “L’entreprise vend des formations en ligne”
- “Le public est composé de retraités curieux”
Plus tu donnes de repères, plus l’IA ajuste son tir.
Couche 4 — Les instructions
Tu veux une réponse en 3 étapes ? En bullet points ? Tu veux qu’elle cherche d’abord une info ?
- “Présente d’abord les faits, puis une analyse”
- “Utilise un tableau comparatif”
- “Formate le texte pour un post LinkedIn”
C’est ici qu’on donne le mode d’emploi précis.
Couche 5 — Le niveau de la cible
On ne parle pas pareil à un étudiant de 12 ans qu’à un expert en cybersécurité.
- “Public débutant, sans jargon”
- “S’adresse à des responsables RH expérimentés”
Précise bien le niveau attendu.
Couche 6 — Le style
Tu veux un ton sérieux ? Amical ? Ironique ? Une structure bien précise ?
- “Ton professionnel, clair et sans fioriture”
- “Style narratif à la première personne”
- “Ajoute une citation pour ouvrir”
Le style est l’âme de la réponse. Ne le laisse pas au hasard.
Couche 7 — Le format de la réponse
Texte court ? Long ? Tableau ? Code ? Langue ?
- “Réponds en 150 mots max”
- “Utilise des bullets pour chaque étape”
- “Rends-moi ça en HTML, en français”
Sinon, l’IA peut divaguer… comme un castor trop bavard.
Exemple complet :
Tâche : Élaborer un article de blog
But : Informer les parents sur les effets des écrans
Contexte : Je suis directeur d’une école primaire, article pour la newsletter de l’école
Instructions : Inclure chiffres clés, proposer des conseils pratiques en fin d’article
Niveau cible : Parents, pas experts
Style : Bienveillant, clair, structuré
Format : Texte d’environ 400 mots, en français
Très bien, mes petits castors. Voici maintenant un chapitre un peu plus… glissant. Parce qu’on va parler de ce que l’IA fait parfois de travers. Non pas parce qu’elle est méchante — souvenez-vous, elle ne pense pas — mais parce que le monde des probabilités, c’est comme la gadoue : parfois, on dérape.
Le laboratoire des erreurs
— Père Castor, pourquoi l’IA se trompe parfois ?
— Ah, question sage. Et réponse simple : elle ne se trompe pas… mais elle hallucine.
Oui, oui, mes castors : on appelle ça une “hallucination de modèle”. Ce n’est pas un mirage en plein désert, ni une vision mystique. C’est juste… un écart de probabilité.
Comment ça marche ?
L’IA, rappelez-vous, ne sait pas. Elle devine. Elle choisit le mot qui a le plus de chances de venir ensuite, selon ses milliards de lectures passées.
Mais parfois, elle tombe sur une pente glissante. Elle croit qu’après “Einstein”, vient “inventeur du micro-ondes”.
Raté. Ce n’est pas vrai. Mais c’était plausible dans un coin mal rangé de ses souvenirs statistiques.
Et hop ! Voilà une hallucination.
Une réponse qui a l’air brillante, mais qui est fausse.
Ce n’est pas une faute… c’est une limite
L’IA ne “se trompe” pas comme toi quand tu oublies un nom. Elle fait un pari probabiliste, et parfois il tombe à côté. C’est comme la météo :
“Il y a 70 % de chances qu’il pleuve demain.”
Mais si le soleil brille ? Tu râles ? Non. Tu sais que 70 %, ce n’est pas 100 %.
C’est pareil ici.
Que faire, alors ?
- Toujours relire ce que l’IA raconte.
Même si ça sonne bien. Même si ça semble logique. - Croiser les sources.
Tu peux lui dire : “Peux-tu me citer ta source ?” - Donner plus de contexte.
Moins elle est dans le flou, plus elle reste dans les clous. - Découper les tâches complexes.
Ne lui demande pas de “résumer et analyser et reformuler en 3 phrases” tout en même temps.
L’IA n’a pas tort. Elle calcule.
Et parfois, ça sonne vrai… mais ça ne l’est pas.
Alors vérifie toujours, comme un bon petit castor curieux.
Il existe aussi des leviers secrets, dans le laboratoire de l’IA, pour ajuster son comportement.
Ce sont des petits curseurs cachés, que seuls les aventuriers curieux utilisent. On les appelle : la température, le top-k, le top-p et les penalties.
La température (temperature)
Imagine que tu cuisines une soupe d’idées.
Température basse (ex. 0–0.3) :
Tu suis strictement la recette. Pas de fantaisie, pas d’originalité.
L’IA devient très conservatrice. Elle choisit toujours le mot le plus probable.
Température haute (ex. 0.8–1.2) :
Tu improvises, tu ajoutes des épices, peut-être même des myrtilles dans ta soupe…
L’IA devient plus créative, mais aussi plus imprévisible, voire bizarre.
Le top-k
L’IA regarde les k mots les plus probables à chaque étape.
Si k = 1, elle prend toujours le plus probable (robot sérieux).
Si k = 40, elle pioche dans les 40 plus plausibles (robot plus varié).
En clair :
Plus k est petit ➜ plus la réponse est sûre mais rigide.
Plus k est grand ➜ plus elle est libre… mais parfois farfelue.
Le top-p
C’est comme top-k, mais plus subtil.
“P” comme probabilité cumulée.
L’IA regarde les mots dont la somme de probabilités dépasse un certain seuil.
Par exemple, si p = 0.9, elle prend les mots qui ensemble représentent 90 % de chances d’être corrects.
Top-k = fixe, top-p = dynamique.
Tu peux utiliser l’un ou l’autre, rarement les deux ensemble.
Les penalties
Ce sont les anti-répétiteurs, les baguettes de discipline
- Presence penalty : empêche de répéter des idées déjà dites.
- Frequency penalty : empêche de répéter les mêmes mots.
Quand tu veux éviter les radotages : augmente un peu les penalties.
Mais trop fort, et l’IA oublie qu’elle a commencé une phrase.
Exemple
Prompt de base :
“Écris une courte fable à la manière de La Fontaine, sur un smartphone et une bougie.”
Réglage 1 : Fiable et classique
Température : 0.2
top_k : 10
top_p : 0.8
penalties : 0.0
Résultat :
Le Smartphone disait à la Bougie : « Que fais-tu, vieille flamme ? »
Elle répondit, pleine de sagesse : « J’éclaire sans jamais distraire. »
Réglage 2 : Créatif mais contrôlé
Température : 0.7
top_k : 50
top_p : 0.9
penalties : 0.3 (évite trop de répétitions)
Résultat :
Le Smartphone, toujours en ligne, ricanait :
« Tu ne sers plus à rien, pauvre lueur d’antan. »
Mais quand la panne survint, la Bougie, en silence, guida les pas tremblants.
Réglage 3 : Imaginatif et imprévisible
Température : 1.2
top_k : 100
top_p : 1.0
penalties : 0.5
Résultat :
Le Smartphone hurla : « Flashlight ! Mème ! Recharge-moi ! »
La Bougie soupira, fit fondre une appli, et dansa dans une salle de bain hantée.
La magie, c’est toi
— Père Castor, maintenant qu’on sait tout ça… l’IA va nous remplacer ?
— Oh non, mes petits. L’IA, c’est un outil. Un outil très fort, très rapide, parfois étonnant… mais un outil quand même.
Et les outils ne valent rien sans la main qui les tient.
Tu peux avoir le plus beau pinceau du monde… si tu ne sais pas ce que tu veux peindre, tu barbouilles.
C’est pareil avec l’IA.
L’IA est puissante… mais pas autonome
Elle ne sait rien sur toi.
Elle ne comprend pas tes intentions.
Elle ne devine pas tes contraintes.
Elle attend tes instructions.
Et c’est là que réside la vraie magie : dans la façon dont tu lui parles.
Alors voilà, mes petits castors, vous savez désormais comment bien parler à l’IA.
Vous avez appris à tenir le bâton du prompt, à éviter les potions douteuses, à construire vos demandes comme des galettes à sept couches, et à reconnaître quand l’IA part en promenade toute seule.
Mais, entre nous… ceci n’était que le début.
Car dans la grande forêt du prompt engineering, il existe d’autres sentiers encore inexplorés :
- Des chemins où l’on enchaîne plusieurs prompts comme des perles : le prompt chaining.
- Des méthodes où l’on montre des exemples avant de poser la question : le few-shot prompting.
- Et même des sentiers plus sinueux, où l’IA explore plusieurs pistes à la fois, comme un détective en forêt : le tree of thoughts.
- Et bien d’autres encore
Mais ceci… est une autre histoire