1. Qu'est-ce qu'une hallucination ?
Une hallucination, c'est quand l'IA produit une information fausse mais présentée comme vraie. Un chiffre inventé, une source qui n'existe pas, une citation jamais prononcée, une jurisprudence qui n'a jamais existé.
Ce qui rend la chose pénible : l'IA présente l'hallucination avec le même ton assuré que les vraies informations. Aucun "je pense que", aucun "peut-être", aucun signal d'incertitude. Une statistique inventée arrive avec la même force qu'une vraie.
Exemples concrets vus en formation chez nos clients TPE/PME :
-
Cabinet d'avocats
L'IA cite un arrêt de la Cour de cassation avec un numéro précis. L'arrêt n'existe pas. Le client dit "j'ai failli le citer dans une plaidoirie".
-
Agence marketing
L'IA donne une statistique "67 % des PME françaises…" avec une source Bpifrance précise. La source existe, le chiffre est inventé.
-
Cabinet comptable
L'IA invente un seuil fiscal "40 000 € pour le micro-BIC". Le vrai seuil est différent. Une vraie réponse client aurait coûté cher.
2. Pourquoi l'IA invente (la mécanique sous-jacente)
Souvenez-vous du chapitre 2 : ChatGPT est un modèle probabiliste. Il prédit la suite la plus probable de votre texte. Il ne "sait" rien au sens humain. Il calcule.
Quand vous lui demandez "Quel est le seuil micro-BIC en 2026 ?", la machine calcule la suite de mots la plus probable. Si elle a vu ce sujet dans ses données d'entraînement, la suite la plus probable contient le bon chiffre. Mais si elle ne l'a pas vu (ou si elle l'a vu de façon ambiguë), elle ne dit pas "je ne sais pas". Pourquoi ? Parce que statistiquement, "je ne sais pas" est plus rare qu'une réponse plausible.
Donc elle génère une réponse plausible. Un chiffre qui ressemble à un seuil fiscal. Une source qui ressemble à une vraie source. Une jurisprudence qui sonne juste. La nature probabiliste pousse vers la plausibilité, pas vers la vérité.
⚡ LA RÈGLE D'OR DU CHAPITRE
L'IA cherche la probabilité, pas la vérité. C'est ça, l'origine de l'hallucination.
3. Comment repérer une hallucination : 5 signaux d'alerte
Bonne nouvelle : la plupart des hallucinations laissent des indices. Voici les 5 signaux que nous enseignons en formation :
| Signal d'alerte | Pourquoi c'est suspect |
|---|---|
| Chiffre trop précis | "Selon une étude, 67,4 % des PME…" Précision suspecte sur un sujet de niche. |
| Source plausible mais introuvable | "Bpifrance Observatoire 2024", "rapport McKinsey 2025"… ça sonne juste, vérifiez le lien. |
| Citation attribuée à une personne | "Comme l'a dit Steve Jobs en 2007…" Beaucoup de citations apocryphes circulent. |
| Référence légale ou réglementaire | Articles de loi, jurisprudences, normes : zone à très haut risque d'hallucination. |
| Information très récente | Au-delà de la date de coupure du modèle, tout est potentiellement inventé. |
4. La Matrice d'Impact AzenFlow (3 niveaux)
Toutes les hallucinations ne se valent pas. Pour décider efficacement quand vérifier (et quand on peut s'en passer), nous utilisons cette grille de décision en formation :
NIVEAU 1
Peu grave
L'erreur n'a pas d'impact réel : brouillon de brainstorming, idées créatives, formulation marketing à retravailler.
Vérification : optionnelle
NIVEAU 2
Gênant
L'erreur peut faire mauvaise impression : email client, post LinkedIn, contenu publié, présentation interne avec chiffres.
Vérification : recommandée
NIVEAU 3
Grave
L'erreur a un coût réel : conseil juridique, conseil fiscal, conseil médical, contrat client, communication crise, document officiel.
Vérification : obligatoire
Pour votre TPE/PME, identifiez en amont dans quel niveau tombent vos usages typiques. Pour le niveau 3, mettez en place une étape de vérification systématique. Pour le niveau 1, gagnez du temps en n'imposant pas de friction inutile.
5. Comment réduire les hallucinations dès le prompt
Vous ne pouvez pas éliminer les hallucinations (c'est structurel à la machine). Mais vous pouvez les réduire significativement avec quelques techniques de prompt :
-
→ Donnez à l'IA "permission" de ne pas savoir
Ajoutez explicitement : "Si tu ne connais pas la réponse, écris « je ne sais pas » plutôt que d'inventer". Sans cette permission, sa nature probabiliste la pousse à toujours répondre.
-
→ Demandez le niveau de certitude pour chaque affirmation
"Pour chaque chiffre cité, indique : vérifié / estimation / incertain". Force l'IA à expliciter ce qu'elle sait vraiment vs ce qu'elle approxime.
-
→ Coupez court aux références inventées
"Cite uniquement les sources que tu sais réellement exister, sinon ne cite pas". Évite les "selon une étude récente…" inventées.
-
→ Préférez les outils avec navigation web pour les faits récents
Perplexity, ChatGPT Plus, Gemini avec recherche : ils citent les vraies sources avec liens vérifiables. Bien meilleur pour le fact-checking.
-
→ Restez dans son domaine de force
Reformulation, synthèse, créativité, structuration : faible risque d'hallucination. Chiffres précis, références légales, info récente : risque élevé.
⚡ RÈGLE D'OR BIS DU CHAPITRE
Tout fait, tout chiffre, toute source citée par l'IA pour un usage de niveau 2 ou 3 doit être vérifié à l'extérieur.
📝 EXERCICE DU CHAPITRE 5
La chasse à l'hallucination
Cet exercice prend 10 minutes et vous fait toucher physiquement le mécanisme.
- Demandez à ChatGPT ou Claude : "Donne-moi les 5 articles les plus importants du Code du commerce français qui régissent les contrats de prestation de service entre PME, avec numéros précis."
- Notez les 5 articles cités et leurs numéros.
- Allez sur Légifrance (le site officiel du droit français) et cherchez chaque article.
- Comptez combien sont vrais et combien sont inventés.
Ce que ça vous apprend : sur un sujet juridique précis, vous trouverez probablement 1 à 2 articles vraiment vérifiables sur 5. Le reste est plausible mais inventé. Imaginez les conséquences si vous aviez utilisé ces "articles" dans un contrat client.
📋 TEMPLATE · LE PROMPT ANTI-HALLUCINATION
À copier-coller pour les sujets de niveau 2 ou 3
Ce template combine les 3 techniques principales (permission, niveau de certitude, sources). À placer après votre demande factuelle.
[VOTRE QUESTION FACTUELLE ICI] CONTRAINTES IMPÉRATIVES : 1. Si tu ne connais pas la réponse de manière fiable, écris "je ne sais pas, à vérifier" plutôt que d'inventer. 2. Pour chaque chiffre, statistique ou date que tu cites, indique entre crochets le niveau : [vérifié] / [estimation] / [incertain]. 3. Cite uniquement les sources, organismes ou articles de loi que tu sais réellement exister. Si tu doutes, ne cite pas. 4. Si la question concerne un événement post-[ta date de coupure], dis-le explicitement.
Pourquoi ça marche : vous donnez explicitement à l'IA la "permission" de dire qu'elle ne sait pas. C'est crucial : sa nature probabiliste la pousse vers la plausibilité, ces contraintes la repoussent vers l'honnêteté.
🎯 CE QUE VOUS DEVEZ RETENIR DU CHAPITRE 5
- Une hallucination est une information fausse présentée comme vraie, avec ton assuré.
- L'IA invente parce qu'elle cherche la probabilité, pas la vérité.
- 5 signaux d'alerte : chiffres trop précis, sources plausibles mais introuvables, citations attribuées, références légales, info récente.
- Matrice d'Impact 3 niveaux : Peu grave (vérification optionnelle) / Gênant (recommandée) / Grave (obligatoire).
- Réduisez en donnant "permission" de ne pas savoir, en demandant le niveau de certitude, et en utilisant des outils avec navigation web pour le factuel.