Cabinet de stratégie IA · 100 % remote · France & Europe
CHAPITRE 5 / 12 10 min de lecture Risque business

Hallucinations : pourquoi l'IA invente.

ChatGPT peut inventer un chiffre, une étude, un nom de loi, un numéro de téléphone. Avec autant d'assurance qu'un vrai. Et sans aucun signal d'alerte.

Dans ce chapitre, on dissèque pourquoi l'IA invente, comment repérer les hallucinations, et surtout quand s'en inquiéter vraiment grâce à la Matrice d'Impact AzenFlow.

1. Qu'est-ce qu'une hallucination ?

Une hallucination, c'est quand l'IA produit une information fausse mais présentée comme vraie. Un chiffre inventé, une source qui n'existe pas, une citation jamais prononcée, une jurisprudence qui n'a jamais existé.

Ce qui rend la chose pénible : l'IA présente l'hallucination avec le même ton assuré que les vraies informations. Aucun "je pense que", aucun "peut-être", aucun signal d'incertitude. Une statistique inventée arrive avec la même force qu'une vraie.

Exemples concrets vus en formation chez nos clients TPE/PME :

  • Cabinet d'avocats

    L'IA cite un arrêt de la Cour de cassation avec un numéro précis. L'arrêt n'existe pas. Le client dit "j'ai failli le citer dans une plaidoirie".

  • Agence marketing

    L'IA donne une statistique "67 % des PME françaises…" avec une source Bpifrance précise. La source existe, le chiffre est inventé.

  • Cabinet comptable

    L'IA invente un seuil fiscal "40 000 € pour le micro-BIC". Le vrai seuil est différent. Une vraie réponse client aurait coûté cher.

2. Pourquoi l'IA invente (la mécanique sous-jacente)

Souvenez-vous du chapitre 2 : ChatGPT est un modèle probabiliste. Il prédit la suite la plus probable de votre texte. Il ne "sait" rien au sens humain. Il calcule.

Quand vous lui demandez "Quel est le seuil micro-BIC en 2026 ?", la machine calcule la suite de mots la plus probable. Si elle a vu ce sujet dans ses données d'entraînement, la suite la plus probable contient le bon chiffre. Mais si elle ne l'a pas vu (ou si elle l'a vu de façon ambiguë), elle ne dit pas "je ne sais pas". Pourquoi ? Parce que statistiquement, "je ne sais pas" est plus rare qu'une réponse plausible.

Donc elle génère une réponse plausible. Un chiffre qui ressemble à un seuil fiscal. Une source qui ressemble à une vraie source. Une jurisprudence qui sonne juste. La nature probabiliste pousse vers la plausibilité, pas vers la vérité.

⚡ LA RÈGLE D'OR DU CHAPITRE

L'IA cherche la probabilité, pas la vérité. C'est ça, l'origine de l'hallucination.

3. Comment repérer une hallucination : 5 signaux d'alerte

Bonne nouvelle : la plupart des hallucinations laissent des indices. Voici les 5 signaux que nous enseignons en formation :

Signal d'alerte Pourquoi c'est suspect
Chiffre trop précis"Selon une étude, 67,4 % des PME…" Précision suspecte sur un sujet de niche.
Source plausible mais introuvable"Bpifrance Observatoire 2024", "rapport McKinsey 2025"… ça sonne juste, vérifiez le lien.
Citation attribuée à une personne"Comme l'a dit Steve Jobs en 2007…" Beaucoup de citations apocryphes circulent.
Référence légale ou réglementaireArticles de loi, jurisprudences, normes : zone à très haut risque d'hallucination.
Information très récenteAu-delà de la date de coupure du modèle, tout est potentiellement inventé.

4. La Matrice d'Impact AzenFlow (3 niveaux)

Toutes les hallucinations ne se valent pas. Pour décider efficacement quand vérifier (et quand on peut s'en passer), nous utilisons cette grille de décision en formation :

NIVEAU 1

Peu grave

L'erreur n'a pas d'impact réel : brouillon de brainstorming, idées créatives, formulation marketing à retravailler.

Vérification : optionnelle

NIVEAU 2

Gênant

L'erreur peut faire mauvaise impression : email client, post LinkedIn, contenu publié, présentation interne avec chiffres.

Vérification : recommandée

NIVEAU 3

Grave

L'erreur a un coût réel : conseil juridique, conseil fiscal, conseil médical, contrat client, communication crise, document officiel.

Vérification : obligatoire

Pour votre TPE/PME, identifiez en amont dans quel niveau tombent vos usages typiques. Pour le niveau 3, mettez en place une étape de vérification systématique. Pour le niveau 1, gagnez du temps en n'imposant pas de friction inutile.

5. Comment réduire les hallucinations dès le prompt

Vous ne pouvez pas éliminer les hallucinations (c'est structurel à la machine). Mais vous pouvez les réduire significativement avec quelques techniques de prompt :

  • → Donnez à l'IA "permission" de ne pas savoir

    Ajoutez explicitement : "Si tu ne connais pas la réponse, écris « je ne sais pas » plutôt que d'inventer". Sans cette permission, sa nature probabiliste la pousse à toujours répondre.

  • → Demandez le niveau de certitude pour chaque affirmation

    "Pour chaque chiffre cité, indique : vérifié / estimation / incertain". Force l'IA à expliciter ce qu'elle sait vraiment vs ce qu'elle approxime.

  • → Coupez court aux références inventées

    "Cite uniquement les sources que tu sais réellement exister, sinon ne cite pas". Évite les "selon une étude récente…" inventées.

  • → Préférez les outils avec navigation web pour les faits récents

    Perplexity, ChatGPT Plus, Gemini avec recherche : ils citent les vraies sources avec liens vérifiables. Bien meilleur pour le fact-checking.

  • → Restez dans son domaine de force

    Reformulation, synthèse, créativité, structuration : faible risque d'hallucination. Chiffres précis, références légales, info récente : risque élevé.

⚡ RÈGLE D'OR BIS DU CHAPITRE

Tout fait, tout chiffre, toute source citée par l'IA pour un usage de niveau 2 ou 3 doit être vérifié à l'extérieur.

📝 EXERCICE DU CHAPITRE 5

La chasse à l'hallucination

Cet exercice prend 10 minutes et vous fait toucher physiquement le mécanisme.

  1. Demandez à ChatGPT ou Claude : "Donne-moi les 5 articles les plus importants du Code du commerce français qui régissent les contrats de prestation de service entre PME, avec numéros précis."
  2. Notez les 5 articles cités et leurs numéros.
  3. Allez sur Légifrance (le site officiel du droit français) et cherchez chaque article.
  4. Comptez combien sont vrais et combien sont inventés.

Ce que ça vous apprend : sur un sujet juridique précis, vous trouverez probablement 1 à 2 articles vraiment vérifiables sur 5. Le reste est plausible mais inventé. Imaginez les conséquences si vous aviez utilisé ces "articles" dans un contrat client.

📋 TEMPLATE · LE PROMPT ANTI-HALLUCINATION

À copier-coller pour les sujets de niveau 2 ou 3

Ce template combine les 3 techniques principales (permission, niveau de certitude, sources). À placer après votre demande factuelle.

[VOTRE QUESTION FACTUELLE ICI]

CONTRAINTES IMPÉRATIVES :
1. Si tu ne connais pas la réponse de manière fiable, écris "je ne sais pas, à vérifier" plutôt que d'inventer.
2. Pour chaque chiffre, statistique ou date que tu cites, indique entre crochets le niveau : [vérifié] / [estimation] / [incertain].
3. Cite uniquement les sources, organismes ou articles de loi que tu sais réellement exister. Si tu doutes, ne cite pas.
4. Si la question concerne un événement post-[ta date de coupure], dis-le explicitement.

Pourquoi ça marche : vous donnez explicitement à l'IA la "permission" de dire qu'elle ne sait pas. C'est crucial : sa nature probabiliste la pousse vers la plausibilité, ces contraintes la repoussent vers l'honnêteté.

🎯 CE QUE VOUS DEVEZ RETENIR DU CHAPITRE 5

  1. Une hallucination est une information fausse présentée comme vraie, avec ton assuré.
  2. L'IA invente parce qu'elle cherche la probabilité, pas la vérité.
  3. 5 signaux d'alerte : chiffres trop précis, sources plausibles mais introuvables, citations attribuées, références légales, info récente.
  4. Matrice d'Impact 3 niveaux : Peu grave (vérification optionnelle) / Gênant (recommandée) / Grave (obligatoire).
  5. Réduisez en donnant "permission" de ne pas savoir, en demandant le niveau de certitude, et en utilisant des outils avec navigation web pour le factuel.
QUESTIONS FRÉQUENTES

Questions fréquentes sur ce chapitre

Pourquoi ChatGPT ne dit-il pas plus souvent "je ne sais pas" ?

Sa nature probabiliste lui fait choisir la suite de mots la plus plausible. Statistiquement, "je ne sais pas" est souvent moins probable qu'une réponse plausible. Sans contrainte explicite dans votre prompt, il choisit donc la plausibilité. Les nouvelles versions (ChatGPT 4.5, Claude Sonnet 4.6) ont été entraînées à plus dire "je ne sais pas", mais ça reste insuffisant pour l'usage business.

Quels modèles hallucinent le moins ?

Globalement, Claude (Anthropic) est réputé un peu plus prudent que ChatGPT. Mais aucun modèle n'est immunisé. Pour minimiser le risque, l'approche la plus efficace n'est pas le choix du modèle mais : (1) utiliser un modèle avec navigation web pour les sujets factuels, (2) appliquer le template anti-hallucination dans votre prompt, (3) vérifier systématiquement pour les usages de niveau 2 et 3.

Si je vérifie tout, je perds le bénéfice de l'IA, non ?

Faux. La Matrice d'Impact existe précisément pour ça. Pour 80 % de vos usages quotidiens (rédaction d'emails, brouillons, brainstorming, reformulation), vous êtes en niveau 1 : vérification optionnelle, gain de temps massif. Vous ne devez vraiment vérifier que pour les usages de niveau 2 et surtout 3. Mais sur ces usages, le coût d'une erreur dépasse largement le coût de la vérification.

Comment former mes équipes à repérer les hallucinations ?

Trois étapes : (1) leur faire lire ce chapitre 5 du cours ; (2) faire l'exercice "chasse à l'hallucination" en groupe sur des cas réels de votre métier ; (3) afficher la Matrice d'Impact en interne (par exemple, sur Notion ou Slack) et y référer en cas de doute. Pour des équipes plus larges, nos formations intra payantes incluent un module dédié avec pratique.

L'IA peut-elle inventer même quand je lui donne le texte source ?

Beaucoup moins, mais oui. Si vous lui donnez un document de 50 pages et demandez de le résumer, elle peut "inventer" en mélangeant des éléments du document, ou en ajoutant des conclusions qui ne sont pas dans le texte. Bonne pratique : demander des citations exactes du document plutôt que des conclusions reformulées, et vérifier que les citations sont bien dans le texte original.

Les hallucinations vont-elles disparaître avec les futures versions ?

Réduire, oui. Disparaître, non. Tant que l'IA reste un modèle probabiliste, le risque d'hallucination est structurel. Les progrès viennent surtout de techniques périphériques : intégration de bases de connaissances vérifiées (RAG), navigation web en temps réel, et entraînement à dire "je ne sais pas". En 2026, le risque est largement réduit pour les sujets généralistes, mais reste significatif pour les sujets de niche.

Vous voulez sécuriser l'usage IA dans votre équipe ?

La formation intra payante applique la Matrice d'Impact à vos vrais cas d'usage métier. Audit 45 min gratuit pour qualifier votre besoin.