Cabinet de stratégie IA · 100 % remote · France & Europe
CHAPITRE 2 / 12 10 min de lecture Tous niveaux

Ce que l'IA EST
(et ce qu'elle n'est PAS).

Tant que vous croyez que ChatGPT "réfléchit", vous allez le prompter comme un humain. Et vous allez être déçu.

Dans ce chapitre, on remet les pendules à l'heure. Pas de magie. Pas de conscience. Une mécanique simple à comprendre, qui une fois saisie change radicalement votre façon d'utiliser ces outils.

1. Ce que vous croyez que ChatGPT est

Quand vous tapez une question dans ChatGPT, vous avez probablement l'impression de discuter avec quelqu'un. Quelqu'un qui comprend, qui réfléchit, qui sait des choses, qui a un avis. C'est une illusion très convaincante : la machine emploie le "je", utilise des nuances, semble hésiter parfois, exprime de l'empathie. Bref, elle se comporte comme un humain.

C'est exactement ce que ses concepteurs voulaient produire : une expérience d'interaction qui mime celle d'un humain compétent. Et ils ont magnifiquement réussi.

Sauf que cette illusion est précisément la source de votre frustration. Tant que vous prompterez ChatGPT comme s'il comprenait votre métier, vos enjeux et votre contexte, vous serez systématiquement déçu. Parce qu'il ne comprend rien de tout ça.

⚡ RÈGLE D'OR N°1 DU CHAPITRE

ChatGPT ne réfléchit pas. Il prédit la suite la plus probable de votre texte.

2. Ce que ChatGPT est vraiment : une calculatrice de mots

Sous le capot, ChatGPT, Claude et Gemini sont ce qu'on appelle des LLM (Large Language Models). Leur seul vrai talent, c'est de prédire la suite d'un texte. Rien de plus.

Concrètement, quand vous écrivez "Le ciel est…", le modèle calcule des probabilités sur le mot suivant. Il sait que dans les milliards de phrases vues à l'entraînement, après "Le ciel est" venait souvent : "bleu" (probabilité élevée), "nuageux", "limite", "dégagé"… Puis il choisit l'un de ces mots, et recommence pour le suivant.

C'est exactement le même principe qu'une calculatrice : vous lui donnez 2 + 2, elle calcule 4. Vous lui donnez "Écris-moi un email", elle calcule la suite la plus probable d'un texte qui ressemble à un email. La seule différence, c'est que les "calculs" portent sur des mots et utilisent des milliards de paramètres.

3. La métaphore du judoka

Pour vraiment ancrer cette idée, voici une métaphore que nous utilisons en formation chez AzenFlow.

Imaginez : je vous dis "sac de…". Quels mots votre cerveau vous propose-t-il ? Probablement : "course", "voyage", "couchage", "papier", "frappe". Mille possibilités, peu probables sont saugrenues.

Maintenant je vous dis "sac de judoka avec un kimono de…". L'éventail se réduit énormément : "compétition", "entraînement", "cérémonie". Quelques options seulement.

Enfin "sac de judoka avec un kimono de compétition et une ceinture noire de niveau…". Là, c'est presque sûr : "1ᵉʳ dan", "2ᵉ dan", éventuellement "junior". Quasiment plus de choix.

C'est exactement ce que fait ChatGPT à chaque mot. Plus le contexte que vous donnez est précis, plus la prédiction est juste. Moins il y a de contexte, plus la machine "invente" des suites possibles dans toutes les directions.

🥋 LA MÉTAPHORE EN 1 PHRASE

Donnez à l'IA le maximum de contexte précis : vous réduisez ses options, donc elle choisit mieux.

4. Ce que l'IA n'est PAS (5 idées à abandonner)

Maintenant qu'on a posé ce qu'elle EST (une machine probabiliste), voici 5 choses que ChatGPT n'est absolument pas, malgré les apparences :

Ce qu'elle n'est PAS Ce que ça veut dire pour vous
Pas une conscienceQuand elle dit "je pense que…", c'est juste la suite la plus probable. Elle ne pense rien.
Pas une encyclopédie temps réelElle a une date d'arrêt de connaissance. Elle ne sait rien des événements après cette date, sauf si vous le lui dites.
Pas une mémoire entre vos sessionsChaque nouvelle conversation repart de zéro. Elle ne se souvient pas de votre métier ni de vos préférences.
Pas un calculateur fiableElle se trompe régulièrement sur les calculs simples. Pour de la finance, vérifiez systématiquement.
Pas une source vérifiableElle peut citer des références qui n'existent pas. Toute affirmation factuelle doit être vérifiée à l'extérieur.

5. Pourquoi cette compréhension change tout pour votre TPE/PME

Vous me direz : "OK c'est cool de savoir comment ça marche, mais concrètement ?". Concrètement, voilà ce qui change dès que vous intégrez ce modèle mental :

  • → Vous arrêtez de poser des questions vagues

    Vous savez que sans contexte, la machine choisit au hasard parmi 1000 options. Donc vous donnez du contexte. C'est mécanique.

  • → Vous arrêtez de croire ses chiffres

    Quand elle dit "40 % des PME françaises…", vous vérifiez. Toujours. Surtout pour décider en codir ou en client.

  • → Vous arrêtez d'attendre qu'elle se "souvienne"

    À chaque nouvelle conversation, vous redonnez le contexte essentiel. Ou vous gardez tout dans une seule conversation longue.

  • → Vous comprenez pourquoi elle "invente"

    Ce n'est pas un bug. Quand elle ne sait pas, sa nature probabiliste la pousse à fournir une réponse plausible plutôt que dire "je ne sais pas". On en parle au chapitre 5 (hallucinations).

⚡ RÈGLE D'OR N°2 DU CHAPITRE

Plus le contexte est précis, plus l'éventail des suites possibles se réduit, plus la machine choisit juste.

📝 EXERCICE DU CHAPITRE 2

Le test du judoka inversé

Cet exercice prend 5 minutes et vous fait sentir physiquement la mécanique probabiliste.

  1. Ouvrez ChatGPT ou Claude.
  2. Test 1 : tapez juste "Termine cette phrase : Le marché de…". Notez la diversité des réponses si vous régénérez 3 fois.
  3. Test 2 : tapez "Termine cette phrase : Dans le cadre d'un cabinet comptable de 12 personnes en région lyonnaise spécialisé sur les TPE-BTP, le marché de…". Notez à quel point les réponses sont maintenant précises et cohérentes.
  4. Conclusion : la même question, avec et sans contexte, donne des résultats radicalement différents. Vous venez de voir le modèle probabiliste en action.

Ce que ça vous apprend : le contexte est le carburant N°1 d'un bon prompt. Pas la longueur. Pas le ton. Le contexte.

📋 TEMPLATE · TESTER L'IA SUR SES LIMITES

Le prompt de "vérification de capacité"

À copier-coller au début d'une conversation pour calibrer ce que l'IA peut ou ne peut pas faire dans votre contexte.

Avant de commencer, je veux calibrer tes capacités sur mon sujet.

1. Quelle est ta date de coupure de connaissance ?
2. Connais-tu le secteur [VOTRE SECTEUR] en France ?
3. Sur ce secteur, quelles sont tes 3 limites principales (ce que tu ne peux pas faire ou risques d'inventer) ?
4. Réponds-moi clairement : "je sais" / "j'estime" / "je ne sais pas" pour chaque réponse.

Pourquoi ça marche : vous forcez l'IA à expliciter ses limites au lieu d'inventer. Vous gagnez du temps en sachant immédiatement où elle est fiable et où elle ne l'est pas.

🎯 CE QUE VOUS DEVEZ RETENIR DU CHAPITRE 2

  1. ChatGPT ne réfléchit pas. Il prédit la suite la plus probable de votre texte.
  2. C'est une calculatrice de mots, pas une intelligence consciente.
  3. La métaphore du judoka : plus vous donnez de contexte précis, plus les options se réduisent, plus le résultat est juste.
  4. Ce qu'elle n'est PAS : une conscience, une encyclopédie temps réel, une mémoire long terme, un calculateur fiable, une source vérifiable.
  5. Cette compréhension change tout : vous arrêtez de poser des questions vagues, vous vérifiez les chiffres, vous redonnez le contexte à chaque session.
QUESTIONS FRÉQUENTES

Questions fréquentes sur ce chapitre

Si ChatGPT ne "réfléchit" pas, comment peut-il résoudre des problèmes complexes ?

Parce qu'il a vu à l'entraînement des milliards de raisonnements humains documentés. Quand vous lui demandez de résoudre un problème, il génère la suite de mots la plus probable, c'est-à-dire celle qui ressemble le plus aux raisonnements vus à l'entraînement. C'est très efficace pour les problèmes "déjà vus" sous une forme similaire. Beaucoup moins pour les problèmes vraiment nouveaux ou très spécifiques à votre métier.

Quelle est la "date de coupure de connaissance" de ChatGPT et de Claude ?

Cela varie selon les versions et évolue tous les trimestres. Posez la question directement à l'IA en début de conversation : "Quelle est ta date de coupure de connaissance ?". À noter : certains modèles (Perplexity, ChatGPT avec navigation web) peuvent accéder à des informations récentes via une recherche web en temps réel. Mais sans cette fonctionnalité, leur connaissance est figée.

Pourquoi l'IA est-elle si convaincante alors qu'elle ne comprend rien ?

Parce qu'elle a été entraînée sur l'équivalent de millions de livres et de discussions humaines. Elle reproduit donc parfaitement les patterns du langage humain (nuances, hésitations, empathie, structure). C'est ce qui la rend utile : elle parle "comme un humain compétent". Mais cette compétence linguistique n'implique aucune compréhension réelle. C'est une distinction philosophique importante (le "test de Turing" et ses limites).

Si elle ne sait pas, pourquoi répond-elle quand même ?

Parce que sa nature probabiliste la pousse à toujours générer la suite "la plus plausible". Dire "je ne sais pas" est une réponse possible, mais souvent moins probable statistiquement qu'une réponse plausible. C'est ce qu'on appelle les hallucinations : l'IA invente pour combler le vide. On y consacre tout le chapitre 5 du cours.

Tous les LLM (ChatGPT, Claude, Gemini) fonctionnent-ils pareil ?

Sur le principe fondamental, oui : ce sont tous des modèles probabilistes qui prédisent la suite d'un texte. Les différences viennent des données d'entraînement, de la taille du modèle, des techniques de fine-tuning et des "garde-fous" appliqués par chaque éditeur. Claude a tendance à être plus prudent et structuré, ChatGPT plus créatif et bavard, Gemini plus orienté recherche. La méthode CADRE marche identiquement sur tous.

Vous voulez aller plus vite avec votre équipe ?

Une formation intra payante applique CADRE et le modèle mental probabiliste à vos vrais cas d'usage métier. Audit 45 min gratuit pour qualifier votre besoin.