Tout le monde parle de ChatGPT, Claude, Gemini. Peu de gens comprennent ce qui se passe réellement quand on tape une question. Ce n'est pas de la magie. Ce n'est pas non plus de l'intelligence au sens humain. C'est autre chose — et comprendre cette "autre chose" change la façon dont on utilise ces outils.
Le perroquet statistique — une métaphore imparfaite mais utile
On a souvent entendu que les LLM sont des "perroquets stochastiques" — ils répètent des patterns sans comprendre. C'est partiellement vrai, mais c'est réducteur.
Un LLM ne stocke pas du texte qu'il recrache. Il a *appris* des relations statistiques entre les mots. Quand il génère "Le chat est sur le...", il ne cherche pas dans une base de données. Il calcule que "tapis", "canapé" ou "lit" ont une forte probabilité de suivre, basé sur des milliards d'exemples.
Ce que ça signifie concrètement : Un LLM ne "sait" rien au sens strict. Il prédit. Très bien. Mais prédire n'est pas savoir.
Tokens — pourquoi l'IA découpe vos mots bizarrement
Les LLM ne lisent pas des mots. Ils lisent des "tokens" — des morceaux de mots.
"Anticonstitutionnellement" devient plusieurs tokens : "Anti", "constitu", "tion", "nell", "ement". Le mot "the" en anglais est un seul token. Le mot "Sion" (la ville) peut être découpé en "S" + "ion".
Pourquoi c'est important :
L'entraînement — des milliards de textes, aucune vérité
Un LLM est entraîné sur des quantités massives de texte : livres, sites web, articles, forums, code source. Tout ce qui est écrit par des humains.
Le problème : Internet contient du vrai et du faux. Le LLM apprend les deux sans distinction. Il apprend que "la terre est ronde" ET que "la terre est plate" existent comme phrases. Il ne sait pas laquelle est vraie — il sait juste laquelle est plus fréquente dans certains contextes.
C'est pour ça que les LLM "hallucinent" : ils génèrent du texte plausible, pas du texte vrai. Si vous demandez un fait obscur, le modèle va produire quelque chose de crédible — qu'il soit exact ou inventé.
Température — le curseur créativité/précision
Quand un LLM génère du texte, il peut être plus ou moins "créatif". C'est contrôlé par un paramètre appelé température.
En pratique :
Ce que ça change pour vous
Comprendre ces mécanismes change la façon d'interagir avec un LLM :
1. Ne lui faites pas confiance pour les faits
Vérifiez toujours. Surtout les dates, les chiffres, les citations.
2. Soyez précis
Plus votre demande est claire, moins le modèle doit "deviner". Moins il devine, moins il invente.
3. Le contexte compte
Un LLM avec l'historique de votre conversation performe mieux qu'un LLM "à froid".
4. Les limites ne sont pas des bugs
L'hallucination n'est pas un problème qu'OpenAI va "réparer". C'est inhérent au fonctionnement.
Ce qu'il faut retenir
- -Un LLM prédit le texte probable, il ne "comprend" pas au sens humain.
- -Les tokens limitent la mémoire — les conversations longues perdent du contexte.
- -L'entraînement sur Internet inclut le vrai ET le faux — d'où les hallucinations.
- -La température contrôle le curseur créativité/fiabilité.
- -Comprendre les limites permet de mieux utiliser l'outil.