La semaine dernière je parlais d’un point souvent mal compris : pour les IA, la vérité n’existe pas.
Aujourd’hui, je pousse le raisonnement un cran plus loin. Car il y a un malentendu encore plus ancré : croire qu’un LLM est une base de connaissance. Ce n’est pas le cas. Un modèle de langage génère des suites de mots probables, pas des faits vérifiés. Autrement dit, il récite avec aisance, mais il ne cite jamais.
C’est exactement ce que je développe dans mon nouvel article : pourquoi cette confusion persiste, et comment distinguer une mémoire paramétrique d’une mémoire explicite, pour enfin marier correctement les deux.