Une IA ne ment pas. Elle ne dit pas non plus la vérité. Elle ne sait pas ce qui est vrai ou ce sui est faux, elle calcule des probabilités. Son « raisonnement » se résume à deviner quel mot a le plus de chances de suivre le précédent, selon les milliards de phrases qu’on lui a montrées.
Le résultat peut être bluffant : fluide, élégant, convaincant. Mais cette aisance n’est qu’une illusion. Ce que nous lisons n’est pas un savoir vérifié, c’est une suite de mots qui « tombent bien ». Parfois juste, parfois faux, parfois ni l’un ni l’autre.
Le vrai danger n’est donc pas l’IA elle-même, mais notre réflexe humain : confondre cohérence et vérité. Autrement dit, prendre des vessies pour des lanternes. C’est ce glissement subtil, presque imperceptible, qui ouvre la porte à la confusion par ignorance de son fonctionnement, et par excès de confiance dans ce qui « sonne juste ».