ChatGPT a déjà bouleversé notre manière de travailler, d’apprendre, de créer et même d’organiser notre pensée. Pourtant, derrière les performances spectaculaires de l’intelligence artificielle se cachent aussi des limites profondes, hallucinations, biais, opacité, dépendance technologique et transformation silencieuse de nos repères intellectuels. Cet article propose de comprendre comment ChatGPT révolutionne le monde, non seulement dans nos usages quotidiens, mais aussi dans notre rapport au savoir, à l’éducation, au travail et à l’avenir même de notre civilisation.
Étiquette : <span>ETHIQUE</span>
On a gavé une machine avec 10 millions de livres. Puis on lui a appris l’humanité.
Le résultat ? GPT-3 s’est mis à faire des maths avancées. Sans qu’on le lui enseigne. Il traduisait entre langages informatiques. Détectait des émotions invisibles. Écrivait des sonnets sous contraintes impossibles.
Puis GPT-4.5 est arrivé. Moins bon que son prédécesseur sur certains tests. Sans raison apparente.
Comme si ces modèles avaient leur propre météo cognitive.
Entre 2018 et 2022, dans le secret des labos, on a créé quelque chose qu’on ne comprend pas complètement. Quelque chose qui développe des capacités que personne ne lui a enseignées. Et qui les perd parfois, sans qu’on sache pourquoi.
Coût de l’opération : 200 millions de dollars. 25 000 GPU. 20 000 heures de travail humain pour lui apprendre la politesse.
Si leurs créateurs découvrent des aptitudes après coup, quelles autres surprises nous réservent-ils ?
Un orchestre sans chef, c’est le chaos organisé. Chaque musicien joue juste, mais ensemble, ça dérive. Les IA, c’est pareil. Elles produisent des textes bluffants tout en pouvant déraper à chaque phrase, avec le même ton assuré. Pendant longtemps, on a cru qu’il n’y avait que deux options : mieux leur parler (prompt engineering) ou les reprogrammer (fine-tuning). Mais il existe une troisième voie, plus subtile. Une manière de murmurer directement dans leurs états internes, pendant qu’elles pensent.
Ça s’appelle le steering.
Et ça change tout et pas seulement notre rapport aux IA.
Notre rapport à nous-mêmes aussi.
Vous est-il déjà arrivé de passer vingt minutes à scroller, lire, regarder… puis de refermer LinkedIn avec une sensation étrange, celle d’avoir consommé beaucoup sans rien vraiment apprendre ?
Ce n’est pas un manque de curiosité ni de discipline. C’est l’effet d’un nouvel environnement informationnel où l’IA produit des contenus fluides, rassurants, immédiatement consommables, mais souvent pauvres en substance. On appelle cela l’IA Slop, une nourriture intellectuelle qui rassasie sur le moment, sans jamais nourrir la pensée.
Nous passons notre temps à traquer l’erreur, comme si elle était l’ennemie du progrès. Pourtant, sans elle, aucune connaissance ne surgirait, aucun apprentissage ne tiendrait debout. L’erreur est le moteur discret de toute intelligence.
Le problème commence lorsque nous la confondons avec la tromperie, et lorsque nous projetons sur nos machines le fantasme d’une perfection que nous n’avons jamais su atteindre nous-mêmes.
Sans conscience de nos biais, l’intelligence artificielle ne peut devenir qu’un miroir grossissant de nos propres angles morts. Cet article propose un pas de côté, non pour condamner la technologie, mais pour rappeler une chose simple et exigeante, ce n’est pas la machine qui doit devenir parfaite, c’est notre regard sur nos propres limites qui doit devenir plus lucide.




