Étiquette : <span>IA</span>

On a gavé une machine avec 10 millions de livres. Puis on lui a appris l’humanité.

Le résultat ? GPT-3 s’est mis à faire des maths avancées. Sans qu’on le lui enseigne. Il traduisait entre langages informatiques. Détectait des émotions invisibles. Écrivait des sonnets sous contraintes impossibles.

Puis GPT-4.5 est arrivé. Moins bon que son prédécesseur sur certains tests. Sans raison apparente.

Comme si ces modèles avaient leur propre météo cognitive.

Entre 2018 et 2022, dans le secret des labos, on a créé quelque chose qu’on ne comprend pas complètement. Quelque chose qui développe des capacités que personne ne lui a enseignées. Et qui les perd parfois, sans qu’on sache pourquoi.

Coût de l’opération : 200 millions de dollars. 25 000 GPU. 20 000 heures de travail humain pour lui apprendre la politesse.

Si leurs créateurs découvrent des aptitudes après coup, quelles autres surprises nous réservent-ils ?

OPINION

ChatGPT ne pense pas. Et c’est encore plus fascinant que vous ne l’imaginez.

Vous croyez dialoguer avec une intelligence ? En réalité, vous conversez avec le perroquet le plus sophistiqué jamais créé.

Un perroquet qui a lu l’intégralité de Wikipedia, tous les livres de la BnF, des millions d’articles et de forums. Un perroquet capable de deviner, avec une précision troublante, le mot exact qui devrait suivre dans n’importe quelle conversation.

Pas parce qu’il comprend. Mais parce qu’il a assimilé les patterns de tout ce que l’humanité a écrit.

La différence entre penser et prédire ? Elle est vertigineuse.

Plongez au cœur de la machine. Découvrez ce qui se cache vraiment derrière la magie apparente.

OPINION

Pendant des années, les géants de l’IA ont joué à la même loterie : empiler toujours plus de couches, injecter toujours plus de puissance de calcul, espérer que ça tienne. Parfois, après des mois d’entraînement et des millions de dollars dépensés, tout s’effondrait d’un coup. Sans prévenir.

Le problème ? Personne ne savait vraiment pourquoi.

Puis DeepSeek a ressorti des cartons un vieil algorithme de 1967, oublié dans un papier de mathématiques poussiéreux. Un truc qui n’avait rien à voir avec l’IA à l’origine. Juste des matrices et de la géométrie. Et avec ça, ils ont réussi là où les autres échouaient.

Ce n’est pas juste une amélioration technique. C’est un changement de philosophie complet. La preuve qu’on peut faire mieux avec moins, que l’intelligence n’est pas qu’une question de taille, mais d’architecture.

L’histoire de comment un algorithme vieux de 60 ans vient de redistribuer les cartes dans la course à l’IA.

OPINION

Un orchestre sans chef, c’est le chaos organisé. Chaque musicien joue juste, mais ensemble, ça dérive. Les IA, c’est pareil. Elles produisent des textes bluffants tout en pouvant déraper à chaque phrase, avec le même ton assuré. Pendant longtemps, on a cru qu’il n’y avait que deux options : mieux leur parler (prompt engineering) ou les reprogrammer (fine-tuning). Mais il existe une troisième voie, plus subtile. Une manière de murmurer directement dans leurs états internes, pendant qu’elles pensent.

Ça s’appelle le steering.
Et ça change tout et pas seulement notre rapport aux IA.
Notre rapport à nous-mêmes aussi.

OPINION

Nous passons notre temps à traquer l’erreur, comme si elle était l’ennemie du progrès. Pourtant, sans elle, aucune connaissance ne surgirait, aucun apprentissage ne tiendrait debout. L’erreur est le moteur discret de toute intelligence.

Le problème commence lorsque nous la confondons avec la tromperie, et lorsque nous projetons sur nos machines le fantasme d’une perfection que nous n’avons jamais su atteindre nous-mêmes.

Sans conscience de nos biais, l’intelligence artificielle ne peut devenir qu’un miroir grossissant de nos propres angles morts. Cet article propose un pas de côté, non pour condamner la technologie, mais pour rappeler une chose simple et exigeante, ce n’est pas la machine qui doit devenir parfaite, c’est notre regard sur nos propres limites qui doit devenir plus lucide.

OPINION