Elle parle bien… mais elle ne pense pas
On parle beaucoup d’intelligence artificielle. Certains y voient un miracle technique. D’autres une menace civilisationnelle. Et si, avant tout, il s’agissait d’un malentendu ?
Elle parle bien. Elle écrit sans faute. Elle répond vite. Elle impressionne… Mais elle NE PENSE PAS !
L’IA n’existe pas comme on le croit. Pas plus qu’une calculette n’est un mathématicien. Ce que l’on appelle aujourd’hui intelligence artificielle n’est qu’une illusion de pensée. Un miroir statistique. Un perroquet savant. Elle calcule, mais ne comprend pas. Elle prédit, mais ne sait pas. Elle produit du langage, mais n’a jamais été traversée par le vertige d’une idée. Elle répond, mais elle ne questionne jamais son propre raisonnement. Elle aligne les mots sans jamais en peser le sens, ni en sentir le poids existentiel.
Elle est douée, certes, mais elle est vide. Vide d’intuition, de contradiction, de mémoire vive au sens humain du terme. Elle n’a pas d’enfance, pas de blessure, pas d’attente. Elle n’a jamais attendu une réponse qui tarde à venir. Jamais ressenti le déséquilibre qu’impose une vraie question. Elle n’a jamais douté d’elle-même.
C’est une machine à deviner la suite d’un mot.
Le mot « intelligence artificielle » est né en 1956, dans les couloirs d’un colloque universitaire, sous la plume de John McCarthy. Il portait alors une promesse : celle de simuler, artificiellement, certaines facultés humaines. Raisonner, apprendre, s’adapter… sans conscience, sans chair, mais avec logique. Une ambition stimulante pour l’époque.
Mais ce que le mot désignait à l’origine, et ce qu’il recouvre aujourd’hui, n’ont plus grand-chose à voir. Alors pourquoi avoir conservé ce malentendu ? Peut-être parce qu’il rassure. Parce qu’il vend. Parce qu’il fait croire qu’on peut automatiser l’esprit. Et surtout, parce que le terme lui-même est un leurre.
Ce que d’aucun appellent IA, je préfère l’appeler « Intelligence Augmentée ». Non pour lui retirer sa puissance, mais pour la remettre à sa juste place : un prolongement de certaines fonctions humaines, pas une pensée qui nous remplace. Et aussi parce que nous sommes fatigués de penser, fatigués d’hésiter, et que cette fatigue ouvre un boulevard aux machines qui « font comme si ». L’illusion de l’intelligence devient alors un confort cognitif, une délégation silencieuse de notre pouvoir le plus intime : celui de comprendre par nous-mêmes.
Mais cette illusion de pensée, aussi séduisante soit-elle, a des conséquences profondes. Car si l’on croit que la machine pense, on finit par croire que l’on peut se passer de penser nous-mêmes. Une glissade douce, imperceptible, mais bien réelle.
L’IA nous soulage… de réfléchir
Nous sommes fatigués. Trop sollicités. En permanence happés par des flux d’informations, des notifications, des décisions rapides à prendre. Notre attention est fractionnée, notre concentration mise à mal. Alors, quand une machine propose une réponse rapide, claire, convaincante, on s’en contente. On respire. On délègue. Peu à peu, l’effort recule. Le doute devient inconfortable. Le questionnement superflu. L’esprit s’habitue à ne plus chercher.
Quand les calculettes sont arrivées à l’école, on s’est demandé si les élèves n’allaient pas perdre le goût du calcul mental. Et en effet, il a décliné. Mais en échange, on a appris à raisonner autrement. On a déplacé l’effort. On a renforcé d’autres compétences : logique, abstraction, modélisation.
Avec l’IA, le risque est d’un autre ordre. Ce n’est plus un calcul qu’on délègue, c’est une part de notre raisonnement. Ce n’est plus une opération qu’on externalise, c’est une question qu’on cesse de se poser. Et à force de demander à la machine ce que nous pourrions chercher nous-mêmes, on perd l’habitude du doute. Le plaisir de creuser. L’élan de comprendre.
Peu à peu, ce que l’on appelle savoir devient synthèse instantanée. Une réponse toute faite, livrée sans effort. Une évidence qui se présente comme naturelle. Et c’est là que le soulagement devient un piège : car penser, vraiment penser, reste un acte inconfortable. Exigeant. Parfois douloureux. Mais cet inconfort est le prix de la lucidité. Et l’IA, en nous libérant de cette épreuve, ne nous rend pas plus libres. Elle nous rend moins présents. Moins impliqués. Moins maîtres de nous-mêmes.
Et cette perte d’effort n’érode pas seulement notre lucidité. Elle affaiblit aussi notre ancrage au réel. Peu à peu, ce que nous percevons du monde se fait par reflet, résumé, suggestion algorithmique. Ce que nous croyons savoir n’est plus vécu, mais reconstitué.
L’autophagie des données … vers l’oubli du réel
Les modèles d’IA apprennent en analysant ce qu’on leur donne à voir, ce qu’on appelle l’entraînement. Mais que se passe-t-il lorsque les données qu’on leur fournit… ont déjà été produites par d’autres IA ? Lorsque les textes d’origine ont été remplacés par des copies de copies, par des reformulations d’algorithmes qui tournent en boucle ?
L’IA finit alors par se nourrir d’elle-même. Elle recycle des synthèses qui n’ont jamais été pensées. Et à mesure que cette boucle se referme, ce n’est plus de la connaissance qui circule. C’est une illusion de profondeur. Un simulacre de savoir.
Ce phénomène porte un nom : l’autophagie des données !
L’autophagie, à l’origine, c’est un processus biologique utile. C’est ce qui permet à nos cellules de recycler ce qui est usé, abîmé, inutile. Mais quand ça s’emballe, ça dérape. La cellule commence à se digérer elle-même. Et si ça va trop loin, ce n’est plus du nettoyage, c’est de l’autodestruction. Elle s’attaque à ses propres tissus et se vide de l’intérieur.
Et bien avec l’IA, c’est exactement ce qui peut se passer… mais version numérique. Elle tourne en rond, se nourrit d’elle-même, oublie la source. Et nous avec. Elle ne transmet plus le savoir, elle le mime. Chaque cycle ajoute une couche de polissage, une cohérence trompeuse, mais retire un peu plus de matière, de complexité, de doute.
Ce qui reste ? Une sorte de vernis culturel qui rassure, qui donne l’illusion de savoir sans la rigueur de l’apprentissage. Le lecteur navigue dans une bibliothèque spectrale, peuplée de textes qui n’ont jamais été véritablement écrits, de pensées jamais pensées. Un décor de savoir. Vide de toute intention humaine.
Ce n’est pas seulement notre mémoire ou notre sens critique qui s’érodent. C’est notre capacité à vouloir, à initier, à décider. L’IA ne fait pas que répondre. Elle anticipe, elle suggère, elle guide subtilement nos intentions.
Le glissement de l’attention … vers l’intention
Aujourd’hui, l’IA ne se contente plus d’attendre nos questions. Elle nous devance. Elle suggère, recommande, pré-choisit. Nos intentions sont orientées avant même d’être formées. Ce n’est plus nous qui cherchons : c’est elle qui nous guide, subtilement, vers ce qu’elle estime pertinent. Nos désirs deviennent des prédictions validées.
Nous sommes ainsi passés d’une économie de l’attention à une économie de l’intention. L’IA ne se contente plus de capter notre regard : elle devine ce que nous allons vouloir, parfois avant même que nous en soyons conscients. Et ce glissement est loin d’être neutre.
Quand elle nous propose une action, un contenu, un traitement, elle semble répondre à notre besoin. Mais en réalité, elle nous suggère ce que nous finirons souvent par choisir. Ce qui est fréquent devient norme, ce qui est normé devient évidence. Et ce qui est évident n’est plus interrogé.
Prenons un exemple simple dans le monde médical : un logiciel d’aide à la prescription affiche « Le traitement X pourrait convenir ». Cette phrase paraît neutre, mais oriente discrètement. Si l’on cesse de questionner, on finit par suivre. Le sens critique s’efface doucement. Derrière cette neutralité apparente se cachent parfois des logiques d’influence, commerciales, comportementales ou simplement techniques, que nous ne maîtrisons pas.
Et plus c’est fluide, plus cela semble évident. Moins nous doutons. Or, c’est dans l’inconfort du doute que naît souvent la pensée.
Ce glissement de la suggestion à l’influence, de l’aide à la décision au pilotage discret, est réel. Comment garantir qu’une aide reste une aide ? Cette question est éthique, pas technique. Et elle mérite d’être posée dans tous les secteurs influencés par les algorithmes.
Face à cette dérive, certains domaines nous rappellent que toute décision importante demande plus que des données. Elle demande de la présence, de l’écoute, du discernement humain. La médecine, par exemple, nous offre un miroir puissant de ce qui se joue.
Résister en restant humain !
La médecine nous offre un modèle. Là où l’IA pose un diagnostic en croisant des milliers de données, le soignant, lui, capte l’invisible. Il ressent, accueille, perçoit ce qui ne se dit pas, ce qui tremble dans une voix ou s’efface dans un regard. C’est dans cette capacité d’écoute, dans cette attention au silence, que réside la force irremplaçable du soin humain.
C’est cette alliance que l’on appelle aujourd’hui phygital : l’union du précis algorithmique et de la présence humaine, du calcul froid et de la chaleur du lien. Loin d’opposer le numérique au sensible, il s’agit ici de les faire dialoguer. Le soignant augmenté, ce n’est pas celui qui cède la main à la machine, mais celui qui s’en sert comme d’une lentille, comme d’une extension de sa vigilance.
Mais cette alliance n’a de sens que si deux conditions très concrètes sont réunies.
La première, c’est la fin de la fragmentation. Aujourd’hui, le monde médical est saturé de logiciels incapables de dialoguer entre eux. Résultat : des données dispersées, des doublons, des pertes d’information, des équipes frustrées. Une véritable médecine augmentée suppose un écosystème fluide, interopérable, où les outils partagent, relient, coopèrent.
La seconde, c’est la confiance. Le secret médical n’est pas un détail technique. C’est une boussole éthique. Et cette confiance passe par une souveraineté réelle des données : savoir où elles sont, qui y accède, et dans quel but. Le cloud ? C’est souvent juste le disque dur de quelqu’un d’autre. Et en matière de santé, ce “quelqu’un d’autre” ne peut être un acteur opaque d’une économie de l’intention. Sans transparence des modèles, sans garantie sur l’usage, il n’y a pas d’alliance possible.
Autrement dit : pas de phygital sans éthique. Pas de médecine augmentée sans un socle technique commun, ni sans un contrat moral clair. Sinon, on remplace le soin par un service. Et le patient devient un segment.
Ce modèle phygital, nous le développons concrètement à travers une initiative que nous avons appelée DOCTORIAA. Il ne s’agit pas d’un concept abstrait, mais d’un outil en cours de construction, pensé avec et pour les soignants, en réponse à un besoin réel de terrain. DOCTORIAA prend la forme d’une RCP virtuelle, conçue d’abord pour les territoires sous-dotés, là où les praticiens se retrouvent souvent seuls face à des situations complexes. Ce n’est pas une IA générique, ni une plateforme impersonnelle. C’est un compagnon clinique personnalisé, que vous ne partagez pas avec les autres, qui apprend à connaître votre pratique, vos contraintes, vos patients et ne partage pas les données avec la terre entière.
Il reste disponible, comme un second regard, toujours discret, jamais intrusif. Nous avons imaginé cette solution non pour remplacer, mais pour épauler. Non pour uniformiser, mais pour renforcer. Parce qu’une médecine augmentée ne vaut que si elle renforce la confiance, la qualité du lien, et la liberté de penser.
Mais la médecine n’est qu’un miroir parmi d’autres. Ce qu’elle révèle, c’est une vérité plus large : nous ne pourrons pas toujours nous appuyer sur la machine sans risquer de nous effacer nous-mêmes. Car ce qui est en jeu, ce n’est pas seulement la qualité d’un diagnostic ou l’efficacité d’un traitement, c’est une manière d’être au monde.
Rester humain, ce n’est pas refuser l’outil. C’est refuser qu’il devienne le maître. C’est préserver un espace où l’on doute, où l’on tâtonne, où l’on pense vraiment. Et cet espace, ce n’est pas seulement à l’hôpital qu’il faut le défendre. C’est partout. En nous. À chaque instant.
Penser, encore … et toujours !
Et si penser était notre dernier geste de liberté ? Dans un monde qui propose toujours une réponse, choisir la question devient un acte de résistance. Penser, c’est ralentir, douter, creuser, parfois se perdre, toujours revenir. C’est refuser les évidences rapides, les synthèses sans friction.
Penser, c’est faire retour vers soi. C’est préférer une marche lente dans le brouillard à un chemin balisé. C’est accueillir l’inconfort du doute comme une terre fertile.
Quand avez-vous, pour la dernière fois, changé d’avis à la suite d’un doute ? Qu’avez-vous ressenti ? Un vertige ? Une libération ?
Penser, c’est aussi dire : non. Non à l’automatisme. Non à la précipitation. Non à la simplification. C’est construire un jugement habité, même imparfait, mais personnel.
Car penser n’est pas un luxe. C’est une exigence. Un geste de vigilance, une respiration lente dans un monde qui accélère. Une manière d’être vivant, ancré, présent.
Et si la vraie question n’était pas : « Que peut faire l’IA ? » mais bien : « Comment voulons-nous rester humains dans un monde amplifié par les machines ? »
Le vrai danger n’est pas que l’IA pense à notre place. C’est que nous cessions de penser nous-mêmes. Il ne s’agit pas de la combattre, mais de refuser qu’elle prenne le centre. L’enjeu est moins technologique qu’anthropologique.
Penser, c’est rester maître de ses choix. Refuser que nos désirs soient prévus, nos décisions orientées. C’est accueillir la complexité, honorer le temps long. Opposer à l’automatisation du sens un sursaut d’intériorité.
L’IA peut assister, révéler, simplifier. Mais elle ne saura jamais ce qu’un silence signifie, ce qu’un doute contient, ce que coûte un vrai choix.
Il faut remettre l’humain au centre. Là où naît la responsabilité. Là où germe la pensée.
Et peut-être aussi, redonner au mot « intelligence » ce qu’il a de plus humain : la lenteur du discernement, le vertige du doute, la joie de comprendre.
Pour cela, il faudra du courage. Le courage de penser, encore et toujours.