Les mythes de l’IA et leur pouvoir de dépossession

Avant-propos

Mathématicien et chercheur en IA, j’utilise quotidiennement cette technologie. Je connais les capacités réelles, les limites, les promesses plus ou moins légitimes. Je ne suis pas de ceux qui prônent le rejet par principe, ni qui nourrissent une nostalgie stérile pour un monde « d’avant ».

Ce qui m’inquiète, c’est de voir avec quelle facilité nous adhérons aux récits que propagent les nouveaux évangélistes de l’IA. Ces voix autorisées, souvent sans formation technique solide, qui multiplient les promesses grandioses sur les réseaux et dans les conférences. Comme si leur enthousiasme communicatif tenait lieu de démonstration. Comme si la performance technique suffisait à justifier l’adoption sans questionnement, comme si la sophistication algorithmique nous dispensait de réfléchir aux implications de nos usages. Le problème n’est pas l’intelligence artificielle en tant que telle, mais cette abdication collective de notre esprit critique face aux promesses technologiques, cette propension à confondre innovation et progrès, efficacité et pertinence.

Entre fascination collective et construction narrative

Dans une salle de réunion aux lignes épurées, trois regards convergent vers un écran. Le directeur marketing évoque les gains de productivité spectaculaires, le responsable innovation prédit la fin des métiers créatifs, le consultant acquiesce. Trois perspectives, trois croyances, trois projections sur une même réalité technologique. Et déjà, sans s’en apercevoir, trois manières d’abandonner une part de leur jugement critique au profit d’un récit séduisant.

Car l’intelligence artificielle ne progresse jamais seule. Elle avance accompagnée d’un cortège d’images, de promesses et de récits qui façonnent notre rapport au monde bien avant que nous touchions le moindre clavier. Comme toute innovation majeure, elle s’entoure de ce que les sociologues nomment un écosystème mythologique : un ensemble de représentations qui orientent les perceptions, modèlent les usages et, surtout, redéfinissent progressivement ce que nous considérons comme relevant de notre propre compétence.

Ces mythes ne surgissent pas spontanément. Ils sont cultivés, entretenus, parfois instrumentalisés par ceux qui ont intérêt à ce que nous adoptions ces technologies sans trop les questionner. Ils permettent de créer une adhésion autour d’un produit, de rassurer les investisseurs, de convaincre les décideurs et de capter l’attention médiatique. Mais ils opèrent aussi une transformation plus subtile : ils redessinent les frontières entre ce que nous pensons devoir faire nous-mêmes et ce que nous pouvons déléguer sans risque.

Démêler ces récits n’est pas un exercice purement intellectuel. C’est reprendre du pouvoir sur nos représentations, refuser de laisser d’autres définir à notre place les contours de notre autonomie. Car derrière chaque mythe se cache une conception particulière de ce qu’est l’intelligence, la créativité, l’apprentissage – et donc de ce que nous sommes.

Voici trois de ces grands mythes contemporains, analysés non seulement dans leur dimension technique, mais dans ce qu’ils révèlent de nos renoncements successifs. Car ces récits ne sont jamais neutres : ils forment la grammaire culturelle d’une époque qui apprend à se dessaisir de ses propres capacités au nom de l’efficacité.

Le mythe de l’intelligence authentique ou la dépossession de notre jugement

Il surgit régulièrement dans les titres : « Cette IA surpasse l’intelligence humaine ». Il se glisse dans les interfaces conversationnelles par des formules comme « Je pense que… » ou « À mon avis… ». Et c’est précisément là que s’opère le premier abandon : la confusion entre performance statistique et processus cognitif nous conduit à traiter ces systèmes comme des interlocuteurs légitimes, dignes de notre confiance intellectuelle.

Hier encore, un ami me racontait : « ChatGPT m’a expliqué un concept juridique mieux que mon avocat. » Même réaction chez cette étudiante : « L’IA comprend mes questions, elle me répond comme une prof particulière. » Dans les deux cas, le piège s’est refermé : on confond une réponse bien formulée avec une véritable compréhension.

Observons ce qui se joue concrètement. Quand un étudiant demande à ChatGPT de résoudre un problème complexe, il ne fait pas qu’utiliser un outil. Il accepte tacitement que comprendre et produire sont deux activités séparables, que la justesse d’une réponse ne dépend pas de la démarche qui l’a générée. Il renonce, sans s’en apercevoir, à l’effort de construction du raisonnement qui constitue pourtant l’essence même de l’apprentissage.

Une intelligence artificielle générative ne comprend pas au sens où nous l’entendons, elle reproduit des patterns. Elle ne pense pas, elle calcule des probabilités. Son « intelligence » constitue une métaphore opérationnelle mais trompeuse. Elle repose sur la capacité à identifier des régularités dans d’immenses corpus de données pour générer des réponses cohérentes. Rien ne permet d’y déceler l’émergence d’une conscience ou même d’une intentionnalité.

Considérons un exemple révélateur : une IA peut produire un essai remarquable sur la philosophie platonicienne, mobilisant les bonnes références, articulant les concepts avec justesse. Mais elle n’éprouve aucune relation personnelle aux idées qu’elle manipule. Elle reproduit des structures discursives sans en habiter le sens, sans avoir jamais buté sur la résistance d’une pensée, sans avoir jamais éprouvé l’illumination soudaine qui accompagne la compréhension véritable.

Le mythe de l’intelligence repose sur une analogie fallacieuse : parce que le résultat ressemble à celui d’un processus humain, le mécanisme sous-jacent serait similaire. Mais une photographie ne voit pas pour autant. Et en traitant l’IA comme un penseur véritable, nous perdons de vue ce qui fait la spécificité de notre propre intelligence : sa capacité à douter, à se contredire, à emprunter des chemins de traverse, à éprouver la résistance du réel.

Cette représentation a des implications qui dépassent la simple méprise technique. Elle encourage à percevoir l’IA comme une entité autonome, plus fiable que notre propre jugement parce qu’elle ne connaît ni la fatigue ni l’émotion. Elle occulte la chaîne complexe des dépendances : les données d’origine, les choix algorithmiques, les interventions humaines qui règlent, filtrent et orientent. Elle entretient une fascination qui peut inhiber l’analyse critique nécessaire à une appropriation réfléchie de ces technologies.

Mais surtout, elle nous habitue progressivement à considérer la pensée humaine comme un processus défaillant, trop lent, trop approximatif. Et cette dévaluation de notre propre capacité cognitive prépare le terrain pour d’autres abandons.

Le mythe de la créativité artificielle ou la dépossession de notre imaginaire

« Cette IA compose des symphonies », « Ce système génère des poèmes inédits », « Elle peint dans le style des maîtres ». L’effet produit est saisissant, presque magique. Mais observons ce qui se joue dans l’esprit de celui qui contemple ces œuvres générées : une fascination mêlée d’une inquiétude sourde. Si une machine peut créer, que reste-t-il de spécifiquement humain dans l’acte créatif ?

Il suffit de regarder un directeur artistique parcourir les centaines d’images générées par Midjourney : « C’est bluffant, j’ai eu en 5 minutes ce qui m’aurait pris des heures. » Ou cette musicienne découvrant les compositions d’AIVA : « C’est troublant, on dirait du vrai Mozart. » Dans les deux cas, on mesure l’œuvre au résultat, jamais au processus qui l’a fait naître.

Cette question révèle l’efficacité redoutable du mythe de la créativité artificielle. En nous éblouissant par ses productions, il nous fait oublier ce qui constitue l’essence même de la création humaine : l’expérience subjective du monde qui la nourrit.

La créativité humaine s’enracine dans une expérience incarnée, faite de sensations, d’émotions, de souvenirs. Elle procède par tâtonnements, ruptures, intuitions. Elle s’ancre dans un vécu singulier, des références culturelles, un contexte social spécifique. Quand Basquiat peint, il ne recompose pas des éléments préexistants selon des probabilités statistiques. Il transpose une vision du monde forgée par son expérience de jeune homme noir dans l’Amérique des années 80, par ses lectures, ses rencontres, ses blessures.

Les intelligences artificielles, elles, génèrent des combinaisons probabilistes d’éléments préexistants. Elles excellent dans l’imitation, la variation, la recombinaison. Mais elles ne vivent rien de ce qu’elles produisent. Elles n’ont jamais contemplé un coucher de soleil avec cette mélancolie particulière qui naît de la conscience de notre finitude. Elles n’ont jamais éprouvé cette urgence créatrice qui pousse l’artiste à témoigner de son époque.

Là où l’humain transgresse, explore ou subvertit les codes par nécessité intérieure, l’IA optimise des assemblages selon des critères d’efficacité. Elle constitue un puissant générateur de variations, mais elle ne produit pas de véritables ruptures. La nouveauté qu’elle génère reste calculée, jamais véritablement émergente.

Le mythe de la créativité artificielle repose sur une confusion entre l’œuvre produite et la dynamique intime de sa création. Cette confusion opère à double sens : elle survalorise la performance technique tout en dévalorisant l’acte créatif humain, réduit à une série d’opérations reproductibles.

Quand un graphiste utilise Midjourney pour générer des visuels « dans le style de », il ne se contente pas d’adopter un outil plus efficace. Il accepte implicitement que le style puisse être détaché de la démarche qui l’a fait naître, que l’esthétique soit séparable de l’éthique, que la forme puisse exister indépendamment du sens. Il renonce à ce questionnement intérieur qui fait qu’une création porte la trace de celui qui l’a conçue.

En adhérant à ce mythe, on risque d’oublier que la création constitue aussi un acte culturel, parfois politique ou subversif. Or, l’intelligence artificielle ne revendique rien, ne conteste rien, ne s’engage dans aucune démarche critique. Elle ne dispose que de corrélations statistiques entre des mots, des images, des sons, sans jamais accéder au sens ou à l’intention qui les sous-tend.

Et cette désincarnation de la créativité prépare le terrain pour un troisième renoncement, peut-être le plus pernicieux : celui de notre capacité d’action dans le présent.

Le mythe de la promesse auto-réalisatrice ou la dépossession de notre action

C’est sans doute le plus puissant et le plus structurant des trois. Il ne décrit pas ce que l’IA accomplit aujourd’hui, mais ce qu’elle accomplira demain. Il prophétise, anticipe, projette. On y évoque l' »émergence », les « sauts qualitatifs », la « généralisation ». Et toujours dans un futur proche mais indéterminé qui suspend notre jugement critique.

Écoutez ces conversations de machine à café : « Pourquoi apprendre Excel ? Dans six mois, l’IA fera tout. » Ou ce chef d’entreprise : « Pas la peine d’embaucher, bientôt l’IA remplacera toute l’équipe créa. » Chaque fois, le futur hypothétique justifie l’inaction présente.

Ce mythe prospectif opère une transformation subtile de notre rapport au temps et à l’action. En nous projetant dans un horizon de révolutions technologiques imminentes, il nous installe dans une posture d’attente qui inhibe notre capacité d’intervention présente. Pourquoi s’interroger sur les limites actuelles d’un système quand on nous assure qu’elles seront bientôt dépassées ? Pourquoi réfléchir aux implications éthiques d’une technologie quand on nous promet qu’elle sera demain plus intelligente, plus sûre, plus alignée sur nos valeurs ?

Observons l’effet produit sur nos décisions quotidiennes. Le responsable formation qui hésite à investir dans la formation humaine « parce que l’IA va tout changer ». L’étudiant qui renonce à approfondir une discipline « parce que les machines feront mieux ». L’artiste qui doute de la pertinence de son travail « parce que l’IA créera bientôt tout ». Dans chacun de ces cas, la promesse d’un futur radieux produit une paralysie du présent.

Ce mythe prospectif fonctionne comme un dispositif rhétorique redoutablement efficace. Il permet de différer la critique au nom du « pas encore abouti ». Il offre aux acteurs industriels un argument pour contourner les régulations, en invoquant l’urgence de l’innovation. Il masque les limitations actuelles sous la promesse d’améliorations continues et exponentielles. Mais surtout, il nous dépossède de notre pouvoir d’orienter ces technologies selon nos propres valeurs.

On oublie pourtant une évidence technique fondamentale : l’IA n’est jamais une solution universelle. Elle répond efficacement à des problèmes circonscrits, mais elle demeure toujours dépendante de ses données d’entraînement et du cadrage humain. La considérer comme indéfiniment transposable, c’est nier sa dépendance fondamentale au contexte et à l’interprétation.

Multiplier les données biaisées ne neutralise pas le biais, mais le sophistique. Augmenter la puissance computationnelle ne dissipe pas l’opacité des modèles, mais la rend plus complexe. Et l’on confond trop souvent les performances démontrées dans des environnements contrôlés avec des capacités générales adaptables à toute situation.

Le mythe prospectif fonctionne comme une fuite en avant permanente qui nous prive de notre capacité d’intervention critique. Il nous projette dans un horizon de promesses, à la fois séduisant et paralysant. Il favorise une posture d’attente plutôt que d’action présente, d’analyse critique et d’appropriation réfléchie.

Et c’est peut-être là le plus grave : en nous installant dans l’attente d’une révolution technologique, il nous fait oublier que nous avons le pouvoir, ici et maintenant, de définir les conditions dans lesquelles nous voulons vivre avec ces technologies.

Car à force de céder à ces récits, un autre glissement s’opère, plus silencieux encore : celui de notre imaginaire, de notre capacité à écrire notre propre histoire.

Une fois ces trois récits mis à nu, que reste-t-il ? Le besoin urgent de reprendre le fil de notre autonomie narrative.

Reprendre le pouvoir sur nos représentations

Ces trois mythes ne constituent pas de simples malentendus techniques. Ils fonctionnent comme des instruments de pouvoir symbolique qui modèlent nos représentations collectives, orientent nos décisions et façonnent progressivement notre conception de ce qui relève encore de notre responsabilité humaine.

Ils agissent comme des métaphores structurantes, pour reprendre l’expression de George Lakoff. Et comme toute métaphore, ils découpent la réalité, rendent visibles certains aspects tout en en occultant d’autres. L’utilisateur croit maîtriser le système parce qu’on lui parle d' »interaction naturelle ». Il accorde du crédit au modèle parce qu’on lui dit qu’il « crée ». Il suspend son jugement critique parce qu’on lui promet que demain sera différent.

Mais ces métaphores opèrent aussi une transformation plus profonde de notre rapport à nous-mêmes. En valorisant exclusivement l’efficacité, la rapidité, la production massive, elles nous font progressivement douter de la valeur de nos propres processus cognitifs. Notre lenteur devient un défaut, nos hésitations des faiblesses, nos détours des pertes de temps.

Or c’est précisément dans cette lenteur, ces hésitations, ces détours que s’enracine notre humanité pensante. L’intelligence humaine n’est pas linéaire, ni toujours efficace. Elle est souvent brouillonne, intuitive, et c’est ce qui fait sa richesse. Elle est faite d’impasses fécondes, de détours révélateurs, de reprises créatrices. Elle ne s’épanouit pas dans la vitesse, mais dans la profondeur de l’expérience vécue.

C’est précisément là que la pensée critique devient indispensable. Non pour rejeter l’intelligence artificielle, mais pour la comprendre au-delà de son habillage narratif. Pour distinguer ce qui relève de la performance technique, de la construction médiatique et des stratégies d’influence. Pour maintenir vivante notre capacité à questionner, à douter, à résister aux évidences préfabriquées.

Car comme le souligne la sociologue Dominique Boullier, « les techniques ne parlent jamais seules ». Elles s’accompagnent toujours d’un discours, d’une mise en scène, d’un récit. Et c’est souvent ce récit qui détermine nos croyances et nos comportements, bien plus que les lignes de code ou les architectures algorithmiques.

Mais comprendre ces mécanismes ne suffit pas. Une fois les rouages mis à nu, reste la question la plus difficile : comment, concrètement, résister à l’attraction de ces narrations quand elles nous promettent tant d’efficacité ?

Cultiver l’art du doute

Cette compréhension nous amène face à une question plus fondamentale : dans un monde qui nous propose de déléguer toujours plus de nos capacités cognitives, avons-nous encore la volonté de penser par nous-mêmes ? Activement. Librement. Lentement, parfois.

Car c’est bien de cela qu’il s’agit : non plus seulement de savoir si l’IA pense à notre place, mais de savoir si nous voulons encore penser. Non pas parce qu’une tâche l’exige, mais parce qu’un élan intérieur nous y pousse. Parce que nous considérons la pensée comme constitutive de notre dignité humaine, et non comme un simple moyen d’atteindre une fin productive.

Cette volonté de penser ne se décrète pas, elle se cultive. Elle s’entretient dans la confrontation quotidienne aux idées reçues, dans l’inconfort du doute, dans la patience de l’analyse. Elle s’enracine dans la lecture attentive, les débats contradictoires, les heures passées à démêler le vrai du séduisant. Elle suppose d’accepter l’effort, la lenteur, l’imperfection comme des dimensions irréductibles de l’expérience humaine.

Il faut réapprendre à écrire à la main, non par nostalgie mais parce que le geste ralentit la pensée et lui permet de se déployer. Il faut réapprendre à errer dans un livre, à ne pas comprendre du premier coup, à reprendre, à chercher. Il faut revendiquer le droit à l’inefficacité comme une forme de résistance à l’accélération générale du monde.

Cette résistance n’est pas un privilège réservé à quelques-uns, mais un droit commun : celui de penser librement, imparfaitement, intensément. Le droit de ne pas savoir, de chercher, de recommencer. Le droit de considérer que la quête de compréhension a une valeur en soi, indépendamment de son utilité productive.

Car au bout du compte, démystifier ces récits technologiques n’est pas seulement un exercice intellectuel. C’est un acte politique qui nous constitue comme sujets pensants, capables de discernement, maîtres de nos représentations. C’est ce qui nous permet de ne pas simplement adhérer, mais de choisir, de nuancer, de résister.

Le choix de la survie intellectuelle

Si nous cédons trop facilement aux récits préfabriqués qui accompagnent ces technologies, il se pourrait bien que nous perdions non seulement notre capacité à déconstruire les mythes, mais jusqu’au désir de le faire. Et ce serait là une perte irrémédiable, bien plus dommageable que n’importe quelle défaillance technique.

Car c’est par l’exercice du doute que nous demeurons libres. Que nous gardons notre singularité. Que nous devenons, parfois, lucidement insoumis aux narrations dominantes. Dans un monde de plus en plus saturé de contenus générés automatiquement, de réponses instantanées et de certitudes algorithmiques, maintenir vivante cette capacité de questionnement devient un enjeu de survie intellectuelle.

Alors, posons la question sans détour : dans ce monde de narrations séduisantes et d’efficacité généralisée, à quoi sommes-nous encore prêts à consacrer du temps, de l’attention, de la vigilance ? Sommes-nous capables de revendiquer l’effort de démystification comme une forme de résistance nécessaire ?

La réponse à cette question pourrait bien conditionner l’avenir de notre autonomie intellectuelle. Et peut-être même celui de notre humanité consciente, capable de penser le monde plutôt que de simplement le subir.