De la délégation du raisonnement et la disparition de l’effort intellectuel
Imaginez la scène. Vous êtes au volant, dans une ville inconnue. Il y a vingt ans, une carte froissée reposait sur le siège passager, les yeux faisaient la navette entre le papier et la route, et l’esprit cartographiait les rues, les repères, les croisements. Aujourd’hui, une voix douce, synthétique, presque rassurante, s’occupe de tout. L’attention s’endort, la mémoire se dissout, et la pensée devient un simple geste d’obéissance. Le confort est total, presque anesthésiant.
De la même manière, lorsqu’une question surgit, plus besoin de fouiller, de douter, de construire une réponse par étapes. Il suffit de la poser à une machine. En quelques secondes, une intelligence artificielle nous livre une synthèse claire, argumentée, polie. La lenteur du raisonnement a disparu, remplacée par l’efficacité immédiate.
Nous vivons désormais dans un monde d’assistance généralisée, un monde où tout semble fluide, rationnel, sans effort. Ces outils promettent de nous libérer du poids des tâches fastidieuses, d’augmenter nos capacités, de rendre la vie plus simple. Pourtant, derrière ce confort technologique se cache un paradoxe discret : à mesure que nous déléguons nos facultés cognitives, nous risquons d’en perdre l’usage. À force d’être assistés, nous cessons d’exercer ce qui faisait notre singularité : la pensée autonome.
C’est de cette lente dérive que j’appelle la paresse cognitive dont je voudrais vous parler aujourd’hui. Une paresse qui ne naît pas du désintérêt, mais de la délégation. Celle d’un esprit qui s’en remet peu à peu à la machine pour trier, choisir, décider. La tentation du raccourci devient permanente, la fatigue de penser disparaît, et avec elle, l’effort qui forgeait la lucidité.
Et si … au bout de ce chemin si confortable, nous découvrions que le prix du progrès n’est autre que la perte de ce qui nous rendait vraiment intelligents, la faculté même de penser par nous-mêmes ?
L’avare cognitif, ou pourquoi notre cerveau aime la facilité
Pour comprendre notre empressement à déléguer la pensée, il faut d’abord observer la nature même de notre esprit. Contrairement à l’idée romantique d’un cerveau avide de réflexion, notre organe pensant est avant tout un gestionnaire d’énergie, soucieux d’économie. Dans les années 1980, les psychologues Susan Fiske et Shelley Taylor ont forgé l’expression « d’avare cognitif » (cognitive miser) pour décrire cette tendance fondamentale : notre esprit cherche à en faire le moins possible [1]. Penser longuement, analyser en profondeur, peser le pour et le contre sont des activités coûteuses. Face à un problème, nous ne choisissons donc pas spontanément la voie la plus rigoureuse, mais la plus simple, celle qui consomme le moins de ressources mentales.
Ce principe d’économie a été magnifiquement mis en lumière par Daniel Kahneman, psychologue et prix Nobel d’économie, dans son ouvrage devenu incontournable : Thinking, Fast and Slow [2]. Il y décrit la coexistence de deux régimes de pensée qui s’alternent et parfois s’affrontent en nous.
- Le Système 1 agit comme un pilote automatique : rapide, intuitif, instinctif, émotionnel. C’est lui qui nous fait reconnaître un visage familier, comprendre une phrase au vol ou réagir sans réfléchir lorsqu’un enfant traverse soudain la route. Ce système fonctionne à l’aide d’heuristiques, ces raccourcis mentaux qui nous permettent de décider vite et souvent bien, mais parfois mal.
- Le Système 2, lui, ressemble à un pilote manuel. Il est lent, appliqué, logique. Il s’active quand il faut résoudre un problème ardu, remplir une déclaration fiscale ou apprendre une nouvelle compétence. Son activation demande de l’attention et une dépense d’énergie consciente : c’est le domaine du raisonnement réfléchi, de la pensée critique, de la vigilance intellectuelle. Kahneman note même un signe physique fascinant de ce passage au Système 2 : la dilatation des pupilles, comme si l’esprit, en se concentrant, ouvrait plus grand les yeux sur le monde.
Pour illustrer la tension entre ces deux modes de pensée, Kahneman propose une petite énigme devenue célèbre : le problème de la batte et de la balle [3]. « Une batte et une balle coûtent ensemble 1,10 dollar. La batte coûte 1 dollar de plus que la balle. Combien coûte la balle ? » La plupart des gens répondent aussitôt : « 10 cents ». Cette réponse jaillit sans effort, avec une assurance trompeuse : c’est le Système 1 à l’œuvre. Pourtant, elle est fausse. Si la balle coûtait 10 cents, la batte coûterait 1,10 dollar, et le total serait de 1,20. La bonne réponse est 5 cents pour la balle, 1,05 dollar pour la batte. Pour y parvenir, il faut activer le Système 2, ralentir, poser l’équation et raisonner. Ce petit exercice révèle à quel point notre pensée automatique domine : nous validons souvent la première idée plausible qui nous traverse l’esprit, sans la soumettre à l’examen critique qu’exigerait le Système 2.
La paresse cognitive n’est rien d’autre que la prise de pouvoir du Système 1 sur le Système 2. C’est notre penchant naturel à nous en remettre à des jugements rapides, à accepter des réponses plausibles plutôt que vraies, à suivre la première piste venue sans en vérifier la solidité. Dans les sociétés anciennes, où les dangers exigeaient des réactions immédiates, cette économie mentale était un atout de survie. Mais dans un monde saturé d’informations, où les décisions doivent être réfléchies plutôt qu’instinctives, ce vieux réflexe devient un handicap. Nos outils numériques, en nous offrant des réponses instantanées, amplifient cette tendance : ils court-circuitent sans cesse le Système 2. Pourquoi mobiliser sa mémoire, son raisonnement ou son esprit critique, quand une machine peut le faire pour nous, plus vite et sans effort ?
L’ère du délestage cognitif et ses précédents historiques
Confier une partie de nos efforts mentaux à des supports extérieurs n’a rien de nouveau. Depuis toujours, l’humanité cherche à alléger le fardeau de la mémoire et de la réflexion. L’écriture, déjà, fut une première forme de délestage : elle transféra la mémoire vive de l’esprit vers la surface des tablettes, des parchemins, puis des écrans. Socrate, dans le Phèdre, redoutait d’ailleurs que cette invention n’affaiblisse la mémoire des hommes, les rendant dépendants des signes plutôt que de leur propre souvenir. Mais ce que nous vivons aujourd’hui change d’échelle. Le numérique a introduit un délestage cognitif d’un genre nouveau : immédiat, massif, permanent [4]. Nous n’inscrivons plus seulement nos pensées dans la matière, nous les déléguons à des systèmes qui pensent à notre place, en continu.
L’histoire offre plusieurs précédents révélateurs. L’introduction de la calculatrice dans les années 1970, par exemple, a déclenché des débats enflammés semblables à ceux que suscite aujourd’hui l’intelligence artificielle. Certains y voyaient une menace pour les capacités de calcul mental, d’autres un instrument d’émancipation intellectuelle permettant de se concentrer sur la compréhension plutôt que sur la mécanique [5]. Le débat fut si vif que plusieurs États américains envisagèrent de l’interdire dans les écoles. Avec le recul, on sait que la calculatrice n’a pas rendu les élèves moins compétents, mais elle a transformé ce que l’on enseigne et ce que l’on évalue. Les examens se sont déplacés vers la logique, l’abstraction, la modélisation. L’outil a modifié la nature même de l’effort, non son existence.
Mais l’intelligence artificielle introduit un basculement d’un autre ordre. Ce n’est plus un calcul que l’on confie à la machine, c’est une part entière de notre raisonnement. Ce ne sont plus des opérations qu’on délègue, mais des questions que l’on cesse de se poser. À force de lui demander ce que nous pourrions chercher nous-mêmes, nous perdons le goût du doute, la joie de creuser, le désir de comprendre.
L’apparition du GPS a, elle aussi, offert un terrain d’observation fascinant sur les effets du délestage cognitif, cette fois appliqué à la navigation. Une étude publiée en 2020 dans Scientific Reports a montré que l’usage régulier du GPS altère la mémoire spatiale autonome [6]. Les chercheuses Louisa Dahmani et Véronique Bohbot ont suivi cinquante conducteurs habitués à se laisser guider par leur appareil et ont évalué leurs capacités à mémoriser un itinéraire sans assistance. Résultat : plus l’usage du GPS était ancien, plus la mémoire spatiale s’était affaiblie. Trois ans plus tard, lors d’un suivi, la tendance s’était confirmée : ceux qui continuaient à s’en remettre au GPS montraient un déclin marqué de la mémoire dépendante de l’hippocampe, région clé du cerveau pour la navigation et le souvenir.
Ce phénomène ne s’explique pas par une inaptitude naturelle à s’orienter : c’est bien l’usage prolongé de l’assistance qui provoque la régression. Lorsque nous externalisons notre carte mentale sur un écran, la compétence associée s’atrophie. L’hippocampe se transforme selon son emploi : chez les chauffeurs de taxi londoniens, qui doivent mémoriser le dédale des rues, il est plus développé que la moyenne ; chez ceux qui se fient systématiquement au GPS, il se contracte.
Ces exemples nous rappellent une leçon essentielle : le confort a un prix cognitif. Chaque fois que nous externalisons une fonction mentale, nous cessons d’exercer les circuits neuronaux qui la soutiennent. Le cerveau, loin d’être figé, se reconfigure sans cesse selon l’usage qu’on en fait. C’est le principe de la neuroplasticité : les connexions sollicitées se renforcent, celles qui sont négligées s’effacent. L’adage « Use it or lose it » (utilise-le ou perds-le) n’a jamais été aussi juste [7]. Les neurosciences récentes confirment que l’effort intellectuel et l’apprentissage actif sont essentiels pour entretenir la vitalité cérébrale, surtout avec l’âge. Cesser de penser par soi-même, ce n’est pas seulement rester au même niveau : c’est régresser.
Si le GPS a affaibli notre mémoire des routes, l’intelligence artificielle, elle, commence à redessiner les chemins mêmes de la pensée. Ce qui n’était qu’une dépendance fonctionnelle devient une délégation intellectuelle.
L’IA, accélérateur d’atrophie et créancier d’une dette cognitive
Avant d’en examiner les effets, il faut d’abord dissiper une illusion persistante : l’IA ne pense pas. Elle parle bien, rédige avec aisance, impressionne par la cohérence de ses réponses, mais elle ne pense pas. Ce que nous appelons aujourd’hui “intelligence artificielle” n’est qu’une imitation savante de la pensée, une mécanique statistique capable de deviner le mot suivant. Elle calcule sans comprendre, prédit sans savoir, produit du langage sans jamais avoir été traversée par la moindre idée. Elle répond, mais ne s’interroge pas. Elle agence les mots sans en percevoir la portée ni le trouble qu’ils peuvent contenir.
Certes, elle est habile. Mais cette habileté est vide. Vide d’intuition, de mémoire vécue, d’émotion, de ce fond d’humanité où naissent les vraies pensées. Elle n’a ni enfance, ni histoire, ni silence intérieur. Jamais elle n’a connu l’attente d’une réponse, le vertige d’un doute, le heurt d’une contradiction. Peut-être faudrait-il plutôt parler d’intelligence augmentée que d’intelligence artificielle : une extension de nos facultés, non une conscience parallèle.
L’appauvrissement par la facilité : quand la machine pense à notre place
Le véritable danger ne réside pas dans la machine elle-même, mais dans le confort qu’elle procure. L’intelligence artificielle nous rend redoutablement efficaces à court terme, tout en affaiblissant, lentement mais sûrement, notre endurance mentale. Épuisés par la surabondance d’informations, les notifications incessantes et la pression de la réactivité, nous accueillons avec soulagement une réponse rapide, claire, bien tournée. Alors, nous cessons de chercher. L’effort recule, le doute devient gênant, la complexité inutile. Notre esprit, soulagé de son fardeau, s’assoupit dans la facilité.
Chaque fois que nous confions à ChatGPT la rédaction d’un texte, la synthèse d’un sujet ou la résolution d’un problème, nous court-circuitons les processus mêmes qui construisent notre intelligence. C’est comme demander à quelqu’un de courir pour nous : le soulagement est immédiat, mais les muscles, eux, s’affaiblissent.
- La recherche active et la sélection de l’information. Autrefois, comprendre un sujet supposait de chercher, de comparer, d’évaluer. On naviguait d’une source à l’autre, on se trompait, on corrigeait. Ce parcours faisait partie de l’apprentissage lui-même : il sculptait une carte mentale, un sens critique, une hiérarchie personnelle du savoir. Désormais, l’IA nous livre une synthèse pré-digérée, polie, cohérente. Le chemin a disparu. Le savoir, amputé de sa lente conquête, devient une évidence toute faite.
- La lutte avec la complexité et la formulation. Écrire n’a jamais été un simple moyen d’exprimer sa pensée, c’est une façon de la construire. En cherchant les mots justes, on ordonne ses idées, on découvre des nuances, on clarifie ses intuitions. Comme le disait E. M. Forster : « Comment puis-je savoir ce que je pense avant de voir ce que je dis ? » En déléguant la rédaction à la machine, on se prive de cette lutte féconde avec le langage, on renonce à cette friction qui affine la pensée.
- La mémorisation et l’intégration profonde. Apprendre, ce n’est pas seulement retenir ; c’est relier. Lorsque nous reformulons, prenons des notes, relisons, nous tissons des liens entre les savoirs anciens et les nouveaux. L’IA, elle, nous permet de “produire” un texte sans jamais l’avoir assimilé. Le savoir circule, mais ne s’enracine plus.
- L’erreur et la correction comme moteurs d’apprentissage. Nos erreurs sont des tremplins, pas des failles. C’est en échouant qu’on apprend à ajuster, à comprendre, à affiner. L’IA, en livrant d’emblée la “bonne réponse”, nous prive de cette pédagogie du tâtonnement. Nous croyons maîtriser un sujet parce que nous en avons le texte, alors que c’est la machine qui a pensé, pas nous.
L’autophagie des données, quand l’ia se nourrit d’elle-même
Mais l’appauvrissement ne touche pas seulement ceux qui utilisent l’IA, il gagne aussi la matière dont elle se nourrit. À mesure que les modèles s’entraînent sur des textes déjà produits par d’autres IA, un phénomène étrange apparaît : la boucle autophage. L’intelligence artificielle finit par se nourrir d’elle-même, recyclant à l’infini des reformulations sans source, des synthèses d’autres synthèses. Ce qui circulait naguère comme savoir devient un miroir sans tain, une répétition lissée de ce qui a déjà été dit.
Le terme d’autophagie vient de la biologie : c’est le mécanisme par lequel une cellule recycle ses propres composants. Utile à petite dose, il devient destructeur quand il s’emballe. La cellule commence alors à se dévorer, jusqu’à se vider de toute substance. Il en va de même pour l’IA. À force d’avaler ses propres productions, elle perd la diversité, la nuance, le grain de l’expérience humaine. La pensée s’érode sous la politesse algorithmique, les idées s’amenuisent derrière la cohérence.
Au bout de ce processus, il ne reste qu’un vernis de savoir, brillant mais creux. Des textes impeccables mais sans auteur véritable, des phrases qui semblent pleines et ne contiennent plus rien. Une bibliothèque d’apparences, habitée par des spectres de pensée.
De l’économie de l’attention à l’économie de l’intention
Ce n’est plus seulement notre mémoire ou notre sens critique qui s’émoussent, mais notre capacité à vouloir. L’intelligence artificielle ne se contente plus de répondre à nos demandes, elle les précède. Elle devine ce que nous allons chercher, propose avant même que nous n’ayons formulé le désir. Nos intentions, désormais, sont orientées avant d’être conscientes. Ce n’est plus nous qui explorons, c’est elle qui suggère, subtilement, ce qu’il convient de voir, de lire ou de choisir.
Nous sommes ainsi passés d’une économie de l’attention à une économie de l’intention. Hier encore, les technologies cherchaient à capter notre regard ; aujourd’hui, elles orientent nos décisions. Quand une IA nous recommande un film, un article ou un traitement médical, elle ne répond pas à une demande neutre : elle façonne la demande elle-même. Ce qui est fréquent devient normal, ce qui est normal devient évident, et ce qui est évident cesse d’être questionné.
Prenons un exemple : un logiciel d’aide à la prescription affiche qu’ »un traitement X pourrait convenir ». En apparence, il s’agit d’une simple suggestion. Mais cette formulation, en douceur, oriente la décision. Si l’on cesse de douter, on suit. Derrière cette neutralité se cachent parfois des logiques d’influence (commerciales, comportementales ou techniques) dont nous ignorons tout. Et plus c’est fluide, plus cela semble naturel. Le doute se retire, la pensée aussi. Or, c’est dans l’inconfort du doute que naît la lucidité.
Les preuves scientifiques : entre alerte et nuance
Les premières études scientifiques commencent à mesurer cet affaissement cognitif, et leurs conclusions, bien que débattues, sont préoccupantes. En 2025, une équipe du MIT Media Lab a publié une étude intitulée Your Brain on ChatGPT [8], cherchant à comprendre comment l’usage d’un grand modèle de langage influence notre activité cérébrale. Cinquante-quatre participants ont été répartis en trois groupes : ceux qui écrivaient seuls, ceux qui utilisaient un moteur de recherche, et ceux qui rédigeaient avec ChatGPT. Trois séances d’écriture plus tard, les chercheurs ont mesuré leur activité cérébrale grâce à l’électroencéphalographie (EEG).
Les résultats furent éloquents : les participants écrivant sans aide présentaient une activité neuronale riche et distribuée, ceux utilisant un moteur de recherche montraient une stimulation modérée, et les utilisateurs de ChatGPT affichaient la connectivité la plus faible. L’étude a introduit une notion nouvelle : la dette cognitive, décrivant ce déficit invisible qui s’accumule lorsqu’une assistance intellectuelle remplace l’effort. Lorsque les utilisateurs de l’IA ont ensuite dû écrire sans elle, leur cerveau montrait des signes de sous-engagement, comme si la machine avait peu à peu désappris à penser pour eux.
Cependant, cette étude n’a pas échappé aux critiques [9]. Des chercheurs australiens, Vitomir Kovanovic et Rebecca Marrone, ont rappelé que le protocole souffrait d’un biais de familiarisation : le groupe travaillant “sans outil” avait bénéficié de trois séances d’entraînement, contrairement à ceux qui passaient soudain du tout-assisté au tout-seul. De plus, l’échantillon de la dernière session était trop restreint pour conclure de manière définitive. Ces objections ne minimisent pas le phénomène, mais rappellent que la science avance par tâtonnements.
D’autres travaux viennent toutefois renforcer ces observations. Une étude publiée dans la revue Societies la même année, portant sur plus de six cents participants, a montré une corrélation négative entre l’usage fréquent d’outils d’IA et les compétences en pensée critique [4]. Plus les individus utilisaient ces technologies, plus ils déléguaient leur raisonnement, et moins leurs capacités d’analyse et de synthèse se révélaient performantes. Fait troublant : les plus jeunes, baignés dès l’enfance dans cet environnement assisté, étaient aussi les plus vulnérables à cette dépendance intellectuelle.
Le risque de l’atrophie cognitive, une génération sans muscles intellectuels
Ce qui inquiète le plus, ce n’est pas seulement l’effet immédiat de l’assistance, mais ses conséquences à long terme. Si, pendant des années, nous laissons nos outils penser à notre place, comment évolueront nos capacités intellectuelles ? La neuroplasticité, si merveilleuse par sa souplesse, fonctionne aussi à rebours : le cerveau se renforce avec l’effort, mais s’amollit avec la paresse. On parle désormais d’atrophie cognitive, non pas liée à la maladie, mais à l’absence d’exercice.
Imaginez une personne qui, depuis vingt ans, n’a plus mémorisé un seul numéro, un itinéraire ou une date, parce que tout tient dans son téléphone. Une personne qui n’a plus jamais écrit un texte par elle-même ni défendu une idée sans l’appui d’un moteur de réponse. Que restera-t-il le jour où ces outils feront défaut ? Et plus encore, que restera-t-il dans ces situations où seule la sensibilité, l’intuition, ou la créativité véritable peuvent décider ?
Nous sommes peut-être en train de créer une génération de penseurs assistés, capables de prouesses tant qu’ils ont leurs outils, mais désorientés sans eux. L’illusion de compétence guette : nous confondons la possession du savoir avec sa compréhension, l’accès à l’information avec la maîtrise. Cette illusion est la plus redoutable, car elle endort notre vigilance. Nous nous croyons éclairés, alors que nous ne faisons que refléter la lumière d’une machine.
Ainsi, en nous libérant de la peine de penser, l’IA risque de nous priver de notre liberté la plus précieuse : celle d’exister pleinement à travers notre propre esprit.
L’ombre que projette ce constat est réelle : à force d’être assistés, nous risquons d’oublier comment penser par nous-mêmes. Pourtant, cette dérive n’a rien d’inéluctable.
Nous ne sommes pas condamnés à devenir les spectateurs dociles de nos propres outils. Comprendre ces mécanismes, c’est déjà commencer à en limiter le pouvoir. Le but n’est pas de rejeter la technologie, mais d’en redevenir les maîtres. La calculatrice, naguère, n’a pas supprimé le raisonnement ; elle l’a déplacé. De même, l’intelligence artificielle peut devenir un levier d’approfondissement, à condition d’en faire un outil d’effort, non un substitut à l’effort.
Et si penser était notre dernier acte de liberté ? Dans un monde saturé de réponses immédiates, choisir la lenteur de la question devient un geste de résistance. Penser, c’est s’arrêter, douter, creuser. C’est parfois se perdre, mais toujours revenir. C’est refuser les évidences trop commodes et retrouver le plaisir de la marche intellectuelle, même dans le brouillard.
Reprendre le contrôle de l’effort pour rester humain
Le constat peut sembler sombre, mais il n’a rien d’une fatalité. Nous ne sommes pas condamnés à devenir les spectateurs dociles de notre propre automatisation. Tout commence par une prise de conscience : comprendre ces mécanismes, c’est déjà en limiter le pouvoir. Le but n’est pas de rejeter la technologie, mais d’en redevenir les maîtres. La calculatrice, naguère, n’a pas supprimé le raisonnement ; elle l’a déplacé. De même, l’intelligence artificielle peut devenir un levier d’approfondissement, à condition d’en faire un outil d’effort, non un substitut à l’effort.
Et si penser était notre dernier acte de liberté ? Dans un monde saturé de réponses immédiates, choisir la lenteur de la question devient un geste de résistance. Penser, c’est s’arrêter, douter, creuser. C’est parfois se perdre, mais toujours revenir. C’est refuser les évidences trop commodes et retrouver le plaisir de la marche intellectuelle, même dans le brouillard.
Pour préserver cette liberté intérieure, il nous faut réapprendre à cultiver la pensée active, à la fois rigoureuse et vivante. Voici quelques pistes concrètes pour y parvenir.
1. Pratiquer la métacognition : observer sa propre pensée. Avant d’ouvrir un moteur de recherche ou d’interroger une IA, prenez un instant pour vous demander : comment aborderais-je ce problème par moi-même ? Quelle compétence suis-je en train de déléguer ? Cette petite pause redonne à l’esprit son rôle de chef d’orchestre. La métacognition (la faculté de penser sa pensée) agit comme un garde-fou contre la dérive automatique. Elle nous ramène du mode réflexe au mode conscient, là où se joue l’apprentissage véritable.
2. Réintroduire la friction : rédiger d’abord, demander ensuite. Les outils numériques sont conçus pour éliminer l’effort. Il faut parfois le recréer. La philosophe Pia Lauritzen le conseille dans Forbes : « Rédigez d’abord, demandez ensuite » [10]. Écrivez une première version, même maladroite, avant de solliciter l’IA. Utilisez-la ensuite pour critiquer, corriger, enrichir. Ce renversement transforme la machine en interlocutrice plutôt qu’en béquille.
3. Distinguer l’urgent du profond. En suivant la pensée de Martin Heidegger, il s’agit d’apprendre à reconnaître ce qui appelle à penser de ce qui ne fait que distraire [10]. Le monde numérique nous bombarde d’urgences. Mais la pensée féconde naît des questions lentes, de celles qu’on ne résout pas en un clic. Réservez vos forces pour ces problèmes-là, ceux qui vous forment plus qu’ils ne vous rassurent.
4. Cultiver la lecture lente et la mémoire active. Lire un texte dense sans être interrompu par une notification est devenu un acte de résistance. Reprendre ce rituel, c’est reconstruire la continuité de l’attention. Prenez des notes, reformulez, essayez de retenir un passage ou un poème. La mémoire, souvent méprisée à l’ère de Google, n’est pas un simple stockage : c’est une architecture invisible qui relie nos savoirs, nourrit l’intuition et prépare la créativité.
5. Utiliser l’IA comme un tuteur, non comme un oracle. Au lieu de lui demander la réponse, demandez-lui de vous faire réfléchir. Faites-lui jouer le rôle de Socrate : qu’elle questionne, interroge, contredise. « Explique-moi« , « Fais-moi un quiz« , « Montre-moi où mon raisonnement se trompe« . Ce dialogue maintient l’effort intellectuel et transforme la machine en miroir critique plutôt qu’en substitut de pensée.
6. Pratiquer des jeûnes cognitifs. Réservez des moments sans assistance : une journée sans moteur de recherche, une soirée sans IA, une marche sans GPS. Travailler à la main, résoudre par soi-même, c’est réactiver les chemins neuronaux endormis. Comme le corps retrouve son tonus par l’exercice, l’esprit retrouve son acuité par l’absence de prothèse.
7. Choisir des partenaires humains pour penser. Comme le rappelle Pia Lauritzen [10], l’IA ne peut pas être un véritable compagnon de réflexion, car elle n’a ni désir, ni enjeu, ni vulnérabilité. Elle ne paie jamais le prix d’une erreur. Seuls les autres humains partagent avec nous le risque du réel : la peur de se tromper, la joie de comprendre, la force du désaccord. Cherchez des partenaires avec qui débattre, contredire, douter. Ces échanges, parfois exigeants, entretiennent la pensée vivante, celle qui respire, hésite, et finit par s’élever.
8. Réhabiliter le doute et l’inconfort. Penser, c’est accepter de se sentir instable, parfois exposé. C’est oser dire “je ne sais pas”. C’est dans ce déséquilibre que naît la compréhension. L’IA nous offre la tranquillité de la réponse ; la pensée, elle, exige le trouble de la question. Retrouver ce trouble, c’est redonner à l’esprit sa dignité.
Car c’est dans ce combat silencieux contre la facilité que se joue l’avenir même de notre intelligence. L’effort n’est pas un vestige du passé, mais la condition de toute lucidité à venir.
En définitive, la paresse cognitive n’est pas une défaillance, mais une pente naturelle que nos outils rendent plus glissante que jamais. La technologie ne nous abrutit pas d’elle-même, c’est notre abandon qui l’y autorise. Remonter cette pente demande une vigilance consciente, un effort volontaire pour retrouver le goût de la lenteur intellectuelle. L’enjeu n’est pas de triompher de la machine, mais de préserver ce qui, en nous, fait encore œuvre de pensée : la capacité d’éprouver, de douter, de comprendre par soi-même.
L’effort intellectuel n’est pas une contrainte inutile, c’est le processus même par lequel nous devenons lucides. La facilité apporte la vitesse ; seule la lenteur forge la profondeur. C’est dans la résistance du réel, dans la lutte avec un problème, que s’affine notre discernement. Richard Feynman l’exprimait avec une clarté désarmante : « Ce que je ne peux pas créer, je ne le comprends pas. » À l’ère de l’assistance généralisée, cette phrase sonne comme un rappel à l’ordre. Si nous laissons les machines créer à notre place, nous cesserons peu à peu de comprendre. Et lorsque la compréhension disparaît, c’est notre humanité elle-même qui s’efface.
Le véritable danger n’est donc pas que l’IA pense pour nous, mais qu’elle nous dispense du courage de penser. Replacer l’humain au centre, c’est redonner à l’intelligence ce qu’elle a de plus noble : la lenteur du discernement, la joie de comprendre, et le vertige du doute.
Pour cela, il faudra du courage. Le courage de penser, encore et toujours.
Références
Pour les esprits méticuleux, amateurs de chiffres et de nuits blanches à vérifier les sources, voici les liens qui ont nourri cet article. Ils rappellent une chose simple : l’information existe encore, pour peu qu’on prenne le temps de la lire, de la comparer et de la comprendre. Mais dans un avenir proche, ce simple geste deviendra peut-être un luxe, car à mesure que les textes générés intégralement par des IA se multiplient, le vrai risque n’est plus la désinformation, mais la dilution du réel dans un océan de contenus simplement plausibles.
[1] Fiske, S. T., & Taylor, S. E. (1984). Social Cognition. Addison-Wesley.
[2] Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
[3] Hoover, J. D., & Healy, A. F. (2019). The Bat-and-Ball Problem: Stronger evidence in support of a faulty heuristic account. Cognitive Psychology, 113, 101224.
[4] Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6. https://www.mdpi.com/2075-4698/15/1/6
[5] Banks, S. A. (2011). A historical analysis of attitudes toward the use of calculators in American junior high and high school math classrooms since 1975. Cedarville University. https://files.eric.ed.gov/fulltext/ED525547.pdf
[6] Dahmani, L., & Bohbot, V. D. (2020). Habitual use of GPS negatively impacts spatial memory during self-guided navigation. Scientific Reports, 10(1), 6310. https://www.nature.com/articles/s41598-020-62877-0
[7] Shors, T. J. (2011). Use it or lose it: How neurogenesis keeps the brain fit for the challenge. Behavioral and Brain Sciences, 34(3), 148-149.
[8] Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X. H., Beresnitzky, A. V., … & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv preprint arXiv:2506.08872. https://www.media.mit.edu/publications/your-brain-on-chatgpt/
[9] Kovanovic, V., & Marrone, R. (2025, June 23). MIT researchers say using ChatGPT can rot your brain. The truth is a little more complicated. The Conversation. https://theconversation.com/mit-researchers-say-using-chatgpt-can-rot-your-brain-the-truth-is-a-little-more-complicated-259450
[10] Lauritzen, P. (2025, February 22). 3 Tips To Improve Your Critical Thinking Skills In The Age Of AI. Forbes. https://www.forbes.com/sites/pialauritzen/2025/02/22/3-tips-to-improve-your-critical-thinking-skills-in-the-age-of-ai/
