L’erreur, le biais et l’intelligence artificielle face au miroir de notre humanité
La condition de l’être faillible
L’être humain est une créature de tâtonnements. Nous sommes nés dans un monde que nous n’avons pas choisi, équipés d’un esprit qui cherche désespérément à lui donner un sens. Dans cette quête, notre plus fidèle compagnon n’est pas la certitude, mais l’erreur. Elle est la trace de nos pas, la preuve que nous avons essayé, la cicatrice qui témoigne de notre apprentissage. Se tromper n’est pas seulement un droit ; c’est une fonction vitale, le rythme même de la connaissance qui avance en trébuchant. C’est le brouillon nécessaire à l’œuvre, l’ébauche qui précède la sculpture.
Pourtant, dans notre modernité éprise de perfection et d’efficacité, l’erreur a mauvaise presse. Elle est devenue synonyme d’échec, une anomalie à corriger, une faiblesse à éradiquer. Et voilà que nous construisons des machines à notre image, des intelligences artificielles, en leur prêtant le fantasme d’une objectivité pure, d’une logique froide et infaillible. Nous rêvons d’automates sans défauts, espérant qu’ils nous sauvent de nos propres errements.
C’est une double méprise. D’abord, parce que l’erreur fertile et le biais inconscient n’ont rien à voir avec le mensonge délibéré et la tromperie organisée qui fracturent aujourd’hui notre espace public. Confondre les deux, c’est confondre le chercheur qui se trompe avec le faussaire qui triche. Ensuite, parce que l’IA, née de nos mains et nourrie de nos données, ne peut être qu’un héritier. Elle est un miroir puissant, parfois déformant, de nos propres schémas de pensée, de nos préjugés les plus enfouis. L’enjeu n’est donc pas de viser une illusoire perfection mécanique, mais de cultiver une plus profonde conscience humaine. Ce n’est pas la machine qu’il faut rendre parfaite, c’est l’humain qu’il faut rendre plus lucide.
Notre héritage invisible : qu’est-ce qu’un biais cognitif ?
Avant même de parler de science ou d’intelligence artificielle, il faut faire un détour par notre propre esprit. Car c’est là, dans les replis de notre cerveau, que tout commence. Si l’on veut comprendre pourquoi nos créations technologiques peuvent être partiales, il faut d’abord admettre que nous le sommes nous-mêmes, et ce, de manière profonde, systématique et souvent inconsciente.
Des raccourcis pour survivre
Imaginez nos lointains ancêtres dans la savane. Une forme sombre bouge dans les hautes herbes. Deux options : analyser méticuleusement la taille, la vitesse, la couleur de la forme pour déterminer s’il s’agit d’un lion ou d’un simple rocher agité par le vent ; ou bien, présumer instantanément le danger et détaler. Ceux qui ont survécu et nous ont transmis leurs gènes sont ceux qui ont choisi la seconde option. Ils ont utilisé un raccourci mental : forme sombre qui bouge = danger potentiel.
Ce raccourci, c’est l’essence même d’un biais cognitif. Ce n’est pas un défaut de fabrication, mais une stratégie d’optimisation héritée de millions d’années d’évolution. Face à un monde infiniment complexe et à un déluge constant d’informations, notre cerveau a développé des mécanismes pour penser vite, décider vite, et économiser une énergie précieuse. Les psychologues Daniel Kahneman et Amos Tversky, pionniers en la matière, ont décrit ces mécanismes comme des « heuristiques de jugement ». Ce sont des règles simples, des « recettes de pouce » qui fonctionnent merveilleusement bien dans la plupart des situations de la vie courante. Le problème, c’est qu’elles peuvent nous conduire à des erreurs de jugement prévisibles et systématiques dans des contextes plus complexes.
Quelques portraits de nos démons intérieurs
Un biais n’est ni une opinion, ni une idéologie, ni une erreur volontaire. C’est un réflexe de la pensée, une pente naturelle que notre esprit emprunte sans même que nous nous en rendions compte. En voici quelques-uns parmi les plus célèbres :
- Le biais de confirmation : C’est sans doute le plus puissant de tous. Nous avons une tendance naturelle à rechercher, interpréter et mémoriser les informations qui confirment nos croyances préexistantes, et à ignorer ou discréditer celles qui les contredisent. Imaginez que vous croyez que les chats noirs portent malheur. Chaque fois qu’il vous arrive quelque chose de négatif après avoir croisé un chat noir, votre cerveau enregistre : « Aha ! Encore une preuve ! » Mais toutes les fois où vous croisez un chat noir sans qu’il se passe rien ? Votre cerveau les oublie. Et tous les malheurs qui arrivent sans chat noir ? Ils ne comptent pas dans l’équation. Ce n’est pas que vous soyez malhonnête, c’est que votre cerveau fait des économies en ne retenant que ce qui confirme ce qu’il sait déjà.
- Le biais d’ancrage : La première information que nous recevons sur un sujet (l' »ancre ») influence démesurément nos jugements ultérieurs, même si cette information est arbitraire. Le premier prix affiché lors d’une négociation, le premier chiffre cité dans une réunion, la première impression que nous laisse une personne… tout cela jette une ancre dans notre esprit qui sera difficile à relever.
- Le biais de représentativité : Nous avons tendance à juger une situation ou une personne en nous basant sur des stéréotypes ou des ressemblances avec des cas connus, plutôt que sur une analyse statistique réelle. Si nous rencontrons une personne timide qui porte des lunettes et aime la lecture, notre cerveau sera tenté de conclure qu’il s’agit d’un bibliothécaire plutôt que d’un agriculteur, alors qu’il y a statistiquement beaucoup plus d’agriculteurs que de bibliothécaires.
Ces biais, et des dizaines d’autres, ne sont pas l’apanage des esprits simples. Ils affectent tout le monde, du citoyen ordinaire au scientifique chevronné, du juge au médecin. Ils sont le système d’exploitation par défaut de notre cerveau. Comprendre cela, ce n’est pas se résigner, mais faire le premier pas pour s’en affranchir. C’est allumer une lumière dans les recoins de notre propre pensée pour y débusquer les automatismes. C’est cette même lumière que nous devrons ensuite tourner vers la science, puis vers nos propres créations.
La noble erreur, moteur de la connaissance
Si les biais sont les courants sous-marins de notre pensée, l’erreur est la vague qui vient parfois s’échouer sur le rivage de la réalité. Elle est l’événement visible, l’acte manqué, la prédiction qui ne se réalise pas. Et si notre premier réflexe est de la maudire, une observation plus attentive révèle qu’elle est l’un des plus puissants moteurs du progrès humain. La connaissance ne se construit pas en empilant des vérités, mais en éliminant des erreurs.
L’obstacle comme point de départ
Le philosophe des sciences Gaston Bachelard a eu cette formule géniale : « la connaissance du réel est une lumière qui projette toujours quelque part des ombres ». Pour lui, on ne commence jamais à apprendre à partir de rien. On commence toujours contre une connaissance antérieure, contre des préjugés, des images, des intuitions qui forment un « obstacle épistémologique ». L’esprit qui aborde la science n’est jamais jeune, il est même « très vieux, car il a l’âge de ses préjugés ».
L’erreur première, selon Bachelard, n’est donc pas un accident de parcours, mais le point de départ obligé. L’alchimie n’était pas une simple bêtise, c’était un obstacle nécessaire à l’émergence de la chimie. La croyance que le Soleil tourne autour de la Terre n’était pas une stupidité, mais une intuition puissante, un obstacle que des siècles d’observations et de calculs ont dû péniblement surmonter. Apprendre, c’est donc rectifier. Penser, c’est dire non à ses propres pensées initiales. L’erreur n’est pas un vide à combler, mais un « trop-plein » à déconstruire. Elle est féconde parce qu’elle nous force à penser contre nous-mêmes, à briser nos certitudes les plus confortables.
La science, ou l’art de chercher à avoir tort
Cette idée est magnifiquement complétée par un autre grand philosophe des sciences, Karl Popper. Si vous demandez à la plupart des gens ce qui définit la science, ils vous répondront qu’elle prouve des choses, qu’elle « vérifie » ses théories. Popper a retourné cette idée comme un gant. Pour lui, ce qui distingue une théorie scientifique d’une croyance ou d’une idéologie, ce n’est pas sa capacité à être vérifiée (on trouve toujours des confirmations si on les cherche, c’est le principe du biais de confirmation), mais sa capacité à être réfutée.
Une théorie n’est scientifique que si elle est « falsifiable », c’est-à-dire si elle prend le risque de se confronter à une expérience qui pourrait la prouver fausse. La théorie de la relativité d’Einstein était scientifique car elle faisait des prédictions audacieuses (comme la déviation de la lumière par la gravité) qui, si elles n’avaient pas été observées, auraient détruit la théorie. À l’inverse, une théorie qui explique tout, qui ne peut jamais être prise en défaut, n’est pas une super-théorie : elle est irréfutable, et donc, non-scientifique.
La science ne progresse donc pas en accumulant des « oui », mais en éliminant des « non ». Chaque expérience qui échoue, chaque hypothèse qui s’effondre, n’est pas un échec, mais une victoire. C’est une erreur en moins, un cul-de-sac que l’humanité n’aura plus à explorer. Le scientifique n’est pas celui qui a raison, mais celui qui cherche humblement et méthodiquement toutes les manières possibles d’avoir tort. L’erreur est la frontière que la connaissance repousse sans cesse.
L’erreur qui nous construit
Cette logique ne s’applique pas qu’à la science. Elle est au cœur de tout apprentissage. Un enfant qui apprend à marcher ne réussit pas du premier coup. Il tombe, se relève, ajuste son équilibre, tombe à nouveau. Chaque chute est une information précieuse que son corps et son cerveau intègrent pour corriger le mouvement suivant. L’erreur est une donnée, un feedback. Interdire à un enfant de tomber, c’est lui interdire d’apprendre à marcher.
En psychologie cognitive, on considère que l’erreur est le signal d’un décalage entre le modèle mental que nous avons d’une action et le résultat que cette action produit dans le réel. C’est ce décalage qui nous force à mettre à jour notre modèle. Sans erreur, pas de mise à jour. Sans mise à jour, pas d’apprentissage. C’est pourquoi les cultures (d’entreprise, d’éducation) qui punissent l’erreur sont si stériles : elles coupent le circuit essentiel du retour d’information, elles encouragent la dissimulation et la stagnation.
Accepter l’erreur, la sienne comme celle des autres, n’est donc pas un acte de laxisme, mais un acte de sagesse. C’est reconnaître la nature même de notre condition d’êtres apprenants. Mais cette acceptation a une limite, une frontière morale que nous ne devons jamais franchir : celle de l’intention.
La fracture de l’intention : de l’erreur à la tromperie
L’erreur est un accident de parcours sur le chemin de la vérité. La tromperie est un acte de sabotage. L’une est une boussole déréglée, l’autre une carte délibérément falsifiée pour envoyer le voyageur dans le ravin. Si l’erreur est une part essentielle de notre humanité, la tromperie en est l’une de ses perversions les plus corrosives. Les confondre est une faute morale et intellectuelle.
Le mensonge comme arme
Ce qui sépare radicalement l’erreur de la tromperie, c’est un seul et unique critère : l’intention de nuire ou de manipuler. Le scientifique qui se trompe est de bonne foi ; il est le premier déçu de son erreur. Le créateur d’infox (ou fake news), lui, sait que son information est fausse, et c’est précisément pour cela qu’il la diffuse. Son but n’est pas d’informer, mais d’influencer, de déstabiliser, de gagner du pouvoir, de l’argent, ou de semer le chaos.
Le vocabulaire est ici important. On distingue généralement :
- La désinformation : c’est la création et la diffusion intentionnelle d’informations fausses dans un but malveillant. C’est l’arme de la propagande, des opérations d’ingérence, des campagnes de haine.
- La mésinformation : c’est le partage d’informations fausses, mais sans l’intention de nuire. C’est la personne de bonne foi qui relaie une fausse nouvelle en pensant bien faire, croyant alerter ses proches d’un danger. Elle commet une erreur, mais ne trompe pas.
La désinformation est le crime, la mésinformation en est souvent la conséquence tragique, le véhicule involontaire.
La mécanique de la manipulation : exploiter nos failles
Le génie diabolique de la désinformation est qu’elle ne fonctionne pas malgré nos biais cognitifs, mais grâce à eux. Elle est conçue sur mesure pour pirater notre système d’exploitation mental.
Une infox efficace est une véritable bombe à fragmentation psychologique. Elle est souvent conçue pour :
- Activer notre biais de confirmation : Elle nous dit ce que nous avons déjà envie de croire, flattant nos opinions et diabolisant nos adversaires. Elle nous offre le confort d’une réalité simple, en noir et blanc.
- Déclencher des émotions fortes : La peur, la colère, l’indignation sont les carburants les plus puissants de la viralité. Une information qui nous choque ou nous met en rage sera partagée plus vite et avec moins de recul critique qu’une information nuancée et factuelle.
- Créer une illusion de consensus : En étant massivement relayée par des bots ou des communautés très soudées, elle donne l’impression d’être une opinion majoritaire, poussant les indécis à se rallier par conformisme social.
Le créateur d’infox est un ingénieur en psychologie inversée. Il n’essaie pas de nous élever vers la connaissance, mais de nous faire régresser vers nos réflexes les plus primaires. Il ne s’adresse pas à notre cortex préfrontal, siège de la raison, mais à notre cerveau limbique, celui des émotions et de la survie.
L’érosion de la confiance, la mort du débat
Les conséquences de cette tromperie organisée sont dévastatrices. Elles vont bien au-delà du simple fait d’être mal informé. La désinformation pulvérise le socle même de la vie en société : la confiance. Confiance dans les institutions (médias, science, gouvernement), confiance dans l’expertise, et finalement, confiance les uns dans les autres.
Quand la vérité n’est plus un horizon commun, quand chaque fait peut être contesté par une « vérité alternative », il n’y a plus de débat possible. Il n’y a plus qu’un dialogue de sourds, un affrontement de croyances irréconciliables. La tromperie ne crée pas seulement de l’ignorance, elle fabrique de l’isolement et de la polarisation. Elle nous enferme dans des « bulles de filtres » où nous n’entendons plus que l’écho de nos propres certitudes, nous rendant à la fois plus extrêmes et plus vulnérables à la manipulation.
C’est en gardant à l’esprit cette distinction vitale entre l’erreur honnête et le mensonge intentionnel que nous pouvons maintenant aborder le cas de l’intelligence artificielle. Car c’est là que la confusion atteint son paroxysme.
L’IA, le miroir de nos biais : comment reprendre le pouvoir par la connaissance
Nous voici arrivés au dernier acte de notre réflexion, celui où notre création la plus sophistiquée nous tend un miroir. L’intelligence artificielle, et en particulier les modèles d’apprentissage automatique (machine learning), est souvent parée des vertus de l’objectivité absolue. Une machine, après tout, ne calcule-t-elle pas sans émotions ni préjugés ? C’est un mythe aussi répandu que dangereux. L’IA n’est pas une conscience désincarnée née du vide ; elle est le produit d’un monde humain, et à ce titre, elle en est l’héritière. Elle hérite du meilleur, comme de nos pires penchants.
Le péché originel : comment nos biais se transmettent à la machine
Un algorithme d’IA n’est, au fond, qu’un moteur statistique extraordinairement puissant. Il ne « pense » pas, il « calcule des probabilités ». Il apprend à reconnaître des schémas (patterns) en analysant d’immenses quantités de données. La source de ses biais se situe précisément là, à la racine de son éducation. La transmission de nos biais se fait principalement par deux canaux.
- Les données, reflet de notre monde : C’est le canal le plus important. Si vous entraînez une IA sur l’ensemble des textes disponibles sur Internet jusqu’en 2023, elle va ingérer des milliards de pages qui reflètent l’histoire de nos sociétés, avec tous leurs stéréotypes. Elle apprendra statistiquement que le mot « médecin » est plus souvent associé à « homme » et « infirmière » à « femme ». Elle constatera que les noms à consonance occidentale sont plus souvent liés à des postes de direction. L’IA ne crée pas le stéréotype, elle le détecte comme un schéma statistique pertinent et l’apprend. Pensez à un enfant qui grandit dans une famille où seul papa conduit la voiture et maman fait la cuisine. Si vous lui demandez de dessiner « un conducteur », il dessinera probablement un homme. Ce n’est pas parce qu’il est sexiste, c’est parce qu’il reproduit les schémas qu’il a observés. L’IA fait exactement pareil : elle dessine le monde tel qu’elle l’a vu dans ses données d’entraînement, avec tous les stéréotypes qu’il contient. La donnée n’est pas une description neutre du réel, elle est le réel lui-même, avec toutes ses injustices et ses inégalités historiques. L’algorithme, en bon élève, ne fait que les reproduire, et souvent, les amplifier.
- Les concepteurs, architectes influents : Les humains interviennent à chaque étape de la création d’une IA. Ce sont des humains qui choisissent les données d’entraînement, qui décident de nettoyer ou non certaines informations, qui définissent l’objectif que l’algorithme doit optimiser (par exemple, « maximiser le temps passé sur la plateforme » ou « prédire le risque de récidive »). Chacun de ces choix est un acte de jugement, potentiellement sujet aux biais inconscients de l’équipe de développement. Si une équipe est composée exclusivement de jeunes hommes issus du même milieu social, ils risquent de ne pas anticiper les problèmes que leur produit pourrait poser à une femme âgée ou à une personne d’une autre culture.
Des exemples qui ne trompent pas
Ces biais ne sont pas théoriques. Ils ont déjà eu des conséquences concrètes et dommageables, documentées par de nombreux chercheurs.
- En 2018, une enquête a révélé que l’outil de recrutement expérimental d’Amazon, conçu pour analyser des CV, pénalisait systématiquement les candidatures contenant le mot « femme » (comme « capitaine de l’équipe de football féminin »). Pourquoi ? Parce qu’il avait été entraîné sur les CV reçus par l’entreprise sur une période de 10 ans, qui provenaient majoritairement d’hommes. L’IA avait appris que le succès dans le passé était un phénomène masculin.
- L’algorithme COMPAS, utilisé par la justice américaine pour évaluer le risque de récidive des prévenus, a été accusé en 2016 par l’agence de journalisme ProPublica de se tromper de manière racialement biaisée. À risque de récidive égal, le logiciel avait tendance à qualifier les prévenus noirs de plus risqués qu’ils ne l’étaient, et les blancs de moins risqués. Le biais ne venait pas d’une intention raciste, mais des données historiques qui reflétaient des pratiques policières et judiciaires elles-mêmes biaisées.
- Plusieurs études, dont celle menée par Joy Buolamwini et Timnit Gebru au MIT, ont montré que les logiciels de reconnaissance faciale des plus grandes entreprises technologiques avaient des taux d’erreur spectaculairement plus élevés pour les femmes à la peau foncée que pour les hommes à la peau claire. Les systèmes avaient tout simplement été moins bien entraînés sur ces visages, moins présents dans les bases de données.
Ces exemples sont la preuve irréfutable que l’IA, laissée à elle-même, peut devenir un agent de discrimination à grande échelle, automatisant et légitimant des injustices existantes sous un vernis de neutralité technologique.
Les réponses à notre portée : de la technique à la conscience
Face à ce constat, le fatalisme n’est pas une option. Des solutions existent, à plusieurs niveaux. Mais elles ne sont pas de même nature, et il est crucial de bien les hiérarchiser.
- 1. Les outils techniques et organisationnels : des garde-fous indispensables mais insuffisants Les ingénieurs et les entreprises ont développé des approches concrètes pour auditer et corriger leurs modèles. Ces outils sont nécessaires, mais ils traitent davantage les symptômes que la racine du problème. On parle d’IA Explicable (XAI), qui vise à rendre les décisions d’un algorithme transparentes pour qu’un humain puisse les comprendre et les contester. Des techniques de « débiaisage » permettent de rééquilibrer les données ou d’ajuster les prédictions. Sur le plan organisationnel, la diversité des équipes de développement est reconnue comme un facteur clé pour anticiper un plus grand nombre de biais. Enfin, le principe de supervision humaine pour les décisions critiques (un médecin doit valider le diagnostic de l’IA, un juge doit avoir le dernier mot sur la peine) reste une protection essentielle. Tous ces garde-fous sont indispensables. Mais ils ne peuvent, à eux seuls, nous prémunir contre des biais qu’ils ne font que corriger après coup, sans s’attaquer à leur origine.
- 2. La régulation : un filet de sécurité nécessaire mais limité Face aux risques, le législateur a commencé à réagir. L’exemple le plus marquant est l’AI Act de l’Union Européenne. Ce règlement, pionnier au niveau mondial, classe les systèmes d’IA selon leur niveau de risque et impose des obligations strictes (transparence, qualité des données, supervision humaine) pour les systèmes jugés « à haut risque » (justice, RH, santé…). C’est un filet de sécurité indispensable pour protéger les citoyens et responsabiliser les entreprises. Cependant, la régulation a ses limites. Elle court souvent après une technologie qui évolue à une vitesse fulgurante. Elle peut être contournée, et surtout, elle ne peut pas tout prévoir. Une loi ne peut remplacer le discernement. Elle fixe un cadre, mais ne crée pas une culture. Elle est une condition nécessaire, mais non suffisante.
- 3. L’éducation : le véritable levier de souveraineté La solution la plus puissante, la plus durable, ne se trouve ni dans le code, ni dans la loi, mais dans nos esprits. C’est l’éducation, au sens le plus large du terme.
- Comprendre pour ne pas subir : La première urgence est de démystifier l’IA. Il n’est pas nécessaire d’être ingénieur pour comprendre les grands principes. Comme Richard Feynman l’aurait fait, on peut expliquer simplement ce qu’est un modèle de langage : ce n’est pas une conscience, c’est un « perroquet stochastique » extrêmement sophistiqué. Imaginez un perroquet qui aurait lu l’intégralité d’Internet et qui, quand vous commencez une phrase, devine le mot suivant le plus probable statistiquement. Si vous dites « Le ciel est… », il répondra probablement « bleu » parce qu’il a vu cette combinaison des millions de fois. Il n’a aucune idée de ce qu’est le ciel, ni de ce qu’est le bleu. Il reconnaît juste des motifs, des patterns. C’est pour cela qu’il peut « halluciner » et inventer des faits avec un aplomb déconcertant : il ne sait pas qu’il ment, il génère simplement la suite de mots la plus probable, un maître du camouflage statistique qui prédit le mot suivant le plus probable dans une phrase. Comprendre cela, c’est déjà se prémunir contre l’anthropomorphisme, c’est cesser de lui prêter des intentions qu’il n’a pas.
- Développer une hygiène numérique : Face à un texte, une image ou une recommandation générée par une IA, nous devons activer les mêmes réflexes que le scientifique poppérien : le doute méthodique. D’où vient cette information ? Puis-je la vérifier auprès d’une source indépendante ? Quels sont les biais potentiels de ce système ? Il s’agit d’acquérir un esprit critique 2.0, une forme d’hygiène informationnelle adaptée à un monde où le contenu n’est plus exclusivement produit par des humains. Ne jamais faire une confiance aveugle, ne jamais déléguer sa pensée.
- Former pour l’avenir : Enfin, la bataille se gagnera sur le long terme par la formation. Il est crucial d’intégrer massivement des cours d’éthique, de sciences sociales et de philosophie dans les cursus des ingénieurs et des développeurs, pour qu’ils prennent conscience de l’impact sociétal de leurs créations. Et parallèlement, il faut acculturer tous les citoyens, dès l’école, aux enjeux du numérique, non pas seulement comme des utilisateurs, mais comme des citoyens éclairés capables de comprendre et de questionner les outils qui façonnent leur monde.
Vers une éthique de l’imperfection éclairée
Nous avons commencé ce périple en célébrant l’erreur, cette compagne de route si humaine, si fertile. Nous l’avons distinguée de sa caricature malveillante, la tromperie, qui ronge la confiance et sabote le débat. Nous avons vu comment nos propres biais, ces raccourcis de l’esprit hérités de notre passé, trouvent une nouvelle vie, amplifiée, dans les circuits de l’intelligence artificielle. Le miroir que nous tend l’IA n’est pas flatteur. Il nous renvoie à nos propres contradictions, à nos injustices passées et à nos angles morts.
Face à ce reflet, la tentation est grande de tomber dans deux pièges : le technosolutionnisme naïf, qui croit que quelques ajustements algorithmiques suffiront à « réparer » la machine, ou le rejet technophobe, qui voit en l’IA une menace démoniaque à débrancher. Ces deux extrêmes manquent la cible. Le véritable enjeu n’est pas dans la machine. Il est en nous.
Les solutions techniques sont des pansements, les régulations sont des garde-fous. Ils sont utiles, nécessaires, mais ils ne nous guériront pas de la racine du mal : notre propre manque de lucidité. La véritable révolution que l’IA nous impose n’est pas technologique, elle est humaniste. Elle nous somme de devenir de meilleurs humains, plus conscients de nos propres failles, plus critiques face à toutes les formes d’autorité, y compris celle, glacée et péremptoire, de l’algorithme.
Le défi n’est donc pas de construire des machines parfaites, exemptes de tout biais – une quête aussi vaine que celle de l’alchimiste cherchant la pierre philosophale. Le défi est d’utiliser le miroir de l’IA pour nous sonder nous-mêmes. C’est de développer une « éthique de l’imperfection éclairée » : accepter notre faillibilité comme une force, cultiver le doute comme une vertu, et placer l’éducation et la compréhension au-dessus de l’obéissance et de l’automatisation.
L’intelligence artificielle ne sera ni notre sauveur, ni notre fossoyeur. Elle sera ce que nous déciderons d’en faire. Un outil d’aliénation qui automatise nos pires penchants, ou un instrument de connaissance qui, en révélant nos biais, nous aide à les surmonter. Plus que jamais, l’avenir n’est pas à écrire. Il est à déconstruire, à corriger, à apprendre. Il est à l’image de notre propre esprit : un brouillon magnifique, toujours en cours de réécriture.
Références
Bachelard, G. (1938). La Formation de l’esprit scientifique. Vrin.
Popper, K. (1934). La Logique de la découverte scientifique. Payot.
Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. (Publié en français sous le titre Système 1 / Système 2 : Les deux vitesses de la pensée).
O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown. (Publié en français sous le titre Algorithmes : La bombe à retardement).
Dastin, J. (2018, 10 octobre). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016, 23 mai). Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 77-91. http://proceedings.mlr.press/v81/buolamwini18a.html
Commission Européenne. (2021). Proposition de RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL ÉTABLISSANT DES RÈGLES HARMONISÉES EN MATIÈRE D’INTELLIGENCE ARTIFICIELLE (LÉGISLATION SUR L’INTELLIGENCE ARTIFICIELLE). https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:52021PC0206
The Alan Turing Institute. Explainable AI (XAI). https://www.turing.ac.uk/research/research-projects/explainable-ai-xai
