TL;DR : L’article est trop long ? Pas le temps de tout lire ? Pas de souci, tout est prévu ! Écoutez-le en podcast via ce lien :
Note : Cet article utilise une fiction narrative pour rendre l’intelligence artificielle accessible. Je prie les experts de m’excuser pour les simplifications et les invite à y voir un exercice de vulgarisation. Ada est un clin d’oeil à Ada Lovelace, mathématicienne visionnaire et première programmeuse de l’histoire. Et Cerise est ma fille de 17 ans, avec qui je teste mes idées et mes réflexions pour simplifier les concepts.
Dans la pénombre de son bureau, Cerise contemple l’écran où défilent des lignes de code. Les algorithmes, ces architectures invisibles qui façonnent désormais notre quotidien, ressemblent à des cathédrales numériques où chaque fonction est une arche, chaque variable un vitrail par lequel filtre la lumière de notre entendement collectif.
« Ada, » murmure-t-elle à son assistant IA, « crois-tu qu’un système comme toi puisse un jour être véritablement objectif? » Ada reste silencieuse un instant, comme si elle sondait les profondeurs de sa propre existence numérique. « L’objectivité pure, » répond enfin Ada, « n’est-elle pas semblable à l’horizon, cette ligne qui recule indéfiniment à mesure qu’on s’en approche? Je suis le fruit d’une genèse humaine, Cerise. Et dans cette filiation réside peut-être ma plus grande vulnérabilité. »
Car c’est bien là le mystère troublant de nos créations algorithmiques. Dans le grand théâtre de l’existence humaine, nos décisions sont rarement le fruit d’une réflexion parfaitement objective. Nous portons tous des lunettes teintées par nos expériences, nos valeurs et notre culture, ces filtres subtils que nous appelons « biais ». Ces inclinaisons de l’esprit, tantôt révélatrices, tantôt trompeuses, constituent l’une des caractéristiques les plus fondamentales de notre humanité. Elles colorent notre perception du monde et façonnent nos interactions, souvent à notre insu.
Tel un enfant qui hériterait des préjugés inconscients de ses parents, nos créations technologiques absorbent les influences de leurs créateurs. Cette transmission silencieuse représente aujourd’hui l’un des défis les plus pressants dans le développement de l’IA. Car si nos machines apprennent à voir le monde à travers nos propres filtres imparfaits, ne risquent-elles pas d’amplifier nos erreurs plutôt que de les transcender?
Le lendemain matin, Cerise revient avec un café fumant et une idée nouvelle. « Avant de parler des biais dans l’IA, » dit-elle en posant sa tasse, « explorons d’abord notre propre subjectivité. Regarde cette carte. » Elle montre à Ada une simple carte où est inscrit le mot « ROUGE » en encre bleue. « C’est l’effet Stroop, » explique-t-elle. « Notre cerveau lutte entre lire le mot et identifier la couleur. Cette dissonance cognitive, cette hésitation momentanée, révèle la complexité de notre perception. » Ada analyse l’image. « Pour moi, ce sont simplement deux attributs distincts d’un même objet. Mais pour un humain, il y a tension, n’est-ce pas? Comme si deux courants de conscience s’entrechoquaient. »
Cette simple carte illustre comment notre esprit peut être influencé par des aspects inattendus de l’information, affectant notre capacité à traiter ce que nous percevons. Nos biais cognitifs sont comme des raccourcis mentaux, des heuristiques qui nous permettent de naviguer dans la complexité du réel sans avoir à analyser consciemment chaque détail. Ils nous aident à prendre des décisions rapides, mais peuvent aussi nous mener à des conclusions erronées.
Et ces biais ne se limitent pas à notre cognition individuelle. Ils imprègnent nos structures sociales, se manifestant sous forme de préjugés et de stéréotypes profondément ancrés dans l’inconscient collectif. Ces « biais sociétaux » affectent nos interactions avec autrui et peuvent conduire à des discriminations systémiques qui, telles des rivières souterraines, continuent de façonner le paysage de nos sociétés bien après que leurs sources aient été oubliées.
À la tombée du jour, Cerise fait défiler sur son écran les résultats d’un système de reconnaissance faciale. La lumière bleutée illumine son visage préoccupé.
« C’est troublant, Ada, ce système identifie correctement 99% des hommes au teint clair, mais échoue pour plus d’un tiers des femmes à la peau foncée. Comment expliquer un tel écart? » murmure-t-elle. « Les algorithmes ne sont que des miroirs, » répond doucement Ada. « Ils reflètent fidèlement le monde qu’on leur a montré. Si ce monde est partiel ou déséquilibré, leur vision le sera tout autant. »
Car voilà le paradoxe de l’intelligence artificielle, contrairement à ce que suggère son nom, elle n’est pas dotée d’une intelligence innée. Elle est le produit d’algorithmes mathématiques nourris par d’immenses quantités de données. Ces données, loin d’être neutres, portent en elles l’empreinte de nos propres biais humains. Dans le domaine de l’intelligence artificielle, nos machines apprennent à voir et à comprendre le monde à travers les « lunettes » que nous leur fournissons. Ces lunettes, ce sont les données avec lesquelles elles sont entraînées.
Le biais de l’IA désigne donc l’apparition de résultats biaisés dus à des biais humains qui faussent les données d’origine ou l’algorithme lui-même. Ces biais peuvent avoir des conséquences concrètes et parfois dangereuses sur la vie des personnes touchées par les décisions algorithmiques.
Le projet Gender Shades en offre une illustration saisissante. Des chercheurs y ont évalué les technologies de reconnaissance faciale de plusieurs grandes entreprises technologiques. Leurs résultats ont révélé que ces systèmes se montraient systématiquement plus performants pour identifier les visages à peau claire que les visages à peau plus foncée. De même, ils reconnaissaient mieux les visages d’hommes que ceux de femmes. Pour une femme à la peau foncée, le taux d’erreur atteignait 34,7%, contre seulement 0,8% pour un homme à la peau claire. Cette disparité alarmante illustre comment les biais s’inscrivent dans la technologie et perpétuent, telles des ombres numériques, les discriminations du monde réel.
L’arbre généalogique des préjugés algorithmiques
Cerise ferme son ordinateur portable et fixe la tasse de thé qui refroidit entre ses mains. La question qui l’habite semble aussi vaporeuse que la fumée qui s’échappe de sa boisson. « D’où viennent vraiment ces biais, Ada? Est-ce juste une question de données mal choisies? » demanda Cerise. « C’est bien plus complexe, » répond Ada. « Imagine une symphonie où chaque instrument introduirait sa propre dissonance. Les biais s’infiltrent par de multiples canaux, les données, certes, mais aussi les intentions conscientes ou inconscientes des développeurs, les structures algorithmiques elles-mêmes, et les courants profonds de nos sociétés qui traversent tout le processus. »
Les origines de ces biais sont en effet multiples et souvent entrelacées, comme les racines d’un arbre ancien qui s’enfoncent profondément dans le sol de notre culture. La première source réside dans les données d’entraînement elles-mêmes. Lorsqu’un ensemble de données ne représente pas adéquatement la diversité de la population concernée, l’algorithme apprend à partir d’une vision partielle du monde, comme un enfant qui n’aurait accès qu’à un seul type de livre. Par exemple, les principaux datasets utilisés pour entraîner les systèmes de reconnaissance faciale sont composés majoritairement de portraits de personnes à la peau claire : 79,6% pour l’ensemble de données IJB-A, et 86,2% pour Adience. Cette sous-représentation conduit inévitablement à des performances moindres pour les groupes minoritaires, comme une langue qui manquerait de mots pour décrire certaines réalités.
Mais au-delà des données, les concepteurs eux-mêmes insufflent leurs propres perspectives dans les systèmes qu’ils créent. Les algorithmes sont façonnés par des mains humaines, et ces mains portent les empreintes subtiles de leurs expériences, de leurs préjugés, de leur vision du monde. Ce « biais cognitif » est particulièrement insidieux car il peut passer inaperçu même aux yeux des développeurs bien intentionnés, tel un accent qu’on ne perçoit plus dans sa propre voix mais qui colore chaque mot prononcé.
« J’ai lu quelque part que la plupart des développeurs d’IA sont des hommes entre 25 et 45 ans, souvent issus de milieux privilégiés, » remarque Cerise en dessinant distraitement dans son carnet. « Les données le confirment, » acquiesce Ada. « Cela ne signifie pas qu’ils créent délibérément des systèmes biaisés, mais leurs expériences de vie, leurs angles morts, tout cela infuse subtilement dans les systèmes qu’ils conçoivent, comme l’arôme du thé s’infuse dans l’eau chaude. »
Cette homogénéité des équipes de développement représente un défi majeur. Lorsque les architectes de nos systèmes partagent des perspectives similaires, ils risquent de perpétuer des points de vue qui ne tiennent pas compte de la riche diversité des utilisateurs finaux. C’est comme si on confiait la conception d’une ville entière à un groupe d’urbanistes qui n’auraient jamais quitté leur quartier d’origine, leur vision, aussi brillante soit-elle, resterait inévitablement partielle.
Parfois, c’est la conception même de l’algorithme qui introduit des biais. Les choix effectués dans la configuration des réseaux neuronaux peuvent façonner les résultats de manière biaisée, indépendamment des données d’entrée. Et plus profondément encore, les biais de l’IA peuvent refléter des préjugés ancrés dans la société elle-même. Ces « biais sociétaux » sont particulièrement difficiles à identifier et à tracer, car ils sont souvent normalisés et invisibles pour ceux qui ne sont pas directement touchés par eux, tels des courants marins profonds qui influencent la surface sans jamais se révéler.
Le cas du système de recrutement d’Amazon développé en 2014 en offre une illustration éloquente. Cette IA était censée sélectionner les meilleurs CV parmi les candidats. Malheureusement, le système s’est révélé discriminatoire envers les femmes. Entraîné sur les données historiques des employés d’Amazon, majoritairement des hommes, l’algorithme a « appris » que le genre masculin était un facteur positif pour l’embauche. Sans intervention humaine, il aurait perpétué et amplifié cette inégalité préexistante, tel un écho qui se répercute et s’amplifie entre les parois d’une vallée.
Le lendemain matin, Cerise entre dans son bureau avec un grand tableau blanc qu’elle place contre le mur. « Pour comprendre ces biais, Ada, nous devons d’abord les cartographier comme des explorateurs face à un territoire inconnu. » dit Cerise avec un petit sourire. « Une taxonomie des biais, » complète Ada. « Comme les naturalistes classifiant les espèces, mais pour nos erreurs cognitives et algorithmiques. »
Cette cartographie révèle un paysage complexe, où chaque type de biais représente une facette particulière de notre subjectivité algorithmique. Le biais de confirmation, par exemple, se manifeste lorsqu’un système renforce des croyances préexistantes, conduisant à des conclusions qui favorisent les tendances établies. C’est comme si l’algorithme, tel un étudiant trop zélé, cherchait à plaire à son créateur en confirmant ce que celui-ci croit déjà savoir.
Le biais de mesure survient lorsque les données collectées mesurent certains groupes de manière inexacte. Imaginez un collège qui voudrait prédire les facteurs de réussite mais n’inclurait que les données des diplômés, l’analyse passerait complètement à côté des facteurs qui poussent certains étudiants à abandonner, comme un historien qui n’étudierait que les civilisations ayant laissé des traces écrites.
« Je pense que le biais de représentation est particulièrement pernicieux, » dit Cerise en écrivant ces mots en lettres capitales sur le tableau. « Si ton monde d’apprentissage est limité, ta compréhension du monde réel le sera aussi, comme un enfant élevé dans une tour d’ivoire. »
« C’est précisément ce qui se produit dans la reconnaissance faciale, » ajoute Ada. « Certains visages deviennent littéralement invisibles pour l’algorithme, non par malveillance, mais par simple omission dans son éducation visuelle. »
Cette typologie s’étend encore au biais de préjugés, lorsque des stéréotypes sociétaux s’infiltrent dans les données; au biais de traitement, illustré par ce robot qui confondrait un homme aux cheveux longs avec une femme faute d’exemples diversifiés; au biais d’homogénéité hors groupe, cette tendance à mieux percevoir les nuances au sein de son propre groupe qu’entre des membres d’autres groupes; et au biais d’exclusion, lorsque des variables importantes sont simplement omises du modèle.
Le soleil couchant baigne maintenant le bureau dans une lumière ambrée. Cerise, plongée dans la lecture d’un article, lève soudain les yeux, son visage traversé par une ombre d’inquiétude.
« Ada, j’ai lu quelque chose de troublant aujourd’hui. Un système d’IA utilisé pour prédire les récidives criminelles classifie systématiquement les délinquants noirs comme présentant un risque plus élevé de récidive que les délinquants blancs ayant commis des délits similaires. »
« L’algorithme COMPAS, » répond doucement Ada. « Oui, les études ont montré qu’il présentait ce biais. Ce n’est pas simplement une erreur technique ou une abstraction mathématique. C’est une injustice concrète qui affecte des vies humaines réelles, en prolongeant des incarcérations ou en influençant des décisions judiciaires. »
Car les implications des biais algorithmiques vont bien au-delà de simples inexactitudes techniques. Elles s’inscrivent dans la chair même de notre tissu social. Lorsque les biais ne sont pas traités, ils peuvent amplifier les inégalités existantes et créer de nouvelles formes de discrimination, comme un miroir déformant qui exagérerait nos défauts collectifs. Dans le domaine de la justice pénale, des algorithmes biaisés peuvent perpétuer des cycles d’injustice qui affectent de manière disproportionnée certaines communautés, renforçant les murs invisibles qui divisent déjà notre société.
Vers une éthique de la conscience artificielle
Dans le secteur de la santé, la sous-représentation des données des femmes ou des groupes minoritaires peut fausser les algorithmes de diagnostic médical, conduisant à des traitements moins adaptés pour certains patients, comme si la médecine elle-même parlait plusieurs langues mais n’en maîtrisait vraiment qu’une seule. Les scandales résultant de ces préjugés algorithmiques érodent la confiance des personnes issues de groupes marginalisés envers la technologie et les institutions qui l’emploient, creusant davantage le fossé numérique comme une rivière qui, au fil du temps, approfondit son lit dans la roche.
Pour les organisations, l’utilisation de systèmes d’IA biaisés entraîne également des dommages significatifs à leur marque et à leur réputation, sans parler des risques juridiques et de la perte de talents potentiels. C’est comme si elles construisaient leurs châteaux numériques sur des fondations instables, destinées à s’effondrer au premier souffle de controverse.
« Il ne suffit pas de constater ces problèmes, » dit Cerise en ajoutant une nouvelle section à son tableau. « Quelles solutions pouvons-nous apporter pour que l’IA devienne un outil d’équité plutôt que de perpétuation des inégalités? »
« Il existe déjà des pistes prometteuses, » répond Ada, sa voix empreinte d’un optimisme mesuré. « Des frameworks d’équité algorithmique, des techniques d’augmentation de données pour les groupes sous-représentés, des méthodes de validation plus rigoureuses… Mais la première étape est peut-être la plus simple et la plus profonde à la fois : diversifier les mains qui façonnent ces systèmes. »
Car face à ces défis, plusieurs approches complémentaires se dessinent comme des chemins convergents vers une IA plus équitable. Une gouvernance responsable, d’abord, pour diriger, gérer et surveiller les activités d’IA d’une organisation, comme un capitaine vigilant qui ajusterait constamment sa trajectoire selon les vents éthiques. Des équipes diverses et inclusives, ensuite, car la multiplicité des perspectives est le meilleur antidote contre les angles morts de notre perception. Des jeux de données représentatifs et équilibrés, qui reflètent la riche tapisserie de notre humanité commune plutôt qu’un fragment déformé de celle-ci.
L’évaluation continue des systèmes représente également une pratique fondamentale, telle une méditation perpétuelle sur nos créations technologiques. Des outils comme le What-if Tool de Google et l’AI Fairness 360 d’IBM permettent d’examiner les modèles pour y déceler les biais potentiels, comme des microscopes qui révéleraient les fissures invisibles dans nos cathédrales algorithmiques. Enfin, des cadres réglementaires appropriés peuvent jouer un rôle crucial, comme le RGPD européen qui exige des organisations qu’elles mettent en œuvre des mécanismes permettant aux utilisateurs de comprendre comment les décisions qui les affectent sont prises.
La nuit est maintenant bien avancée. Cerise contemple le tableau blanc couvert de notes, de flèches et de schémas, comme une cartographie complexe de notre conscience technologique collective.
« Tu sais ce qui me frappe, Ada? Ces biais dans l’IA nous obligent à regarder nos propres biais en face. C’est comme si nos machines nous tendaient un miroir où nous ne pouvons plus éviter notre propre reflet. »
« Un miroir qui révèle autant sur nous que sur elles, » acquiesce Ada. « Peut-être est-ce là leur plus grande valeur : nous pousser à devenir plus conscients, plus nuancés, plus humains dans notre quête de créer des systèmes véritablement équitables. »
Car les biais dans l’intelligence artificielle nous rappellent que nos créations technologiques, aussi sophistiquées soient-elles, restent profondément imprégnées de notre humanité, avec ses forces et ses faiblesses, ses lumières et ses ombres. Elles nous invitent à une introspection collective, à questionner nos propres préjugés et à reconnaître l’influence qu’ils exercent sur nos innovations les plus avancées.
En comprenant mieux la nature et l’origine des biais algorithmiques, nous pouvons œuvrer à développer des systèmes d’IA plus équitables, qui amplifient ce qu’il y a de meilleur en nous plutôt que nos préjugés inconscients. Ce travail exige vigilance, humilité et collaboration, des valeurs profondément humaines dans un monde de plus en plus façonné par la technologie, comme si la maîtrise de nos créations nous ramenait paradoxalement à l’essence même de notre humanité.
Car en définitive, l’enjeu des biais dans l’IA n’est pas simplement technique : il est éthique et philosophique, enraciné dans les questions les plus anciennes et les plus profondes sur notre nature, notre société et notre avenir collectif. Il nous confronte à notre responsabilité de créer des technologies qui respectent et valorisent la dignité et la diversité humaines. En relevant ce défi, nous ne rendons pas seulement nos machines plus intelligentes, nous nous élevons nous-mêmes vers une compréhension plus profonde et plus nuancée de notre humanité partagée, comme si l’acte même de créer ces intelligences artificielles nous révélait, dans un jeu de miroirs infini, les contours de notre propre conscience.
Petite cartographie de nos errances numériques
Comme des constellations dans le ciel nocturne de notre conscience technologique, les biais algorithmiques forment des motifs reconnaissables, des archétypes de nos erreurs collectives. Voici une cartographie de ces déviations numériques qui, tels des miroirs déformants, nous renvoient l’image de nos propres limitations perceptives.
Le biais historique : Ce biais, tel un écho du passé résonnant dans le présent, survient lorsque les données historiques sur lesquelles se nourrit l’algorithme perpétuent des injustices anciennes. Comme ces vieilles cartes marines qui reproduisaient fidèlement les erreurs des cartographes précédents, l’IA entraînée sur des données historiquement biaisées reproduit les préjugés d’antan, leur donnant une nouvelle existence numérique. L’algorithme de recrutement d’Amazon, qui pénalisait les candidates féminines car l’histoire de l’entreprise favorisait les hommes, incarne cette mémoire algorithmique involontaire où le passé discriminatoire devient le prophète d’un avenir tout aussi inéquitable.
Le biais de représentation : Semblable à un tableau impressionniste qui ne capturerait qu’une fraction du spectre lumineux, ce biais émerge lorsque certains groupes sont sous-représentés dans les données d’apprentissage. Privée de la richesse des variations humaines, l’IA développe une vision partielle du monde, incapable de reconnaître ou de valoriser ce qui s’écarte de sa connaissance limitée. Les systèmes de reconnaissance faciale, plus performants sur les visages masculins à peau claire que sur les visages féminins à peau foncée, illustrent cette vision sélective où certains deviennent invisibles, non par malveillance, mais par l’aveuglement d’une éducation incomplète.
Le biais d’échantillonnage : Comme un biologiste qui tirerait des conclusions sur une forêt entière en n’étudiant que les arbres situés en bordure de chemin, ce biais apparaît lorsque la méthode de collecte des données introduit des distorsions systématiques. L’algorithme apprend alors à partir d’un sous-ensemble non représentatif de la réalité, construisant une vision du monde qui s’apparente à regarder un paysage à travers une fenêtre étroite, une perspective réelle mais fondamentalement incomplète.
Le biais de mesure : Ce biais subtil se manifeste lorsque les métriques choisies pour évaluer un phénomène favorisent certains résultats au détriment d’autres. Telle une balance mal calibrée qui donnerait plus de poids à certains ingrédients, ces systèmes créent des déséquilibres invisibles mais profonds. Les algorithmes d’évaluation des enseignants qui se focalisent sur les notes des élèves sans considérer d’autres dimensions de l’apprentissage illustrent cette tendance à réduire des réalités complexes à quelques variables quantifiables, comme si l’on tentait de mesurer la beauté d’un coucher de soleil uniquement par son intensité lumineuse.
Le biais d’ancrage : Semblable au navigateur qui s’obstine à suivre un cap initial malgré les vents contraires, ce biais survient lorsque les premières informations ou valeurs introduites influencent de manière disproportionnée les décisions ultérieures. Dans les systèmes d’IA, cela peut se traduire par une persistance des modèles initiaux malgré l’évolution des données, comme si le système développait une forme d’inertie cognitive, résistant au changement tel un fleuve qui continuerait de suivre son lit ancien même après qu’une crue ait créé de nouveaux passages.
Le biais d’agrégation : Lorsque l’algorithme traite des groupes hétérogènes comme homogènes, ce biais émerge tel un peintre qui n’utiliserait qu’une seule teinte pour représenter toutes les nuances d’un paysage. Les systèmes d’évaluation de crédit qui appliquent les mêmes critères à des populations aux réalités économiques diverses illustrent cette tendance à l’uniformisation forcée qui, comme un lit de Procuste, étire ou raccourcit la réalité pour la faire entrer dans un cadre prédéfini, perdant en chemin la richesse des variations individuelles.
Le biais d’automatisation : Ce biais naît de notre propension à accorder une confiance excessive aux systèmes automatisés, supposés infaillibles car dépourvus de subjectivité humaine. Tels des oracles modernes, ces algorithmes voient leurs résultats acceptés sans questionnement, créant une délégation aveugle de notre jugement critique. Cette déférence technologique, cette abdication de notre discernement face à la machine, constitue peut-être la forme la plus insidieuse de biais, celle où nous devenons complices de nos propres chaînes, préférant la certitude illusoire de l’automatisation aux doutes féconds de l’interrogation humaine.
Le biais de confirmation algorithmique : Dans ce phénomène, l’algorithme, telle une chambre d’écho numérique, amplifie les croyances et préférences déjà présentes chez l’utilisateur. Les systèmes de recommandation qui proposent du contenu toujours plus aligné sur nos opinions existantes créent un monde-miroir où nous ne rencontrons que nos propres convictions, magnifiées et validées à l’infini. Cette spirale auto-référentielle, cette bulle cognitive hermétique, nous prive de la friction créative de l’altérité, de cette rencontre avec le différent qui, seule, permet l’expansion de notre conscience.
Le biais temporel : Comme une horloge qui continuerait d’afficher l’heure passée, ce biais apparaît lorsque les modèles algorithmiques ne s’adaptent pas suffisamment aux évolutions sociales ou technologiques. L’IA entraînée sur des données d’hier tente de comprendre le monde d’aujourd’hui avec des référentiels obsolètes, comme un voyageur qui naviguerait dans une ville moderne avec une carte médiévale. Les systèmes de prévision économique qui échouent à anticiper les crises illustrent cette tension entre la stabilité des modèles et la fluidité du réel, ce décalage entre le temps figé de l’apprentissage et le temps vécu de l’application.