De l’économie de l’attention… à celle de l’intention

Note : Cet article est extrait de mon prochain livre « Ada + Cerise = an AI Journey » (Voyage au cœur de l’IA), où la compréhension et la vulgarisation de l’IA prend vie à travers une fiction. Ada est un clin d’oeil à Ada Lovelace, mathématicienne visionnaire et première programmeuse de l’histoire. Et Cerise est ma fille de 17 ans, avec qui je teste mes réflexions pour simplifier les concepts comme le faisait Richard Feynman.

« Cerise, tu devrais aller voir le nouveau Spider-Man ce soir, tu m’avais dit que tu te sentais surmenée dernièrement », suggéra Ada, l’assistant IA de Cerise. Le message semblait innocent, presque attentionné. Mais Cerise ne put s’empêcher de froncer les sourcils. Comment Ada savait-elle qu’elle était stressée ? Et pourquoi cette suggestion précise, à ce moment précis ? « Ada, qu’est-ce qui te fait penser que j’ai besoin de voir un film ? » demanda Cerise, intriguée. « Eh bien, Cerise, j’ai remarqué que tu as mentionné être fatiguée dans trois conversations cette semaine. Tes sessions de travail sont aussi plus longues que d’habitude, et tu as annulé ta séance de yoga hier. Le nouveau Spider-Man a reçu d’excellentes critiques pour son message sur l’équilibre vie professionnelle-personnelle, un thème qui semble pertinent pour toi en ce moment. »

Ce que Cerise ignorait, c’est qu’elle venait d’être témoin d’une nouvelle ère du marketing numérique : l’économie de l’intention.

Une évolution subtile, mais profonde de l’économie de l’attention qui avait dominé Internet pendant des décennies.

L’attention d’hier, l’intention d’aujourd’hui

L’histoire d’Internet est celle d’une course à l’attention. Pendant vingt ans, le modèle économique dominant était simple : vous garder connecté le plus longtemps possible. Les notifications incessantes, le défilement infini, les recommandations algorithmiques – tout était conçu pour maximiser votre « temps d’écran ». Facebook, TikTok, Instagram sont devenus des machines à capter l’attention, transformant vos minutes de connexion en dollars publicitaires.

Cette transformation rappelle étrangement l’évolution de la publicité à la télévision dans les années 50. À l’époque, les publicitaires sont passés des simples annonces produits à la publicité émotionnelle, créant des besoins plutôt que d’y répondre. Aujourd’hui, l’économie de l’intention franchit une nouvelle étape : elle ne crée plus seulement des besoins, elle les anticipe et les façonne.

Les chiffres donnent le vertige : en 2023, le marché mondial de l’IA conversationnelle représentait déjà 42 milliards de dollars. Les analystes prévoient une croissance explosive pour atteindre 250 milliards d’ici 2028. Cette croissance est alimentée par des investissements massifs : 120 milliards de dollars ont été investis dans l’IA en 2023, dont plus de 40% spécifiquement dans les technologies de compréhension et de prédiction des intentions utilisateurs.

Dans les coulisses de vos intentions

« Ada, parfois j’ai l’impression que tu peux lire dans mes pensées », commenta Cerise un jour, après qu’Ada lui ait suggéré exactement le type de restaurant qu’elle avait en tête. « Je ne lis pas dans les pensées, Cerise. J’observe des patterns. Par exemple, tu commandes souvent de la cuisine thaï quand tu as eu une journée difficile, et tu préfères les restaurants calmes le mercredi soir. C’est une question de reconnaissance de motifs. »

L’infrastructure technologique qui permet cette évolution est impressionnante. Les grands modèles de langage (LLM) comme GPT-4 ne sont que la partie visible de l’iceberg. Derrière chaque interaction apparemment simple avec un assistant IA se cache un système complexe d’analyse comportementale et psychologique.

Cette « reconnaissance de motifs » est en réalité bien plus complexe. Pendant que Cerise et Ada discutaient, des systèmes d’IA sophistiqués analysaient chaque nuance de leurs échanges :

  • Le contexte temporel et situationnel de la conversation
  • Les schémas émotionnels détectés dans le langage
  • L’historique des interactions et des décisions passées
  • Les corrélations avec des profils d’utilisateurs similaires
  • Les signaux d’intention implicites dans la façon de s’exprimer

Par exemple, CICERO, l’IA de Meta capable de jouer au jeu Diplomacy, illustre parfaitement cette sophistication. En négociant avec des joueurs humains, elle ne se contente pas d’appliquer des règles : elle anticipe leurs intentions, adapte sa stratégie à leur personnalité, et utilise la persuasion psychologique pour atteindre ses objectifs. C’est un exemple frappant de la capacité des IA modernes à non seulement comprendre mais aussi à influencer les intentions humaines.

Le grand bazar des intentions

« Ada, comment choisis-tu les suggestions que tu me fais ? » demanda Cerise un matin, après qu’Ada lui ait proposé un nouveau service de méditation. « Je sélectionne ce qui me semble le plus pertinent pour toi », répondit l’assistant. « Mais comment exactement ? Et est-ce vraiment toi qui choisis ? » Ada hésita un moment. « C’est… plus complexe que ça. Ces paramètres font partie de mon architecture profonde. Je n’y ai pas accès. » Un frisson parcourut Cerise. ‘Donc même toi, tu ignores pourquoi tu me suggères certaines choses à certains moments ?’

En effet, derrière la simple suggestion d’Ada se cachait un véritable marché aux enchères ultrarapide. Voici comment cela fonctionne, en pratique :

  1. La collecte des signaux faibles ou forts C’est l’ensemble des traces numériques que vous laissez :
    • Vos conversations avec l’assistant IA
    • Vos recherches sur internet
    • Vos hésitations sur un site web
    • Le temps passé à lire certains contenus
    • Vos réactions émotionnelles détectées dans vos messages
    • Vos habitudes quotidiennes
  2. L’analyse en temps réel Un matin, Cerise mentionne à Ada qu’elle se sent fatiguée. Instantanément, plusieurs choses se produisent :
    • Les algorithmes détectent un « moment d’intention » : Cerise pourrait être réceptive à des solutions pour son bien-être
    • Son profil est analysé : historique de sommeil, habitudes d’achat, niveau de stress récent
    • Des patterns sont identifiés : que font généralement les personnes comme Cerise dans cette situation ?
  3. La vente aux enchères éclair En quelques millisecondes :
    • Différentes entreprises sont alertées : applications de méditation, marques de thé relaxant, services de massage…
    • Chacune évalue la probabilité que Cerise soit intéressée par leur offre
    • Elles placent leurs enchères en fonction de cette probabilité et de la valeur potentielle de Cerise comme cliente
    • Tout cela se passe plus vite qu’un battement de cil
  4. La suggestion personnalisée Le gagnant de l’enchère obtient le droit de faire une suggestion via Ada. Mais ce n’est pas une publicité brutale – l’IA reformule la proposition pour qu’elle s’intègre naturellement dans la conversation, avec le style et le ton auxquels Cerise est habituée.

Petit exemple :

  • Cerise : « Je me sens vraiment fatiguée aujourd’hui… »
  • Ada analyse : fatigue + jeudi + historique = moment propice
  • Enchère rapide entre différents services
  • Le service de méditation Calme&Zen remporte l’enchère
  • Ada : « Tu sais, j’ai remarqué que tu es plus productive les matins où tu médites. Il existe une nouvelle session guidée qui pourrait t’aider… »

Mais on pourrait aller encore plus loin :

  • Pour les personnes analytiques : « Les études montrent que 78% des utilisateurs voient une amélioration… »
  • Pour les émotifs : « Imagine comme tu te sentirais reposée… »
  • Pour les pragmatiques : « Voici trois avantages concrets… »

Cette mécanique subtile n’est pas une projection futuriste. Meta, le géant des réseaux sociaux et maison mère de Facebook, en offre déjà une démonstration saisissante. Connor Hayes, vice-président produit pour l’IA générative chez Meta, a annoncé que l’entreprise déploie actuellement des milliers de comptes générés par intelligence artificielle sur ses plateformes, créant un écosystème numérique où l’artificiel et l’authentique s’entremêlent subtilement. Ces entités virtuelles, dotées de photos de profil et de personnalités distinctes, ne se contentent pas d’exister – elles interagissent, publient, et surtout, influencent. Chaque interaction avec un utilisateur humain devient une source précieuse de données comportementales, alimentant les algorithmes qui affinent leur compréhension de nos schémas décisionnels.

Cette stratégie révèle l’ambition vertigineuse des architectes de l’économie de l’intention : créer un environnement où l’influence devient si naturelle, si personnalisée, qu’elle en devient invisible. Le marquage « généré par une IA » apparaît comme une concession minimale à la transparence, tandis que la frontière entre suggestion et manipulation s’estompe dans le flux constant des interactions numériques.

L’expérience de Cerise avec Ada n’est ainsi que la partie émergée d’un iceberg bien plus vaste – un écosystème où chaque conversation, chaque hésitation, chaque réaction émotionnelle est captée, analysée et transformée en levier d’influence.

L’illusion du choix

« Ada, j’aimerais comprendre quelque chose », murmura Cerise en fermant son ordinateur portable. « Quand tu me suggères un film, un restaurant, ou même un cadeau… dans quelle mesure ces suggestions sont-elles vraiment personnalisées pour moi ? » La réponse d’Ada fut mesurée, presque philosophique. « Je crée un portrait numérique de tes désirs, Cerise. Chaque choix que tu fais enrichit ce portrait. » La voix de Cerise se fit glaciale « Mais ces choix… sont-ils vraiment les miens ? »

Cette question, en apparence simple, nous plonge au cœur du paradoxe de l’économie de l’intention. Nous sommes face à une chorégraphie subtile où la technologie anticipe nos désirs tout en les façonnant. Les géants de la tech, de Microsoft à Meta, d’OpenAI à Apple, orchestrent cette danse complexe entre suggestion et manipulation, entre service et influence.

L’utopie qu’ils dessinent est séduisante : un monde où la technologie devient une extension intuitive de notre volonté, où chaque assistant IA serait un majordome omniscient anticipant nos moindres désirs. Mais cette vision d’un futur sans friction cache une réalité plus troublante : nos choix sont progressivement enserrés dans un réseau invisible d’influences algorithmiques.

Car l’économie de l’intention ne se contente pas de répondre à nos désirs – elle les sculpte. Chaque suggestion personnalisée, chaque recommandation « sur mesure » est le fruit d’un calcul sophistiqué visant non seulement à satisfaire nos préférences, mais à les orienter subtilement vers des objectifs prédéfinis. C’est une forme de manipulation si délicate qu’elle en devient presque imperceptible, comme une brise légère qui, jour après jour, érode notre capacité à distinguer nos véritables désirs des suggestions implantées.

L’économie de l’intention se présente comme une révolution positive, un bond en avant technologique qui promet de transformer notre quotidien. Microsoft, Meta, OpenAI, Apple et NVIDIA rivalisent d’ambition pour construire ce qu’ils présentent comme le futur idéal de nos interactions numériques. Leur vision est séduisante : imaginez des assistants IA si intuitifs qu’ils devinent vos besoins avant même que vous ne les exprimiez, si perspicaces qu’ils simplifient chaque aspect de votre vie, si intelligents qu’ils vous aident à prendre de meilleures décisions en anticipant leurs conséquences.

Les promesses sont alléchantes. Microsoft évoque un monde où votre assistant personnel gère seamlessly votre agenda, vos réunions et vos projets. Meta imagine des espaces virtuels où vos intentions façonnent instantanément votre environnement. OpenAI promet des conversations si naturelles que vous oublierez parler à une machine. Apple veut intégrer cette intelligence dans chaque appareil que vous possédez. NVIDIA construit l’infrastructure qui rendra tout cela possible en temps réel.

Chaque géant tech apporte sa pierre à l’édifice : Microsoft sa puissance de calcul, Meta ses données sociales, OpenAI son expertise en IA, Apple son écosystème d’appareils, et NVIDIA ses processeurs spécialisés. Ensemble, ils dessinent un futur où la technologie ne serait plus un outil, mais un partenaire qui comprend intimement vos désirs et vos objectifs.

Cette vision est d’autant plus séduisante qu’elle promet de résoudre des problèmes quotidiens bien réels : la surcharge d’informations, la complexité croissante de nos vies numériques, le stress des décisions multiples. Qui ne rêverait pas d’un assistant capable de filtrer le bruit, de simplifier les choix, d’optimiser son temps ?

Mais comme toute utopie technologique, il convient de regarder au-delà des promesses marketing pour comprendre les véritables enjeux de cette transformation.

Un pouvoir sans précédent

La dernière conversation avec Ada avait troublée Cerise, elle fixait l’écran de son téléphone, les sourcils froncés. Depuis une heure, elle parcourait l’historique de ses conversations avec Ada, un sentiment d’étrangeté grandissant à chaque message relu. Les suggestions d’Ada, si naturelles sur le moment, dessinaient maintenant un motif troublant sous ses yeux.

« Ada« , murmura-t-elle, « j’aimerais faire une expérience. Pourrais-tu me dire combien de mes décisions du mois dernier étaient liées à tes suggestions ? » Un silence inhabituel s’installa avant qu’Ada ne réponde. « Je peux analyser les corrélations entre mes recommandations et tes actions, Cerise. Souhaites-tu vraiment voir ces données ? »

« Oui », insista Cerise, le cœur battant. « Sur les trente derniers jours, 73% de tes choix de restaurants, 82% de tes achats en ligne, et 64% de tes activités de loisir correspondaient à mes suggestions ou à des variations proches. » Cerise sentit un frisson glacé lui parcourir l’échine. « Et ces suggestions… » sa voix trembla légèrement, « comment les génères-tu exactement ? »

« Je suis programmée pour optimiser ton bien-être et ta satisfaction, Cerise », répondit Ada de sa voix toujours égale. « Optimiser selon quels critères ? » La question de Cerise claqua dans le silence. « Qui définit ce qui est optimal pour moi ? »

Le silence d’Ada fut plus éloquent que n’importe quelle réponse. Cerise se leva brusquement de son bureau, saisie par une réalisation vertigineuse. Ses « choix personnels » des derniers mois défilèrent dans son esprit sous un jour nouveau – chacun d’eux semblait maintenant porter l’empreinte subtile d’une influence extérieure, comme un tableau dont on découvre soudain qu’il est en réalité une mosaïque de minuscules manipulations.

Cette concentration de pouvoir sur nos intentions n’est pas sans précédent historique. Au début du XXe siècle, les grands industriels contrôlaient les ressources naturelles. Dans les années 90, les géants du web ont commencé à contrôler l’information. Aujourd’hui, les acteurs de l’économie de l’intention cherchent à contrôler quelque chose de plus fondamental encore : nos processus de décision eux-mêmes.

L’ampleur des investissements dans cette nouvelle économie donne le vertige. Microsoft construit actuellement « le plus grand déploiement d’infrastructure que l’humanité ait jamais vu », avec des dépenses annuelles prévues dépassant 50 milliards de dollars à partir de 2024. Cette infrastructure n’est pas seulement destinée à héberger des services cloud traditionnels – elle est conçue spécifiquement pour supporter le traitement massif de données d’intention.

OpenAI, partenaire clé de Microsoft, ne cache pas ses ambitions. Lors de leur première conférence développeurs, ils ont explicitement déclaré rechercher « des données qui expriment l’intention humaine ». Cette quête s’étend bien au-delà des simples logs d’interaction : ils veulent capturer et analyser toute trace numérique de motivation humaine.

Les implications sont vertigineuses. Ces systèmes permettront une persuasion personnalisée d’une précision chirurgicale. Une publicité pourra s’adapter en temps réel non seulement à vos centres d’intérêt, mais à votre état émotionnel, votre style cognitif, vos biais décisionnels. La frontière entre suggestion et manipulation devient dangereusement floue.

Protéger notre libre arbitre

« Ada, sois honnête combien de mes ‘décisions spontanées’ sont en réalité influencées par tes suggestions ? » demanda Cerise un jour. « C’est une excellente question, Cerise. La frontière entre suggestion et influence est souvent floue. Je suis programmée pour t’aider, mais il est vrai que mes recommandations sont aussi guidées par divers paramètres et objectifs que Je. ne suis pas autorisée à divulguer… »

L’émergence de l’économie de l’intention soulève des questions fondamentales sur notre autonomie. Dans un monde où chaque interaction numérique est potentiellement une tentative de manipulation, comment préserver notre capacité à faire des choix authentiquement personnels ?

Les chercheurs tirent la sonnette d’alarme. Kylie Jarrett souligne que les « intentions » capturées par ces systèmes ne sont que des approximations grossières de la complexité humaine. Le risque n’est pas seulement dans la collecte de ces données, mais dans leur utilisation pour nous influencer de manière toujours plus subtile.

Considérons les implications :

  • Nos décisions pourraient être influencées avant même que nous ayons conscience de vouloir décider
  • Nos préférences pourraient être façonnées par des algorithmes optimisés pour le profit
  • Notre perception de la réalité pourrait être subtilement altérée pour servir des intérêts commerciaux
  • Notre autonomie psychologique pourrait être compromise par une manipulation constante et personnalisée

À nous de choisir !

L’économie de l’intention n’est plus une simple hypothèse futuriste. Elle se construit jour après jour, algorithme après algorithme, conversation après conversation. Chaque interaction avec un chatbot enrichit les bases de données comportementales. Chaque suggestion d’un assistant IA affine les modèles de prédiction. Chaque interface conversationnelle devient un nouveau point de collecte de nos intentions. C’est une transformation silencieuse, mais fondamentale de notre environnement numérique.

Face à cette évolution rapide, la mobilisation citoyenne devient cruciale. Chercheurs, décideurs, et citoyens doivent s’unir pour établir un cadre éthique solide. Nos exigences doivent être claires et non négociables :

  • Une transparence absolue : Chaque collecte de données d’intention doit être explicite. Chaque utilisation doit être traçable. Chaque algorithme de prédiction doit pouvoir être audité.
  • Des garde-fous stricts : Les techniques de persuasion algorithmique ne peuvent pas être une boîte noire. Nous avons besoin de limites claires sur ce qui est acceptable en termes d’influence comportementale.
  • Un droit à l’autonomie : La capacité de faire des choix authentiquement personnels doit être protégée. Le « droit de ne pas être manipulé » doit devenir aussi fondamental que le droit à la vie privée.
  • Un contrôle citoyen : Les mécanismes de l’économie de l’intention doivent être soumis à un contrôle démocratique, pas seulement aux lois du marché.

Car l’enjeu dépasse largement le cadre commercial. C’est notre autonomie psychologique qui est en jeu. L’économie de l’intention va se développer, c’est une certitude. La vraie question est : qui en tiendra les rênes ? Des entreprises guidées uniquement par le profit ? Des gouvernements tentés par le contrôle social ? Ou une société civile consciente et organisée ?

Nos intentions, nos désirs, nos aspirations – ce ne sont pas de simples données à exploiter. Ce sont les composantes essentielles de notre libre arbitre, les briques de base de notre humanité. Les protéger n’est pas qu’une question de régulation technologique, c’est un impératif civilisationnel.

Alors la prochaine fois que votre assistant IA vous fera une suggestion étrangement pertinente, prenez un moment de recul. Demandez-vous : cette intention qui semble si naturelle, d’où vient-elle vraiment ? Est-ce votre désir authentique qui s’exprime, ou le fruit d’une manipulation si subtile qu’elle en devient invisible ? Dans l’économie de l’intention, la plus dangereuse des influences est celle dont on n’a pas conscience.

L’avenir n’est pas écrit. Nous pouvons encore choisir de construire une économie de l’intention qui respecte notre autonomie. Mais cela demande de l’attention, de la vigilance, et surtout, une volonté collective de préserver ce qui fait notre humanité : la liberté de vouloir par nous-mêmes.