On entend parler d’IA pour améliorer la santé, l’enseignement, et même pour résoudre les défis écologiques. Même les critiques les plus fréquemment exprimées dans les médias traditionnels contribuent à façonner cette narration, reflétant les perspectives dominantes dans le discours public. En mars 2023, certains des acteurs les plus influents de la tech aux États-Unis (dont Elon Musk bien évidemment) ont eu l’audace de publier une lettre appelant à une pause dans la recherche sur l’IA pour protéger l’humanité [1]. Alors que ce sont eux-mêmes les principaux promoteurs ! Les discours sur les dangers d’une IA générale ou d’une super-intelligence (une sorte de HAL 9000 ou de Terminator), dont on est clairement à des années lumière, ne sont qu’un leurre, non parce que l’IA ne constitue pas une menace, mais parce que la menace ne réside pas là. Ces fantasmes sur l’IA boostent la course à son développement, et sa réalisation devient un enjeu d’État. Les acteurs de l’économie de la tech, fortement liés au secteur financier, savent que maîtriser le discours autour d’une technologie et la présenter comme une rupture est un enjeu vital pour attirer les capitaux. Surtout après une année 2024 marquée par des craquements dans ce secteur et la peur d’une bulle financière. Il est facile d’oublier qu’on avait subi le même bombardement médiatique pour les cryptomonnaies, alors qu’on n’en entend quasiment plus parler aujourd’hui. Il ne s’agit pas de dire que l’IA n’est que de la fumée, mais plutôt de décrypter un espace médiatique saturé par la narration des entreprises de la tech.
Au fait, c’est quoi une IA ?
Il est difficile de se faire une idée d’une technologie lorsque ce sont les mêmes personnes qui essaient de nous la vendre qui en parlent. On entend beaucoup de termes anthropomorphisant l’IA, comme « intelligence », « réseaux de neurones » ou « conscience », comme si l’on était face à une nouvelle espèce. Or, si l’on prend l’exemple d’une IA comme ChatGPT, on peut dire avant tout qu’elle repose simplement sur de la statistique. De la statistique sous stéroïde, capable de gérer des centaines de milliards de paramètres, certes, mais elle reste de la statistique malgré tout ! Lorsqu’on pose une question à ChatGPT, elle n’a aucune idée du sens de nos mots, ni du sens des siens. Lorsqu’elle nous répond, elle génère une série de mots qui est la suite la plus probable à notre phrase. Elle ne ‘réfléchit’ pas à sa réponse à l’avance, en la générant d’un coup, ou phrase par phrase. Non, elle génère sa réponse quasiment mot par mot, on appelle ça un token. Puis, après chaque token, elle recalcule la probabilité pour générer le suivant. C’est pour cette raison qu’une IA peut donner de drôles de réponses : des phrases grammaticalement correctes, mais fausses ou sans aucun sens. Les techniciens disent que « l’IA hallucine ». On entend souvent parler de « neurones artificiels », un terme très vendeur qui évoque l’idée d’un cerveau cybernétique et entretient le mythe de l’IA comme une nouvelle espèce consciente, alors qu’un neurone artificiel est simplement une fonction mathématique [2]. Chaque neurone/fonction est connecté à d’autres et reçoit des données en entrée auxquelles il applique sa fonction mathématique. Puis il transmet le résultat à d’autres fonctions, qui vont faire de même, et ainsi de suite dans une succession d’opérations jusqu’à arriver au résultat final (c’est le fameux « réseau de neurones »). Pendant l’entraînement, là encore un terme très anthropomorphisant, l’IA est alimentée avec des données qui servent pour ses calculs mathématiques. Ce processus est répété plusieurs fois, et à chaque itération, les paramètres de l’IA sont légèrement modifiés pour se rapprocher petit à petit du résultat souhaité. C’est à l’issue de cette opération qu’une IA va figer les valeurs de ses paramètres et donc attribuer plus ou moins d’importance à certains facteurs dans l’élaboration de ses réponses futures. Tout ceci est bien sûr une simplification, mais pas tant que ça.
Une IA complexe, composée de milliards de paramètres, d’opérations et de fonctions, rend quasiment impossible pour l’être humain de suivre son processus de décision et de comprendre ce qui a été vraiment déterminant dans sa prise de décision finale. Ce qui est décisif pour sa réponse est caché derrière la complexité de son architecture et de ses multiples opérations. C’est ce que l’on appelle la « boîte noire ». Déceler les biais dans un tel processus décisionnel (parce qu’ils sont nombreux) n’est pas anodin, surtout lorsque cela n’est pas une priorité pour les entreprises qui les développent. On a en effet vu des IA censées orienter des personnes vers l’emploi discriminer les femmes, parce que dans leur données d’entraînement certains postes étaient principalement occupés par des hommes [3]. Dans le domaine de la santé, des IA donnent la priorité aux patients blancs sur les patients noirs, parce que dans ses données d’entraînement moins d’argent était dépensé en moyenne pour soigner les personnes noires [4]. On a aussi vu l’algorithme de la CAF sur-contrôler les personnes les plus précaires parce qu’il retenait comme facteurs de suspicion le fait d’être au chômage, de bénéficier du RSA ou de l’allocation adulte handicapé [5]. Ce ne sont là que quelques exemples de la manière dont ces outils perpétuent les inégalités de notre société, alors que l’on s’apprête à les déployer massivement. Selon les technicien·ne·s, il suffirait de trouver les « bonnes données » d’entraînement pour résoudre le problème, il s’agirait juste d’améliorer les IA. Mais le problème est bien plus profond : il n’existe pas de « bonnes ou mauvaises données », il y a les données de notre société, une société raciste, sexiste, homophobe, transphobe et validiste. Les rapports de domination sont inscrits dans les données de notre société et donc dans les choix des IA. En revanche, avec ces outils, la reproduction de ces inégalités est dissimulée derrière la présumée neutralité algorithmique et décuplée par la puissance de traitement de la machine.
IA partout…
Ces dernières années, nous avons assisté aux premières vidéos et photos générées par l’intelligence artificielle (deep fake), et nous avons pu constater les conséquences néfastes lorsque celles-ci sont couplées à des réseaux sociaux complaisants vis-à-vis de l’extrême droite. Nous avons aussi vu de l’IA embarquée sur les drones pour la détection des cibles sur les champs de bataille, comme en Palestine et en Ukraine. Avec une évolution effrayante vers une autonomie croissante des drones dans la décision de la frappe (lethal autonomous weapons systems). En France, on a vu le déploiement de la surveillance algorithmique à l’occasion des JO, et maintenant le gouvernement veut prolonger son utilisation. Si d’un côté l’IA a investi les secteurs de la sécurité et de l’armée sans grand surprise, de l’autre, elle s’introduit plus insidieusement dans le quotidien, notamment avec un rôle d’« accompagnement » des employé·e·s. La digitalisation à marche forcée que nos sociétés ont subie ces dernières années, dont l’IA n’est que l’étape la plus récente, a été accomplie en accord avec le mantra de l’ « automatisation » : augmenter la productivité et le contrôle tout en réduisant le facteur humain. Ce processus s’est accompagné d’une rhétorique visant à nous présenter ces nouvelles technologies comme des outils qui devraient nous aider, et l’IA ne fait pas exception : « libérer le temps des employés », « plus de temps pour des tâches qualitatives », « plus de temps pour la relation humaine », « nous débarrasser des tâches répétitives ». Une série de promesses jamais tenues, puisqu’en vérité, elles n’ont jamais été les objectifs.
Or, il existe une différence qualitative entre les technologies précédentes et l’IA. Cette dernière ne se limite pas à stocker et récupérer des données, comme le ferait n’importe quelle vulgaire machine. Son but est de nous orienter dans nos choix, de suggérer la marche à suivre, voire de décider à notre place. Du diagnostic médical à la détection des comportements dangereux, ces technologies ne nous fournissent pas un simple état des lieux, mais suggèrent une action. Fortes de leur capacité à traiter d’énormes quantités de données, capacité qu’aucun être humain ne pourrait égaler, leurs suggestions prennent la forme de vérités incontestables, fruits de leur interprétation du réel, influencée par des choix techniques et politiques revenant à une poignée d’entreprises. Même si, à l’heure actuelle, on entend parler d’ « accompagner les employés » et de « l’humain comme décideur final », il est clair que le risque est celui d’appliquer sans aucun discernement les choix faits par l’IA. Cela peut être dû à la pression du patronat qui pousse à augmenter la productivité des employé·e·s, ou par le manque de ressources et personnel, comme dans le service public après des années de politiques d’austérité. La dévalorisation de nos connaissances et compétences et la déshumanisation de notre travail constituent déjà en soi une perspective suffisamment dégradante, mais à celle-ci s’ajoute le fait que les IA reproduisent les inégalités de notre société.
Data is the new oil
Dans le discours public des termes comme smart city ou smart territory reviennent souvent et font tacitement référence à un vieux fantasme de toute-puissance, de contrôle diffus et continu de notre société. Ce rêve, qui aujourd’hui se marie au techno-capitalisme, consiste à capter les données de toute une société pour pouvoir l’orchestrer et la régir : une société pilotée à partir des données (data driven society) [6]. Si leur rêve n’a pas pu se réaliser jusqu’à présent, c’est aussi à cause d’une contrainte technique : personne ne peut analyser autant de données dans un laps de temps utile pour intervenir. Or, l’arrivée des IA semble pouvoir répondre à cette problématique en étant capable de traiter cette masse de données et de suggérer une action conséquente. On peut déjà voir cette évolution à l’œuvre dans la surveillance algorithmique par les caméras.
Dans les années à venir, s’annonce une bataille qui ne se limite pas à la défense de notre vie privée et de nos données, mais qui remet entièrement en question la place des outils numériques dans nos sociétés. Comment ces outils perpétuent et multiplient-ils les rapports de domination ? Comment l’automatisation des choix, pris auparavant par des humains, va appliquer aveuglément les logiques techno-libérales ? Comment les grandes entreprises de la tech influencent la politique, la société et nos choix au quotidien ? Les politiciens et Big Tech foncent tout droit dans le développement et le déploiement de ces technologies sans le moindre questionnement. Ils les qualifient d’évolution inévitable, c’est la marche de l’histoire. Tout ceci est bien sûr dans leur intérêt. Or, au cours de l’histoire ce n’est pas la première fois que ce scénario se présente : une technologie qui peut menacer nos sociétés fait son apparition et politiciens et capitalistes foncent tout droit. Sauf que, contrairement à ce qu’ils voudraient nous faire croire, leur projet n’est pas inévitable. C’est bien grâce aux batailles qui ont été menées que ces technologies ont fini par être régulées, encadrées, voire, dans certaines situations, interdites.