IA, est-ce seulement souhaitable ?

Pleine de pro­messes ou por­teuse d’inquiétudes, l’Intelligence Arti­fi­cielle (IA) est sur toutes les lèvres et ne cesse d’envahir les titres des jour­naux. Mais der­rière les vagues de spé­cu­la­tion, elle incarne sur­tout le pro­lon­ge­ment d’un capi­ta­lisme numé­rique qui pousse tou­jours plus loin l’exploitation éco­lo­gique et humaine. 

Démar­ré dans les années 1950, le déve­lop­pe­ment de l’IA connait un essor inédit depuis la fin des années 2010. En géné­rant une quan­ti­té mas­sive de don­nées, la numé­ri­sa­tion gran­dis­sante de nos acti­vi­tés a engen­dré le déve­lop­pe­ment d’une nou­velle géné­ra­tion d’algorithmes autoap­pre­nants (« Machine Lear­ning ») aux appli­ca­tions mul­tiples : recon­nais­sance faciale, assis­tants connec­tés, logis­tique auto­ma­ti­sée, etc. Forte de ces évo­lu­tions, l’IA devient un outil d’analyse et d’aide à la déci­sion miracle qui s’insère peu à peu dans tous les aspects de notre socié­té. À écou­ter ses pro­mo­teurs, elle serait une source de solu­tion inépui­sable pour résoudre nos pro­blèmes — san­té, dérè­gle­ment cli­ma­tique, édu­ca­tion, insé­cu­ri­té — avec de nou­veaux métiers, de nou­velles com­pé­tences et sur­tout, une nou­velle crois­sance. Les recherches et inves­tis­se­ments sur son déve­lop­pe­ment sont plus que jamais au cœur des jeux de com­pé­ti­tion qui régissent les rap­ports de force inter­na­tio­naux : de l’extraction des matières pre­mières, en pas­sant par la concep­tion des sys­tèmes en labo­ra­toire au déploie­ment de ses appli­ca­tions mili­taires ou commerciales.

Cepen­dant, dans un monde dic­té par une géo­po­li­tique capi­ta­liste et impé­ria­liste, cette course à l’IA s’appuie sur un sys­tème d’exploitation humain et maté­riel aux consé­quences dra­ma­tiques. Comme l’affirme la cher­cheuse Kate Craw­ford dans son livre Contre-Atlas de l’Intelligence Arti­fi­cielle : « L’IA n’est ni arti­fi­cielle, ni intel­li­gente ». Elle est conçue pour « ser­vir les inté­rêts des domi­nants » en for­mant une « indus­trie extrac­tive » qui exploite res­sources, tra­vailleurs et don­nées. Et ce au détri­ment des droits humains autant que de l’environnement.

Intelligence « artificielle », exploitation « réelle »

Sous les appa­rentes opti­mi­sa­tions et auto­ma­ti­sa­tions de nos acti­vi­tés, les cou­lisses de l’IA se révèlent en effet bien moins réjouis­santes. À com­men­cer par les micro­tra­vailleurs qui lui per­mettent de fonc­tion­ner. Si les IA pré­tendent assis­ter les êtres humains, l’inverse est tout aus­si vrai. Loin d’être le seul fruit d’ingénieurs occi­den­taux et sur­di­plô­més, elle doit aus­si son exis­tence à des mil­lions de petites mains humaines char­gées d’alimenter, assis­ter et entrai­ner ses algo­rithmes au quo­ti­dien. Un tra­vail invi­si­bi­li­sé, sous-payé, et fait de micro­tâches ultra­ré­pé­ti­tives : détou­rer, clas­ser, éti­que­ter des images, ou bien retrans­crire des textes, des vocaux, etc. Sur­nom­més « les anno­ta­teurs de don­nées », ces per­sonnes pro­viennent en majo­ri­té des pays du Sud glo­bal (Inde, Pakis­tan, Séné­gal, Kenya, Phi­lip­pines, Vene­zue­la) et tra­vaillent pour quelques cen­times ou quelques dol­lars de la tâche. Der­rière leur écran, ils effec­tuent leurs mis­sions depuis chez eux via des pla­te­formes en ligne ou bien par­qués dans des centres géants. Ils tra­vaillent pour le compte de mul­ti­na­tio­nales de la tech ou de start-ups de l’IA. À l’instar de l’entreprise amé­ri­caine Pres­to Auto­ma­tion qui s’est récem­ment fait épin­gler pour ses dis­cours trom­peurs. À la tête d’un ser­vice de trai­te­ment de com­mande vocale pour la res­tau­ra­tion sup­po­sé entiè­re­ment auto­ma­ti­sé, cette der­nière a été contrainte d’avouer qu’elle employait des « agents hors site » dans des pays comme les Phi­lip­pines pour inter­ve­nir dans 70 % des inter­ac­tions avec les clients. 

Pen­dant que cer­tains algo­rithmes s’appuient sur de la main‑d’œuvre bon mar­ché, d’autres aspirent allè­gre­ment les publi­ca­tions mises à dis­po­si­tion sur la toile. D’autant plus avec l’arrivée d’IA géné­ra­tive per­met­tant de créer des textes, images, sons ou vidéos à la demande. Pour pro­duire, les outils comme ChatGPT (géné­ra­teur de texte) ou Mid­jour­ney (géné­ra­teur d’image) se servent des conte­nus dis­sé­mi­nés sur le web qu’ils traitent et res­sortent dif­fé­rem­ment. Médias, artistes, auteurs, cher­cheurs se retrouvent sus­cep­tibles de voir leurs tra­vaux pillés et réuti­li­sés à leur insu. Ain­si, le New York Times a récem­ment atta­qué en jus­tice la socié­té Open AI, les créa­teurs de ChatGPT, en l’accusant d’exploiter gra­tui­te­ment les pro­duc­tions du jour­nal pour nour­rir ses robots. Dans la même lignée, des artistes com­mencent à uti­li­ser des outils infor­ma­tiques pour « empoi­son­ner » leurs œuvres avant de les publier sur inter­net pour les rendre inex­ploi­tables par les IA.

Insoutenabilité écologique

L’omniprésence de l’IA se révèle tout aus­si vorace sur le plan des res­sources : extrac­tion des matières pre­mières, consom­ma­tion d’eau, d’énergie… Elle s’inscrit dans un monde numé­rique dont les impacts crois­sants mettent déjà en péril nombre de ter­ri­toires et popu­la­tions à tra­vers le monde. Rien qu’en France, si l’on ne fait rien, l’empreinte car­bone du numé­rique risque de tri­pler d’ici 2050, bien loin des objec­tifs de l’Accord de Paris. En outre, les récentes études d’impact sur l’IA, conju­guées aux pré­dic­tions de l’industrie, dressent un tableau vertigineux.

La nou­velle demande en éner­gie engen­drée par le déve­lop­pe­ment de l’IA équi­vaut déjà aujourd’hui à la consom­ma­tion de petits pays. En 2027 elle attein­drait l’usage annuel de pays comme l’Argentine, les Pays-Bas ou la Suède. Les centres de don­nées, maillon prin­ci­pal néces­saire à l’entrainement et au cal­cul des modèles, en sont les pre­miers tou­chés. Le déploie­ment mas­sif des IA les oblige à repen­ser entiè­re­ment leur fonc­tion­ne­ment. La rai­son : l’IA fonc­tionne sur des pro­ces­seurs dif­fé­rents que ceux ini­tia­le­ment uti­li­sés par les data­cen­ters. Si bien que Meta (la mai­son mère de Face­book et Ins­ta­gram) doit inter­rompre la construc­tion de ses nou­veaux centres de don­nées pour y inté­grer l’IA. Alors que les gains d’efficacité des data­cen­ters ont per­mis jusqu’à pré­sent de rela­ti­ve­ment conte­nir l’explosion de leur consom­ma­tion éner­gé­tique, l’ensemble des feuilles de route des construc­teurs pré­sentent aujourd’hui une aug­men­ta­tion consé­quente et ful­gu­rante de leur puis­sance. Les géants doivent tri­pler d’ici à 6 ans leur capa­ci­té de cal­cul et de sto­ckage. Google, Micro­soft et Ama­zon ont pré­vu d’augmenter de 50 % leurs inves­tis­se­ments dans le maté­riel et les infra­struc­tures cloud sur les 3 ans qui viennent. Nvi­dia, prin­ci­pal four­nis­seur des pro­ces­seurs dédiés à l’IA, pré­voit de mul­ti­plier sa puis­sance glo­bale par 275 tous les 2 ans contre 8, depuis 10 ans.

Outre le fait de devoir chan­ger le maté­riel (et donc d’augmenter la pres­sion sur les réserves de terres rares) et d’augmenter les consom­ma­tions élec­triques, ces super­cal­cu­la­teurs néces­sitent d’énormes quan­ti­tés d’eau pour être refroi­dis. L’explosion de l’IA géné­ra­tive est d’ailleurs à l’origine d’importants pics de consom­ma­tion chez les géants de la tech. C’est ce que révèle une enquête publiée par l’Associated Press en sep­tembre der­nier. Elle indique que les rap­ports envi­ron­ne­men­taux de Micro­soft et Google pointent res­pec­ti­ve­ment une aug­men­ta­tion de 34 % (l’équivalent de 2500 pis­cines olym­piques) et 20 % de leur consom­ma­tion entre 2021 et 2022. Une crois­sance « qu’il est juste d’attribuer majo­ri­tai­re­ment à l’augmentation de l’IA » déclare le cher­cheur inter­ro­gé pour l’enquête Shao­lin Ren, co-auteur de l’étude « Making AI less thirs­ty ». Et en ces temps de crise cli­ma­tique où les périodes de séche­resses se mul­ti­plient, cette consom­ma­tion accrue inquiète. En Espagne, en Uru­guay, aux Pays-Bas, aux États-Unis, par­tout dans le monde, des ten­sions émergent dans les col­lec­ti­vi­tés qui voient leur appro­vi­sion­ne­ment menacé.

Discrimination, surveillance et cyberviolence : un accroissement généralisé des violences ?

Si le fonc­tion­ne­ment maté­riel de l’IA sou­lève de sérieux pro­blèmes, il en est de même pour ses appli­ca­tions. Son inté­gra­tion dans divers domaines — judi­ciaire, médi­cal, social, cultu­rel — conduit à de graves dérives dont les exemples ces der­nières années foi­sonnent : atteintes à la vie pri­vée, dis­cri­mi­na­tions sexistes et racistes, dés­in­for­ma­tion et fabri­ca­tion de fake news, sur­veillance des popu­la­tions ou encore exploi­ta­tion des tra­vailleurs. Depuis le lan­ce­ment de ChatGPT en novembre 2022, les débats reprennent de plus belle.

Pour ne citer que quelques exemples. Aux États-Unis, l’utilisation par la police de logi­ciel de recon­nais­sance faciale connue pour ses biais racistes a entrai­né plu­sieurs arres­ta­tions « par erreur » de per­sonnes noires. La der­nière en date, Por­cha Woo­druff, une femme vivant à Detroit ayant pas­sé 11 heures au com­mis­sa­riat alors qu’elle était enceinte de 8 mois. En France, la déma­té­ria­li­sa­tion des ser­vices sociaux de la CAF (Caisse d’Allocations Fami­liales) et la mise en place d’algorithmes de nota­tion des allo­ca­taires fra­gi­lisent l’accès aux droits des per­sonnes les plus vul­né­rables. L’automatisation, l’opacité et la sim­pli­fi­ca­tion des trai­te­ments algo­rith­miques étant incom­pa­tibles avec la com­plexi­té et la pré­ca­ri­té des situa­tions en jeu. Le Mou­ton Numé­rique, notre col­lec­tif de réflexion tech­no­cri­tique, a d’ailleurs signé une lettre ouverte avec une tren­taine d’associations afin d’alerter sur le pro­blème. Tou­jours en France, l’arrivée des Jeux Olym­piques en 2024, a per­mis la léga­li­sa­tion d’expérimentation de vidéo­sur­veillance assis­tée par IA. Un dis­po­si­tif « inquié­tant » selon Amnes­ty Inter­na­tio­nal qui menace la « liber­té d’expression » et favo­rise une sur­veillance « dis­pro­por­tion­née de l’espace public ». Enfin, l’IA géné­ra­tive et la géné­ra­tion crois­sante de « deep­fakes » (conte­nus vidéo ou audio tru­qués à l’aide de l’IA) fait craindre un accrois­se­ment de la dés­in­for­ma­tion ou des cyber­vio­lences. Les femmes notam­ment deviennent la cible de détour­ne­ments por­no­gra­phiques. Comme la chan­teuse Tay­lor Swift lorsque de fausses images à carac­tère sexuel la met­tant en scène ont défer­lé sur le réseau X. Ou encore ces ado­les­centes en Espagne vic­times de pho­tos tra­fi­quées par l’IA les fai­sant appa­raitre com­plè­te­ment dénudées.

La géné­ra­li­sa­tion de l’intelligence arti­fi­cielle ne fait qu’exacerber les vio­lences déjà à l’œuvre. Ces dérives ne sont pas de simples « défauts » qu’il suf­fi­rait de sur­pas­ser ou de cor­ri­ger. Elles invitent plu­tôt à repen­ser pro­fon­dé­ment la socié­té dans laquelle l’IA s’insère et à lui résis­ter face au futur qu’elle aide à faire adve­nir. Un ave­nir, ni sou­te­nable éco­lo­gi­que­ment, ni sou­hai­table socialement.

Le Mouton numérique est un collectif de réflexion technocritique

Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

code