Au-delà des biais algorithmiques :

Quelle place donner à l’intelligence artificielle ?

Illustration : Théodora Jacobs

Tant la figure de l’algorithme que celle de l’intelligence arti­fi­cielle (IA) béné­fi­cient d’une popu­la­ri­té sans pareille dans les médias. Cet engoue­ment est d’autant plus sur­pre­nant en regard de la tech­ni­ci­té de ce thème. Mal­heu­reu­se­ment, ce trai­te­ment média­tique relègue sou­vent l’analyse du sujet à des consi­dé­ra­tions tech­niques au détri­ment de ses dimen­sions sociales. Pour­tant, si ces arte­facts infor­ma­tiques étranges méritent bien d’être ques­tion­nés au sein de l’espace public, c’est pour l’influence qu’ils peuvent exer­cer aujourd’hui sur nos modes de vie et nos oppor­tu­ni­tés de faire socié­té. Lorsque l’on parle à la fois d’influence et d’IA, c’est la thé­ma­tique des « biais algo­rith­miques » qui fait géné­ra­le­ment les gros titres. À tra­vers cet article, nous allons essayer d’insérer un peu de nuance dans ce débat sans pour autant négli­ger cer­taines technicités.

Un algo­rithme est une suc­ces­sion finie d’opérations ordon­nées dont la mise en œuvre per­met de résoudre un pro­blème. Pré­sen­té comme ceci, un algo­rithme n’est pas limi­té à l’informatique. Cela peut être une recette de cui­sine ou une démons­tra­tion mathé­ma­tique. Tou­te­fois, lorsque l’on parle d’algorithmes dans le lan­gage cou­rant, on pense sur­tout à des pro­grammes infor­ma­tiques. Dans ce cadre-là, il s’agit d’une suite finie d’opérations qui sont regrou­pées dans un pro­gramme infor­ma­tique qui sera mis en œuvre par un ordi­na­teur. On com­mence déjà à par­ler d’intelligence arti­fi­cielle dans les années 1950 avec le déve­lop­pe­ment d’algorithmes qui tentent de réa­li­ser des fonc­tions cog­ni­tives de haut niveau et dont on consi­dère que la réa­li­sa­tion signale une forme d’intelligence qui se rap­proche de l’intelligence humaine (par exemple, être capable de pro­duire un texte com­pré­hen­sible ou de gagner un jeu plus ou moins com­plexe). Les pre­miers dis­po­si­tifs « intel­li­gents » qui pénètrent la socié­té prennent la forme de sys­tèmes experts. Ces sys­tèmes sont la tra­duc­tion en lan­gage infor­ma­tique de la base de connais­sance d’un expert d’un domaine spé­ci­fique. La forme la plus simple est celle d’une arbo­res­cence déci­sion­nelle : si la condi­tion A est rem­plie, l’algorithme prend la déci­sion 1 ; si elle n’est pas rem­plie, l’algorithme prend la déci­sion 2 ; et ain­si de suite.

Ces « intel­li­gences arti­fi­cielles » sont assez peu flexibles et ne peuvent pas prendre de déci­sions dans des domaines qui ne sont pas pris en compte lors de la rédac­tion de leur pro­gramme. On pri­vi­lé­gie aujourd’hui des sys­tèmes dits « appre­nants ». Ces sys­tèmes ingèrent des don­nées d’entrainement qui vont per­mettre d’automatiser la prise de déci­sion sans pour autant qu’il faille décrire expli­ci­te­ment l’ensemble des règles à suivre. Ces don­nées d’entrainement prennent la forme de grandes listes anno­tées. Pour illus­trer cet « appren­tis­sage », pre­nons l’exemple d’un algo­rithme qui doit iden­ti­fier des ani­maux au sein d’une suite d’images. Les don­nées d’entrainement pren­dront la forme d’une liste d’images d’exemple et anno­tées de labels décri­vant les ani­maux pré­sents dans l’image. À force de com­pa­rer plu­sieurs dizaines de mil­liers d’exemples, le sys­tème va pro­gres­si­ve­ment iden­ti­fier la récur­rence de cer­taines confi­gu­ra­tions visuelles (la posi­tion et la cou­leur de pixels) en fonc­tion du label « chiens », « chats », etc. Cette intel­li­gence arti­fi­cielle est donc une grande machine sta­tis­tique capable d’observer et de rete­nir des rela­tions sta­tis­tiques com­plexes. Nous sommes donc loin d’une com­pré­hen­sion « humaine ».

Ces récur­rences sta­tis­tiques peuvent être iden­ti­fiées au sein de médias divers : images, pistes sonores, base de don­nées chif­frées, textes, etc. Les algo­rithmes de recom­man­da­tions qui déter­minent l’ordonnancement des publi­ca­tions sur des réseaux sociaux (Ins­ta­gram ou Tik­Tok par exemple) mobi­lisent éga­le­ment ces tech­niques d’apprentissage, si ce n’est que celui-ci porte sur des don­nées retra­çant le com­por­te­ment des uti­li­sa­teurs. Étant don­né que ces tech­no­lo­gies vont essayer de maxi­mi­ser « l’engagement » de l’utilisateur (l’intensité de son inter­ac­tion avec le sys­tème à tra­vers des clics, des com­men­taires, des likes etc.), l’observation des his­to­riques de navi­ga­tion va per­mettre d’identifier quels sont les types de conte­nus avec les­quels l’utilisateur tend à inter­agir. Pour faire le paral­lèle avec l’exemple pré­cé­dent, les conte­nus consul­tés com­posent la base de don­nées d’entrainement tan­dis que le com­por­te­ment de l’utilisateur vis-à-vis de ce conte­nu est l’annotation. À terme, l’observation d’une grande quan­ti­té de traces de navi­ga­tion par­mi un grand ensemble d’utilisateurs per­met de pré­dire quels sont les conte­nus qui génèrent plus ou moins d’interaction en fonc­tion du pro­fil d’un utilisateur.

Biais algorithmiques

Un pro­blème majeur qui est sou­vent rele­vé dans les médias concerne les biais de ces déci­sions algo­rith­miques et plus pré­ci­sé­ment, les biais issus de cette phase d’apprentissage. Repre­nons notre algo­rithme de recon­nais­sance d’image sauf que nous sou­hai­tons qu’il puisse éga­le­ment iden­ti­fier des visages d’êtres humains. C’est ce qu’a mis en place Google en 2015 avec l’intégration d’un algo­rithme per­met­tant de décrire des images via leur appli­ca­tion pho­to. Mal­heu­reu­se­ment, cet algo­rithme s’est mis à label­li­ser des per­sonnes à la peau noire en tant que « gorilles ». Que s’est-il pas­sé ? Cette erreur, deve­nue depuis un cas d’école, est issue de la sur­re­pré­sen­ta­tion de per­sonnes blanches dans les don­nées d’entrainement et, par consé­quent, l’absence d’un nombre suf­fi­sant de pho­tos incluant des per­sonnes d’origines diverses. Dans l’attente d’une solu­tion à long terme, Google a déci­dé de bri­der son outil pour qu’il ne puisse plus attri­buer de labels de pri­mates, quelle que soit l’image soumise.

Des biais peuvent éga­le­ment décou­ler des anno­ta­tions appli­quées aux don­nées d’entrainement lorsque la label­li­sa­tion implique de caté­go­ri­ser des phé­no­mènes sociaux qui ne se laissent pas faci­le­ment cap­tu­rer au sein de struc­tures rigides. L’identification de l’« éro­tisme » d’une image est un enjeu cru­cial pour de nom­breuses entre­prises numé­riques qui doivent modé­rer les conte­nus publiés sur leurs pla­te­formes pour satis­faire leurs annon­ceurs. Apprendre à un algo­rithme à iden­ti­fier cet « éro­tisme » implique de labé­li­ser des images d’entrainement et de figer le niveau d’érotisme de chaque image. Or, ce tra­vail d’annotation est une tâche inter­pré­ta­tive qui est dépen­dante du pro­fil des anno­ta­teurs humains.

Ces trous dans les don­nées d’entrainement ou ces choix de label­li­sa­tions sont autant de régu­la­ri­tés sta­tis­tiques aux­quelles ces tech­no­lo­gies sont sen­sibles. Qu’elles découlent de dis­cri­mi­na­tions sociales néfastes n’a que peu d’importance pour ces dis­po­si­tifs qui peuvent ensuite auto­ma­ti­ser leur repro­duc­tion à grande échelle. Recon­nais­sance faciale, attri­bu­tion de cré­dits et assu­rances, scree­ning de CV, déci­sions de jus­tice sont autant de domaines d’applications à risque.

Cri­ti­quer les biais de ces algo­rithmes implique donc de s’interroger sur les condi­tions de pro­duc­tion de ces don­nées et des rap­ports de pou­voirs qui pré­cèdent leur construc­tion. Cor­ri­ger ces biais pour rendre ces tech­no­lo­gies socia­le­ment accep­tables est une pos­si­bi­li­té sérieu­se­ment explo­rée par de nom­breux cher­cheurs. Tou­te­fois, bien qu’engageante, cette pers­pec­tive ne nous offre qu’un champ de vision bien étroit. Il est encore incer­tain qu’il soit pos­sible de pré­dire et de cor­ri­ger ces biais avant la mise en pro­duc­tion de ces outils. En 2023, Google Pho­tos n’était tou­jours pas capable d’identifier des pri­mates. Mais sur­tout, cette pers­pec­tive nor­ma­lise l’intégration d’outils d’intelligence arti­fi­cielle qui devient une fata­li­té avec laquelle il faut com­po­ser. C’est sur ce point qu’il faut appor­ter un peu de nuance.

Vivre sous influence

La cri­tique des biais induits par des outils algo­rith­miques ne s’arrête pas à leurs don­nées d’entrainement. La force des algo­rithmes appre­nant, à savoir leur capa­ci­té à iden­ti­fier des régu­la­ri­tés au sein de bases de don­nées mas­sives, est aus­si leur talon d’Achille. Parce que le pro­ces­sus de prise de déci­sion auto­ma­ti­sé repose sur l’observation de phé­no­mènes pas­sés, ces dis­po­si­tifs sont avant tout des outils repro­duc­tifs. Cette pro­prié­té a de nom­breuses ver­tus pour la pré­dic­tion et l’analyse de divers phé­no­mènes « natu­rels » car ce sont là des évè­ne­ments qui peuvent se sou­mettre au cal­cul, c’est-à-dire que l’enjeu scien­ti­fique repose jus­te­ment sur l’identification des condi­tions assu­rant l’apparition de ces phé­no­mènes. Le domaine médi­cal regorge d’exemples où le croi­se­ment de don­nées mul­ti­di­men­sion­nelles (por­tant sur l’environnement, le régime ali­men­taire, le patri­moine géné­tique, etc.) peut per­mettre d’identifier des régu­la­ri­tés qui ne seraient que dif­fi­ci­le­ment obser­vables par d’autres moyens, per­met­tant ain­si de pré­dire les condi­tions d’émergence de cer­taines maladies.

Tou­te­fois, figer le pro­ces­sus déci­sion­nel dans cette pos­ture rétros­pec­tive pose un pro­blème lorsqu’il s’agit d’informer une déci­sion humaine dont l’essence repose sur une impos­si­bi­li­té d’optimalité. Dans de nom­breux cas, nous devons prendre des choix sur des pro­blèmes qui n’ont pas de solu­tion idéale et ces choix sont les vec­teurs d’une iden­ti­té en for­ma­tion. Pour reprendre l’exemple de nos algo­rith­miques de recom­man­da­tion, en vou­lant repro­duire les régu­la­ri­tés iden­ti­fiées dans le com­por­te­ment d’un indi­vi­du, le sys­tème va ali­men­ter une boucle rétro­ac­tive au sein de laquelle l’utilisateur sera encou­ra­gé à repro­duire ses habi­tudes. Si ce mode d’accès à l’information a ses avan­tages, le déve­lop­pe­ment de ses opi­nions et de ses goûts est aus­si une affaire d’échanges, de dis­cus­sions, de confron­ta­tions, d’errances et, par consé­quent, de rup­ture avec des déci­sions pas­sées. À un niveau col­lec­tif, le recours à l’IA dans le domaine juri­dique souffre des mêmes écueils.

Un autre pro­blème récur­rent avec ces tech­no­lo­gies de recom­man­da­tion concerne leur ten­dance à pola­ri­ser les débats. Pour rap­pel, ces outils reposent sur la maxi­mi­sa­tion de l’engagement de leurs uti­li­sa­teurs, iden­ti­fiée à tra­vers dif­fé­rentes formes d’interaction avec le sys­tème. Or, il nous faut faire le constat sui­vant : ce sont rare­ment des situa­tions de consen­sus qui nous poussent à sor­tir de notre pos­ture de spec­ta­teur pour inves­tir l’espace public et par­ta­ger nos opi­nions. Les conte­nus qui sont les plus à même de sus­ci­ter cet enga­ge­ment sont géné­ra­le­ment des conte­nus qui pro­voquent des réac­tions vives, de la colère, de la frus­tra­tion, de la tris­tesse, etc. Poser des garde-fous revien­drait à pan­ser une plaie ouverte. En effet, le sys­tème fonc­tionne et fait ce qu’on lui demande. Le pro­blème ne vient donc pas des don­nées mais de la tâche que doit rem­plir le sys­tème, ce qu’il cherche à mesu­rer et à optimiser.

Cette ques­tion pré­cède et dépasse lar­ge­ment le domaine de l’IA. Quelle que soit sa com­plexi­té, tout arte­fact tech­nique contri­bue à construire notre rap­port au monde et aux autres. Il n’est pas ici ques­tion de som­brer dans un déter­mi­nisme naïf qui consis­te­rait à affir­mer que nous sommes dépour­vus d’autonomie. Tou­te­fois, il serait tout aus­si erro­né de se lais­ser séduire par le fan­tasme libé­ral d’un indi­vi­du libre et auto­dé­ter­mi­né. En impo­sant cer­tains gestes, en pres­cri­vant divers com­por­te­ments ou en décou­ra­geant l’une ou l’autre pra­tique, nos objets du quo­ti­dien orientent nos actions et notre façon d’appréhender les pro­blèmes mêmes qu’ils essaient de résoudre.

Pour don­ner corps à ce der­nier argu­ment, pre­nons le cas de la numé­ri­sa­tion des points d’accès aux ser­vices publics et la réduc­tion pro­gres­sive des gui­chets phy­siques. L’équivalence impli­cite qui est faite entre un gui­chet phy­sique et la mise à dis­po­si­tion de for­mu­laires en ligne véhi­cule l’idée que l’administration, notam­ment com­mu­nale, est avant tout une machine bureau­cra­tique qui sta­tue de la confor­mi­té de diverses pro­cé­dures. Si ce n’est pas faux, ce serait oublier qu’il s’agit éga­le­ment d’un lieu de média­tion entre le citoyen et l’État, devant per­mettre au citoyen de dis­cu­ter, expli­quer mais éga­le­ment négo­cier ou se défendre. Autant d’actions que ne per­met pas une page web. Le recours à l’IA comme outil d’accessibilité, via un chat­bot [Robot conver­sa­tion­nel NDLR] notam­ment, est régu­liè­re­ment envi­sa­gé pour pal­lier cette défi­cience. Tou­te­fois, en consi­dé­rant l’état d’avancement rela­tif de ces tech­no­lo­gies et les res­sources publiques, il serait pré­ma­tu­ré de se pri­ver d’une éva­lua­tion cri­tique croi­sant, d’une part, un diag­nos­tic lucide des besoins du citoyen avec, d’autre part, une éva­lua­tion réa­liste des limites tech­niques actuelles.

Par consé­quent, l’élaboration d’un dis­po­si­tif socio­tech­nique, enten­du ici comme un ensemble com­plexe d’individus, d’objets, de pra­tiques, d’institutions et de normes sociales ne peut se faire sans prendre en compte l’effet struc­tu­rel de ces com­po­santes tech­niques sur les com­por­te­ments humains. Si vivre sous influence est inévi­table, la ques­tion qui se pose en amont concerne le type d’influence que nous sou­hai­tons intro­duire. Les­quelles refu­ser ? Et selon quelles moda­li­tés ? Agir de la sorte implique de pen­ser en termes de pro­blé­ma­ti­sa­tion plu­tôt que de solu­tion. Dit autre­ment : com­ment trans­for­mons-nous une situa­tion en pro­blème, quelle idéo­lo­gie est ins­crite à tra­vers ce pro­ces­sus et, seule­ment dans un troi­sième temps, quels rap­ports de pou­voir sont ins­tau­rés par les solu­tions envisagées ?

Arnaud Claes est chercheur en Information-communication à l’UCLouvain

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

code