Entretien avec Antoinette Rouvroy

« Les algorithmes, un art de ne pas changer le monde »

Illustration : Théodora Jacobs

Antoi­nette Rou­vroy, phi­lo­sophe et cher­cheuse en droit à l’Université de Namur, étu­die de longue date les enjeux poli­tiques et sociaux des algo­rithmes. Nous lui avons deman­dé de quelle manière les sys­tèmes d’intelligences arti­fi­cielles (IA) tra­vaillaient et trans­for­maient actuel­le­ment nos démo­cra­ties. Et le dan­ger des algo­rithmes, ou plu­tôt du « capi­ta­lisme sous sté­roïde algo­rith­mique », ne semble pas tant celui de per­tur­ber l’information des citoyen·nes ou même les élec­tions. Mais, en flat­tant notre hyper­in­di­vi­dua­lisme, ces pro­ces­sus nous frag­mentent et court-cir­cuitent ce qui fonde même les démo­cra­ties : le besoin et le désir de com­mun. Un moment consti­tu­tion­nel pour­rait bien consti­tuer l’antidote à cette colo­ni­sa­tion des esprits par le numé­rique marchand.

Qu’est-ce qui menace nos démocraties dans cette diffusion de plus en plus poussée des IA dans nos quotidiens ? Est-ce que c’est quelque chose qui va au delà de phénomènes comme des deep fakes qui brouillent l’information ou de l’influence de processus algorithmiques sur les élections ?

Ce qui m’inquiète, c’est la per­son­na­li­sa­tion pous­sée des envi­ron­ne­ments infor­ma­tion­nels que per­mettent les algo­rithmes – très loin de l’in­ter­net comme vaste espace public et de déli­bé­ra­tion fan­tas­mé à ses débuts. Il y a une sorte d’utopie de la varié­té selon laquelle les algo­rithmes qui gèrent les pla­te­formes seraient capables de don­ner voix à toute la diver­si­té, sans avoir besoin d’intermédiaires ou de repré­sen­tants. Mais l’expression de cette mul­ti­tude d’opinions s’y réa­lise le plus sou­vent sans autre. Or, pour véri­ta­ble­ment for­mer son opi­nion, c’est-à-dire pour revoir nos réfé­rences ini­tiales, il faut néces­sai­re­ment être confron­té à quelque chose qui n’a pas été pré­vu pour nous.

Sur les réseaux sociaux par exemple, on observe sur­tout une jux­ta­po­si­tion d’individus ou d’opinions qui se sont certes éman­ci­pés de la norme, mais qui sont assoif­fés de cré­dits, de fol­lo­wers, de likes, de visi­bi­li­té. Dès lors, les opi­nions qui vont s’afficher ne vont pas expri­mer une convic­tion poli­tique mure­ment réflé­chie à l’aune de dis­cus­sions ou une confron­ta­tion à des argu­ments telles qu’on peut avoir dans un espace public réel, c’est-à-dire dans un lieu où on com­pa­rait ensemble avec d’autres. Ça a plu­tôt à voir avec la recherche d’une opti­mi­sa­tion du dis­cours en fonc­tion de l’injonction à maxi­mi­ser son audience.

Il y a de la sorte une com­pé­ti­tion de ces indi­vi­dus jux­ta­po­sés pour occu­per un nœud dans le maillage du réseau, c’est-à-dire pour gagner en influence. Et pour ça, il faut être réac­tif, sus­ci­ter du com­men­taire, faire le buzz, deve­nir et agir comme une marque. Le sens des mots que vous employez aura dès lors beau­coup moins d’importance que leur valo­ri­sa­tion algo­rith­mique. C’est-à-dire que la pos­si­bi­li­té que ces mots-là attirent sur le mode pul­sion­nel, celui du réflexe et des réac­tions comme le clic ou le par­tage. Pour moi c’est une évic­tion totale de l’idée même de chose publique ou d’espace public puisqu’une res­source indis­pen­sable, le com­mun, est contour­née, voire anni­hi­lée par cette dynamique.

Ce qui est menacé par ces dispositifs algorithmiques qui visent à la fragmentation, à l’individualisation, ce serait donc avant tout notre capacité ou notre volonté de faire du commun ?

Tout sujet en démo­cra­tie est un pro­ces­sus en constante éla­bo­ra­tion et en constant dépas­se­ment de lui-même — y com­pris dans ses opi­nions poli­tiques puisqu’en ren­con­trant d’autres on peut chan­ger d’avis. Mais cela sup­pose toute une infra­struc­ture du com­mun et non pas les bulles de filtre que construisent les réseaux… Cela sup­pose des ins­tances, c’est-à-dire des lieux et moments de ren­contre dans les­quels on est confron­té à des choses qui n’ont pas été pré­vues pour nous, et à des opi­nions qui ne sont pas les mêmes que les nôtres. Des espace-temps aus­si dans les­quelles on peut col­lec­ti­ve­ment déci­der des règles fon­da­men­tales ou de la théo­rie de la jus­tice à laquelle on veut adhé­rer. Par exemple, quels sont les cri­tères de mérite, de besoin, de dési­ra­bi­li­té, de dan­ge­ro­si­té accep­table dans une socié­té ? Ça doit être débat­tu car ce sont des concepts dia­lec­tiques c’est-à-dire qui ne sont pas défi­nis une fois pour toutes. Ils sont en constante éla­bo­ra­tion et rééla­bo­ra­tion. Et devraient donc être sou­mis à une dis­cus­sion permanente.

Or, c’est ça qui dis­pa­rait avec les algo­rithmes, c’est ça qui est court-cir­cui­té par le cal­cul et le fait que nous pas­sons de plus en plus de temps cha­cun iso­lé­ment devant nos écrans. Nous sommes face à des conte­nus média­tiques qui nous sont envoyés en rai­son de sys­tème de pro­fi­lage, de hié­rar­chi­sa­tion, d’appariement sur les­quels nous n’avons aucune mai­trise. Ceux-ci visent à nous cibler indi­vi­duel­le­ment plu­tôt qu’à nous ouvrir à une mul­ti­tude de conte­nus dif­fé­rents. Ce contour­ne­ment du com­mun est extrê­me­ment pro­blé­ma­tique en démocratie.

D’autant que le com­mun, c’est pré­ci­sé­ment ce qui ouvre les indi­vi­dus du pré­sent aux inté­rêts de l’avenir c’est-à-dire des géné­ra­tions futures. Or, les dis­po­si­tifs algo­rith­miques actuels sont mis au ser­vice de ratio­na­li­tés sec­to­rielles qui visent essen­tiel­le­ment à s’optimiser. C’est-à-dire à opti­mi­ser leurs inté­rêts pré­sents sans tenir compte du tout du futur, sans inves­tir dans la pré­ser­va­tion d’un ave­nir pos­sible : ça éva­cue tout ce qui n’est pas déjà là. Cette dimen­sion tem­po­relle aus­si me semble extrê­me­ment impor­tante. C’est pour ça que je défends l’idée d’une consti­tu­tion pour régu­ler les usages du numérique.

Quelles seraient les vertus d’une constitution (du) numérique ?

Une consti­tu­tion, c’est d’abord un texte dans lequel on décide en com­mun des cri­tères de mérite, de besoin, de dési­ra­bi­li­té qui pré­sident à la répar­ti­tion des res­sources et des pro­cé­dures à par­tir des­quels on va déci­der ça poli­ti­que­ment. Et ça, on ne peut pas le sous-trai­ter à des machines.

Le texte consti­tu­tion­nel c’est aus­si un texte dans lequel les puis­sances d’aujourd’hui acceptent de s’autolimiter en vue d’une pro­messe qu’ils font pour l’avenir. C’est un texte par lequel une socié­té fait une pro­messe qui la dépasse, qui va per­du­rer au pro­fit des géné­ra­tions futures.

C’est aus­si un texte qui est géné­ra­le­ment suf­fi­sam­ment vague — comme les mots, comme le lan­gage le per­mettent, contrai­re­ment au numé­rique — pour lais­ser le champ à des inter­pré­ta­tions. Ce jeu, cette marge de manœuvre s’appelle le poli­tique. Ça per­met de ména­ger de la résis­tance au monde, à ce qui arrive. Et aus­si de faire valoir des signi­fi­ca­tions qui n’avaient pas pu être entre­vues au moment de la rédac­tion du texte consti­tu­tion­nel, c’est-à-dire des situa­tions sin­gu­lières qui n’avaient pas pu être prévues.

Un texte consti­tu­tion­nel, c’est donc essen­tiel­le­ment une manière de se ména­ger la pos­si­bi­li­té de nous gou­ver­ner nous-mêmes, plu­tôt que d’être gou­ver­né par des auto­ma­tismes, de per­mettre de la dif­fé­rence plu­tôt que de la répé­ti­tion à l’infini.

Et donc de repolitiser là où la logique algorithmique a tendance à faire l’économie de débats voire à automatiser de plus en plus de décisions ?

Oui, bien sûr, ça per­met­trait de repo­li­ti­ser un ensemble de ques­tions. On a cru à un moment que de pas­ser de la repré­sen­ta­tion lan­ga­gière au pur cal­cul, à la com­pu­ta­tion, allait néces­sai­re­ment per­mettre des déci­sions plus objec­tives et plus impar­tiales. Or, ce dont on s’est ren­du compte, c’est que ce pas­sage-là a sur­tout ser­vi à natu­ra­li­ser des inéga­li­tés, les désa­van­tages subis par cer­taines com­mu­nau­tés vis-à-vis d’autres.

C’est ce que j’appelle la fac­ti­ci­té algo­rith­mique. Le phi­lo­sophe Wal­ter Ben­ja­min décri­vait la fac­ti­ci­té comme cette ten­dance qu’ont les régimes fas­cistes à pré­sen­ter l’état de fait comme étant le seul pos­sible, à trou­ver à l’état de fait actuel une ori­gine mythique qui l’immunise de toute remise en ques­tion. Cette fac­ti­ci­té ne va pas évi­dem­ment pas s’imposer d’elle-même. C’est tel­le­ment faux que les régimes auto­ri­taires ont besoin d’une énorme dose de vio­lence pour l’imposer. Alors, je ne dis pas que ce tour­nant algo­rith­mique nous conduit néces­sai­re­ment au fas­cisme, mais la ten­dance est la même : consi­dé­rer que tout ce qui est enre­gis­tré sous forme de don­nées, c’est le monde en soi, la véri­té, le réel. Et qu’on n’aurait plus besoin de l’historicité, c’est-à-dire d’interroger les causes, d’entendre les gens. Qu’on n’aurait plus besoin d’explications, d’interprétations, ni de témoignages.

C’est assez effrayant car cette fac­ti­ci­té amène à repro­duire et à recon­duire auto­ma­ti­que­ment — et sans pos­si­bi­li­té de contes­ta­tion — le résul­tat des rap­ports de domi­na­tion anté­cé­dents. Ça a été bien démon­tré au sujet des algo­rithmes qui auto­ma­tisent le racisme ou la miso­gy­nie. Au fond, ça a tout à fait rigi­di­fié la situa­tion en per­met­tant à ceux à qui l’état de fait convient très bien de s’immuniser contre tout changement.

Les algo­rithmes consti­tuent ain­si un art de ne pas chan­ger le monde, tout sim­ple­ment parce qu’ils ne peuvent méta­bo­li­ser que des don­nées. Or, les don­nées ne sont pas des faits, mais tou­jours le résul­tat de rap­ports de force et de domi­na­tion qui sont trans­crits sous une forme numé­rique. Et on fait comme si ces rap­ports de pou­voir natu­ra­li­sés n’étaient cau­sés par rien. Nous sommes inca­pables de ques­tion­ner l’origine des don­nées, leurs condi­tions de pro­duc­tion, puisque la seule chose qui nous inté­resse, c’est d’anticiper les effets. Des effets qui à leur tour deviennent des don­nées d’entrainement. C’est une sorte de déhis­to­ri­ci­sa­tion contre laquelle il faut oppo­ser une cri­tique véri­ta­ble­ment maté­ria­liste c’est-à-dire qui s’intéresse aux situations.

Par exemple ?

Pour cer­tains, si les chauf­feurs Uber sont tel­le­ment indi­vi­dua­listes et peinent à s’organiser pour amé­lio­rer leurs condi­tions de tra­vail, ce serait parce qu’ils ignorent com­ment fonc­tionne leur pla­te­forme. C’est faux, ils en sont les par­faits spé­cia­listes. En fait, si leur exploi­ta­tion per­dure c’est bien plu­tôt parce que tout a été fait par le capi­ta­lisme pour pré­ve­nir toute forme d’émergence de formes collectives.

Après, oui, les algo­rithmes des pla­te­formes consti­tuent l’un des ins­tru­ments qui per­met d’isoler chaque tra­vailleur, en le pla­çant seul face à son smart­phone et dans l’impossibilité de savoir exac­te­ment quelles sont les règles, quel est le seuil de pro­duc­ti­vi­té, de gen­tillesse avec le client, d’efficience, etc. qui sont atten­dus par la pla­te­forme. Parce que pré­ci­sé­ment ce n’est plus la pla­te­forme qui attend : ce n’est plus per­sonne. C’est-à-dire que l’autorité n’est plus assu­mée par une figure concrète contre laquelle des tra­vailleurs pour­raient se mobi­li­ser col­lec­ti­ve­ment. La norme dis­pa­rait puisqu’elle devient émi­nem­ment plas­tique et dépend des com­por­te­ments de tous les autres chauf­feurs avec qui il est mis en concur­rence. C’est cette sorte de dis­so­lu­tion à nou­veau de la pos­si­bi­li­té de faire com­mun et de prendre une consis­tance col­lec­tive qui est problématique.

Je vou­drais d’ailleurs insis­ter sur le fait que le plus gros pro­blème avec ces pla­te­formes, ce ne sont pas les menaces sur la vie pri­vée ou la pro­tec­tion des don­nées per­son­nelles, mais les condi­tions socioé­co­no­miques, dans les­quelles elles placent les tra­vailleurs et l’économie poli­tique dans laquelle nous nous trou­vons. La cri­tique doit s’élargir et ces­ser de se cen­trer uni­que­ment sur les algo­rithmes. Ils ne sont que des ins­tru­ments dans cette affaire ; ils pour­raient ser­vir à tout autre chose de beau­coup plus éman­ci­pa­teur. Ce qu’il faut cri­ti­quer, c’est bien le capi­ta­lisme au ser­vice duquel ces algo­rithmes sont utilisés.

Si les logiques algorithmiques, qui dopent le capitalisme, provoquent autant d’effets sur nos démocraties, est-ce aussi en raison d’une volonté de notre part de nous déresponsabiliser et de déléguer aux machines quand nous nous trouvons face à des questions complexes ?

Le phi­lo­sophe Claude Lefort nous explique que la démo­cra­tie s’instaure et se per­pé­tue par le main­tien et la recon­duc­tion de l’indé­ter­mi­na­tion. C’est-à-dire que face à la com­plexi­té du monde, à l’incertitude, à l’indétermination de ce que l’esprit humain peine à gérer, il y a ce mythe de la tota­li­sa­tion qui veut nous faire croire que cette com­plexi­té pour­rait se résoudre dans la boite noire des algo­rithmes. C’est du tech­no­so­lu­tion­nisme de base : les IA pour­raient nous dis­pen­ser d’avoir à nous confron­ter d’une façon néces­sai­re­ment trau­ma­tique à l’indécidabilité, à la complexité…

Or, cette indé­ter­mi­na­tion, c’est pré­ci­sé­ment ce qui nous oblige à nous ren­con­trer, à par­ler, à conve­nir, à débattre, à déli­bé­rer, à remettre cha­cun en ques­tion nos pré­fé­rences a prio­ri et les mettre à l’épreuve des pré­fé­rences ou opi­nions des autres. C’est comme ça que les indi­vi­dus deviennent des sujets poli­tiques, dans leur rela­tion, dans leur confron­ta­tion à l’autre. Or, l’utopie — ou plu­tôt la dys­to­pie — de l’IA et du machine lear­ning, c’est pré­ci­sé­ment celle qui veut nous dis­pen­ser de l’épreuve de cette indé­ter­mi­na­tion. La déli­bé­ra­tion, la chose publique, qui est avant tout de l’espace et du temps, sont court-cir­cui­tés par l’apprentissage conti­nu, par ce méta­bo­lisme, par cet hypercalcul.

Cet hyper cal­cul nous met pour­tant dans une situa­tion de pré­ca­ri­té très grande puisqu’il pro­duit lui-même énor­mé­ment d’incertitude pour les êtres humains. Il construit un monde inha­bi­table parce que le temps réel n’est pas un temps vécu par nous : nous sommes des êtres hété­ro­chro­niques c’est-à-dire nous avons un pas­sé, un pré­sent et un ave­nir, nous sommes han­tés par le pas­sé et pro­pul­sés vers l’avenir à tra­vers nos pro­jets et nos rêves… Tan­dis que le monde algo­rith­mique, c’est un monde abso­lu­ment gla­cial, non peu­plé. Un monde de coor­don­nées dont le centre n’est abso­lu­ment plus l’être humain, ni indi­vi­duel ni collectif.

Est-ce qu’il n’y a pas aussi une forte croyance selon laquelle il vaudrait mieux s’en remettre à la machine qui, par sa puissance de calcul phénoménal, saura mieux que nous ce qu’il faut faire ?

Non seule­ment que la machine sau­ra mieux que nous ce qu’il faut faire, mais en plus qu’elle sera capable de prendre en compte ce qu’il y a chez nous de plus par­ti­cu­lier. Or, ça cor­res­pond exac­te­ment à la forme sociale que nous habi­tons aujourd’hui : un hyper-indi­vi­dua­lisme où cha­cun se conçoit comme unique et incom­pa­rable à d’autres, irré­duc­tible à aucune moyenne, récal­ci­trant à la norme. Des hyper-indi­vi­dus qui se vivent à tra­vers leurs per­for­mances iden­ti­taires et leurs recom­bi­nai­sons sur les réseaux sociaux en vue de maxi­mi­ser leur audience. Nous aimons la per­son­na­li­sa­tion algo­rith­mique c’est-à-dire le fait que tout s’adapte exac­te­ment à nous. C’est quelque chose dont nous vou­lons. Aujourd’hui, ce que craignent les indi­vi­dus, ce n’est pas du tout un manque de pro­tec­tion de la vie pri­vée ou l’usage des leurs don­nées per­son­nelles… Au contraire, leur pire ter­reur c’est de ne pas être assez visible, de ne pas être assez espion­né, de ne pas lais­ser assez de traces ! C’est pour­quoi on doit abso­lu­ment revoir toutes les coor­don­nées d’une cri­tique sociale actuel­le­ment fon­dée sur la pro­tec­tion de l’individu, de son inti­mi­té, de son for intérieur.

L’autre errance à mes yeux de la cri­tique, actuelle, c’est le fait d’observer la numé­ri­sa­tion sous le prisme de la pers­pec­tive répres­sive, de se dire que tout ça veut nous influen­cer, nous contrô­ler façon Big Bro­ther. Alors que non, pas du tout, au contraire ! Ça se nour­rit pré­ci­sé­ment de ce qu’on jugeait pré­cé­dem­ment comme ingou­ver­nable, ça fait pro­li­fé­rer les com­por­te­ments les plus anar­chistes pos­sible. C’est en cela que c’est du « capi­ta­lisme sous sté­roïdes algo­rith­miques », ça pro­li­fère grâce aux crises, grâce aux irré­gu­la­ri­tés, aux émer­gences, à ce qu’on conçoit comme rele­vant de notre spon­ta­néi­té. C’est tout sauf un enfer­me­ment dans une norme ou une standardisation.

Est-ce que néanmoins les algorithmes ne peuvent pas créer des comportements ? Par exemple par le nudging, ces petits dispositifs incitatifs orientant subrepticement nos actions ?

Ce qui crée les com­por­te­ments, c’est le capi­ta­lisme, c’est l’érosion des struc­tures col­lec­tives, mais ce ne sont pas les algo­rithmes en tant que tels. Les algo­rithmes ne sont que des ins­tru­ments, des dopants. Par contre, oui, comme on l’a évo­qué, ça court-cir­cuite les pos­si­bi­li­tés, le besoin res­sen­ti et le désir des indi­vi­dus de se mettre ensemble pour affron­ter l’indécidabilité ou la part incom­pres­sible d’incertitude radi­cale. Et de déci­der ensemble. Ça rend plus rares les espace-temps pour ima­gi­ner ou pour déve­lop­per des utopies.

Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

code