Entretien avec Tyler Reigeluth (2/2)

L’imaginaire des intelligences artificielles

Illustration : Vanya Michel

Tyler Rei­ge­luth est phi­lo­sophe des tech­niques et l’auteur de « L’intelligence des villes ». Au-delà de son approche cri­tique de la smart city, il déve­loppe éga­le­ment dans ses recherches toute une réflexion autour des dis­cours sur les intel­li­gences arti­fi­cielles (IA). Pour mettre en lumière les pro­messes sous-jacentes des IA, il déroule plus lar­ge­ment notre rap­port aux machines, fait de fas­ci­na­tion et de crainte, de fan­tasmes et de croyances, nour­ris par nos mécon­nais­sances tech­niques. Et ali­men­tées aus­si par des dis­cours poli­tiques et éco­no­miques pour qui la tech­nique pour­rait résoudre tous les pro­blèmes et l’IA gérer la socié­té. Plon­gée dans l’imaginaire por­té par l’IA.

La promesse de la « ville intelligente », la smart city, c’est celle d’une ville qui résoudrait toutes les contradictions, toutes les tensions, c’est celle d’arriver à un ordre harmonieux des comportements humains, à une société pacifiée, gérée, qui tourne rond. Est-ce que la promesse des intelligences artificielles (IA) plus généralement, c’est celle d’une société qui pourrait fonctionner sans aucun accroc, sans aucun conflit ?

Ça dépend des sec­teurs, mais en ce qui concerne par exemple la sécu­ri­té et la ges­tion de l’espace public, cela recoupe effec­ti­ve­ment des aspects de la ville intel­li­gente. On y vise cette pro­messe d’harmonie grâce à la machine. On a l’idée que des tech­no­lo­gies, par exemple un modèle de pré­dic­tion de la cri­mi­na­li­té en temps réel ou bien encore des camé­ras de sur­veillance avec recon­nais­sances faciales inté­grées, pour­raient à elles seules faire bais­ser la cri­mi­na­li­té. C’est un argu­ment de vente puis­sant et pour­tant, on sait bien qu’il ne suf­fit pas de mettre des camé­ras pour faire dimi­nuer la sur­ve­nance des crimes et délits qui vont géné­ra­le­ment sim­ple­ment se dépla­cer. Ce n’est pas parce qu’on est vu qu’on ne com­met pas des crimes. En fait, on vend une tech­no­lo­gie clé sur porte comme une solu­tion à un pro­blème. Or, une tech­no­lo­gie n’est jamais une solu­tion à pro­blème sans la pra­tique sociale qui l’accompagne, qui l’encadre, qui l’intègre dans un usage ou dans une situation.

Autre exemple, celui de l’éducation et de la péda­go­gie. Depuis des décen­nies main­te­nant (mais avec un net coup d’accélérateur pen­dant la pan­dé­mie de Covid 19) se déve­loppe un mar­ché flo­ris­sant appe­lé l’Ed tech (Edu­ca­tion tech­no­lo­gy), notam­ment aux États-Unis, où des entre­prises cherchent à vendre de nou­velles tech­no­lo­gies aux écoles : radio, télé, ordi­na­teur, inter­net, tablettes, casque de réa­li­té vir­tuelle… À chaque géné­ra­tion, on a pro­mis un meilleur appren­tis­sage, plus per­son­na­li­sé, plus dif­fé­ren­cié et de meilleurs résul­tats sco­laires grâce à ces nou­veaux outils. Or, 40 ans plus tard, on uti­lise tou­jours essen­tiel­le­ment le manuel papier… Et les télés, magné­to­scopes, ordi­na­teurs por­tables et autres écrans s’entassent dans des pla­cards après quelques essais. L’institution sco­laire, pour le meilleur ou pour le pire, résiste parce qu’il y a des cultures, des pra­tiques péda­go­giques d’enseignant·es ou de directeur·ices que ces tech­no­lo­gies ne prennent pas en compte dans leur déploiement.

Cette idée que la tech­no­lo­gie pour­rait résoudre un pro­blème sans qu’il y ait une par­ti­ci­pa­tion humaine, c’est une pen­sée fon­da­men­ta­le­ment magique qui tra­duit ce que le phi­lo­sophe Gil­bert Simon­don nom­mait un défaut de culture tech­nique. On est dupé par des pro­messes de tech­no­lo­giques toutes puis­santes parce qu’on manque de la culture tech­nique qui d’une part nous ferait com­prendre le fonc­tion­ne­ment d’une tech­no­lo­gie, et d’autre part nous ferait sai­sir aus­si les limites de cette tech­no­lo­gie. Et bien sou­vent j’ai l’impression qu’on nous vend des tech­no­lo­gies en nous pro­met­tant des effets en fait impos­sibles à atteindre. Ça en dit long sur nos attentes en tant que socié­té… On conti­nue de dépen­ser de l’argent public sur des camé­ras de sur­veillance en pen­sant qu’elles vont faire adve­nir une socié­té sans crimes, mais on ne s’attache pas aux causes du pro­blème qui crée la cri­mi­na­li­té, à ses fac­teurs sociaux et éco­no­miques par exemple. On refoule sim­ple­ment le pro­blème quand on pense qu’il existe une solu­tion magique.

Il y a un apparent consensus dans les collectivités publiques, les institutions, les grandes entreprises : il faudrait mettre l’intelligence artificielle partout. Pourquoi un tel enthousiasme ? Est-ce qu’il y a quelque chose de l’ordre de l’utopie ?

Cet enthou­siasme pro­vient d’abord du fait que le mar­ché de l’intelligence est en pleine crois­sance à l’échelle mon­diale. Le terme « smart » ou « intel­li­gent » est acco­lé sur tout et n’importe quoi pour mieux vendre, y com­pris des dis­po­si­tifs où il n’y a pas d’informatique !

Quelque chose d’étrange se passe au niveau de notre repré­sen­ta­tion qua­si ani­miste : on croit que les objets s’animent d’eux-mêmes. Cela me fait pen­ser à des récits de science-fic­tion de Phi­lip K. Dick où le monde devient étrange pré­ci­sé­ment parce que c’est un monde qu’on a façon­né nous-mêmes. En effet, notre monde n’a jamais été aus­si rem­pli d’artifices, tout notre quo­ti­dien est satu­ré de tech­no­lo­gies. Et en même temps, c’est un monde qui devient de plus en plus étrange, duquel on semble être alié­né, dans le sens où on ne sait pas com­ment ça fonc­tionne, ça parait obs­cur, ça parait magique, on a l’impression que ça nous échappe…

Mais pourquoi un tel engouement des pouvoirs publics ?

Sur le plan poli­tique, je dirais que ça vient quand même répondre en par­tie à un sou­ci de gou­ver­ner avec le moins d’ingérences et de coer­ci­tion pos­sible. Ça fait par­tie de cette nou­velle forme de gou­ver­ne­ment qu’Antoinette Rou­vroy et Tho­mas Berns ont qua­li­fié de gou­ver­ne­men­ta­li­té algo­rith­mique. C’est-à-dire l’idée qu’on gou­verne de moins en moins par le recours aux lois et à la coer­ci­tion, aux obli­ga­tions et de plus en plus par les chiffres, par des clas­se­ments, par des sug­ges­tions, par des recommandations.

La Com­mis­sion euro­péenne est par exemple très forte pour ça. Elle pro­duit des clas­se­ments, les meilleurs élèves de tel ou tel domaine, et va éla­bo­rer des recom­man­da­tions, une liste de « bonnes pra­tiques ». Libre à vous de suivre ces recom­man­da­tions ou non. Mais si vous êtes le der­nier dans le clas­se­ment, ce sera de votre faute. C’est la logique de la honte, de la pres­sion des pairs.

Or, avec les IA actuelles, on est dans des modèles avec des mil­liers voire des cen­taines de mil­liers de variables. Bien plus larges donc que la sta­tis­tique actuelle qui sert sou­vent de guide à l’action publique. Avec les IA, on aurait suf­fi­sam­ment de don­nées sur chaque pro­fil pour cibler et tailler sur mesure ces « bonnes pra­tiques », ces recom­man­da­tions et pour pré­dire les com­por­te­ments de chacun·e. On n’aurait plus besoin de pen­ser des classes sociales, des caté­go­ries sociales ni des pro­fils socio­dé­mo­gra­phiques car chaque indi­vi­du est une source inta­ris­sable de don­nées en temps réel, chaque indi­vi­du fait lui-même et « volon­tai­re­ment » rap­port de ses acti­vi­tés en uti­li­sant ses dif­fé­rents dis­po­si­tifs connectés…

L’échelle de la gouvernementalité algorithmique, c’est l’individu ?

Oui ou plu­tôt l’infra-individuel : tous les micros-com­por­te­ments sou­vent imper­cep­tibles pour la conscience indi­vi­duelle. Et sur le registre poli­tique, c’est un levier inté­res­sant quand on a envie d’atteindre des objec­tifs poli­tiques sans for­cer les gens, sans avoir l’impression d’être inter­ven­tion­niste, d’être inva­sif dans la vie des indi­vi­dus. C’est ce qu’on appelle la poli­tique des nudges. Le nud­ging en anglais, c’est le petit coup de coude qu’on donne pour inci­ter quelqu’un à adop­ter un com­por­te­ment. La ques­tion, c’est de savoir com­ment on peut façon­ner un envi­ron­ne­ment de telle sorte à favo­ri­ser ou à défa­vo­ri­ser cer­tains com­por­te­ments à l’échelle collective.

C’est une manière de gou­ver­ner qui est très puis­sante et qua­si imper­cep­tible sur base des recom­man­da­tions. Je par­lais de la Com­mis­sion euro­péenne mais les recom­man­da­tions sont évi­dem­ment des pra­tiques qu’on retrouve sur toutes les pla­te­formes et réseaux sociaux qu’on uti­lise au quo­ti­dien. Une recom­man­da­tion de conte­nu, c’est tout sim­ple­ment une pré­dic­tion de notre pro­chain com­por­te­ment : il y a X ou Y chance qu’on clique, qu’on consomme tel ou tel film ou qu’on achète tel ou tel pro­duit. Si ce n’est pas le cas si la pré­dic­tion est contre­dite, ce n’est pas grave, le modèle pro­po­se­ra autre chose. Il appren­dra de son erreur et demain, il nous pro­po­se­ra une nou­velle pré­dic­tion. Il dit sim­ple­ment : « Vous allez peut-être aimer ça », « Vous allez peut-être faire ça », « Vous allez peut-être ache­ter ça »… Mais on est tou­jours libre de ne pas le faire. On a l’impression qu’on est presque gou­ver­né par soi-même, parce que le modèle ne fait que pré­dire un com­por­te­ment pos­sible de notre part. Mais il ne nous ne dit pas ce qu’on doit faire.

La promesse de l’IA, c’est aussi celle de pouvoir gouverner « en temps réel »…

On retrouve en effet de nou­veau cette obses­sion du temps réel. Le rêve, c’est d’avoir une vue conti­nue et en temps réel de la socié­té, sans l’effet de latence des sta­tis­tiques qui sont celles d’il y a six mois ou d’un an, qui sont par­tielles, etc. Or, la nou­velle géné­ra­tion d’IA est inté­res­sante pour les gou­ver­nants à cet égard puisqu’elle peut pré­dire qua­si­ment en temps réel des com­por­te­ments qu’un gou­ver­ne­ment met­trait des mois à récol­ter avec la méthode clas­sique des sta­tis­tiques. Avec à la clé la pos­si­bi­li­té d’ajus­ter à ces don­nées presque immé­dia­te­ment les para­mètres sociaux et éco­no­miques. C’est en tout cas l’idéal promis.

Ce faisant, est-ce qu’on n’est pas en train d’évacuer le temps plus long du débat démocratique ? Celui du conflit entre des intérêts divergents lorsqu’il s’agit de prendre une décision. Est-ce que cette idéologie de l’intelligence artificielle clôture le débat démocratique en disant quelque chose comme : la machine qui voit tout sait mieux que nous, elle va donc décider grâce à sa gigantesque capacité de calculs ce qui est le meilleur pour nous ?

C’est un des risques. On peut l’illustrer avec les algo­rithmes d’optimisation, ces algo­rithmes dont la fonc­tion est de trou­ver un opti­mum. Par exemple en pon­dé­rant un tas de variables pour éta­blir le che­min le plus court à prendre comme quand on uti­lise Google Maps.

Alors, si ça parait rela­ti­ve­ment évident et pas trop pro­blé­ma­tique d’optimiser un che­min pour éla­bo­rer son iti­né­raire, l’optimisation de la socié­té en revanche pose plus de ques­tions… Parce que l’optimum veut dire le mieux, le meilleur, ce que l’on veut atteindre comme objec­tif. Or, dans une socié­té, on n’est jamais d’accord sur le but, sur l’optimum, sur ce qu’il fau­drait opti­mi­ser. Ce n’est jamais clair et jamais éta­bli une bonne fois pour toutes. C’est la nature même d’une socié­té d’être conflic­tuelle, au sens que nous ne défi­nis­sons pas tous et toutes de la même manière ce vers quoi elle doit tendre. Mon col­lègue Jéré­my Gros­man tra­vaille par exemple sur les ten­sions sociales et éco­no­miques géné­rées par l’utilisation de l’algorithme d’optimisation des pré­fé­rences sco­laire par la Fédé­ra­tion Wallonie-Bruxelles.

Et effec­ti­ve­ment, de ce point de vue, c’est de plus en plus le cas quand on uti­lise des algo­rithmes d’optimisation dans des ser­vices publics, dans des entre­prises pri­vées pour embau­cher ou gérer le per­son­nel, pour pro­po­ser des meilleures polices d’assurance… ils pré­sentent l’optimum cal­cu­lé par la machine comme étant la meilleure solu­tion. Ce qui est dif­fi­ci­le­ment débat­table car on a ni la culture tech­nique, ni le temps et les com­pé­tences pour vrai­ment pou­voir contes­ter cette opti­mi­sa­tion. D’autant qu’on subit une cadence telle qu’on a du mal à se situer sur des hori­zons de 10 ou 20 ans.

On assiste à une accélération ?

Oui, et cette accé­lé­ra­tion, c’est quelque chose que la cri­tique sociale a déjà énon­cé lors de la Révo­lu­tion indus­trielle. Pen­sons à Char­lie Cha­plin et au « Temps modernes » où l’ouvrier est pris sur la chaine de mon­tage, il n’arrive plus à suivre, il doit tra­vailler au rythme de la machine… C’est quelque chose qu’on revit peut-être aujourd’hui sous une autre forme : on est pris dans des boucles de pré­dic­tions et de recom­man­da­tions com­por­te­men­tales où on est sans cesse sol­li­ci­tés, donc pro­je­tés dans la seconde qui va suivre. Il y a quelque chose d’épuisant.

Par contre, l’erreur, ce serait de dire que c’est la faute à la machine. Tout comme ce n’était pas la faute de la machine indus­trielle, ce n’est pas la faute des algo­rithmes de recom­man­da­tions aujourd’hui. C’est là que réside un enjeu poli­tique, éco­no­mique et social impor­tant. Et il nous faut répondre à cer­taines ques­tions pour le trai­ter : qu’est-ce que l’on attend col­lec­ti­ve­ment de cer­taines tech­no­lo­gies ? Qu’est-ce que l’on désire de la tech­no­lo­gie ? Réin­jec­ter cette ques­tion du désir me semble impor­tante tant sur l’échelle indi­vi­duelle que col­lec­tive. C’est comme ça qu’on peut voir des col­lec­tifs se for­mer autour des tech­no­lo­gies, qui ne sont pas contre la tech­nique mais qui dési­rent autre chose, un autre ave­nir, d’autres formes de socié­té à tra­vers la technique.

On a un rapport de fétichisation de la technologie et l’intelligence artificielle n’y échappe pas. Est-ce qu’une des nouveautés avec le fait que l’IA s’immisce de plus en plus dans nos quotidiens, c’est une accélération de cette fétichisation ?

Je crois ce qu’on féti­chise avant tout, c’est le carac­tère auto­ma­tique des tech­no­lo­gies, des machines. Leur soi-disant capa­ci­té à fonc­tion­ner toutes seules sans jamais tom­ber en panne avec cet idéal sui­vant lequel elles rem­pla­ce­raient l’humain dans toute une série de tâches et de fonc­tions. Et qu’elles s’alimenteraient toutes seules, qu’elles s’autoreproduiraient — un vieil ima­gi­naire, pré­sent déjà au 17e siècle avec une obses­sion pour l’horloge per­pé­tuelle ou la quête de la machine à mou­ve­ment per­pé­tuel. On est fas­ci­né par des machines qui ne s’arrêteraient jamais et dont on pour­rait sim­ple­ment contem­pler le tra­vail. Or, je crois qu’il y a aujourd’hui beau­coup de ça dans le dis­cours sur l’IA avec cette idée qu’elle va nous rem­pla­cer, c’est-à-dire fonc­tion­ner et tra­vailler toute seule. Car les IA sont loin de pou­voir mar­cher toutes seules ou de se sub­sti­tuer à nous. Au contraire, elles n’ont jamais été aus­si inté­grées dans la vie sociale. Ces tech­no­lo­gies sont en effet uti­li­sées pour aider le diag­nos­tic médi­cal, recom­man­der des conte­nus cultu­rels sur les pla­te­formes, éta­blir des polices d’assurance, attri­buer des cré­dits, lut­ter contre la cri­mi­na­li­té… Elles font par­tie d’activités et de pra­tiques sociales qui sont insé­pa­rables des don­nées que les utilisateur·trices pro­duisent. Et insé­pa­rables aus­si des utilisateur·trices qui les uti­lisent et qui sont le public concer­né par ces technologies.

Dans votre livre vous décrivez la smart city comme une ville augmentée de technologies et de services de prédictions en temps réel, quelque chose qui fonctionnerait tout seule, pour ainsi dire sans habitant·es ou malgré ses habitant·es. Est-ce qu’on pourrait aussi le dire justement pour d’autres applications, d’autres lieux où se déploient les intelligences artificielles ? Où les usagers de services publics ou les patients d’un hôpital y seraient perçus comme une variable très secondaire ?

Ce qui s’est sou­vent pas­sé quand on parle de rem­pla­ce­ment du tra­vail humain dans des ser­vices comme les super­mar­chés, les hôpi­taux, les fast-foods, ou encore les call-cen­ters, c’est que le tra­vail humain avant d’être rem­pla­cé par la machine a été méca­ni­sé ou ren­du com­pu­table, c’est-à-dire réduit à un tra­vail qui pou­vait être exé­cu­té par une machine. C’est très fla­grant dans les call-cen­ters de ser­vice clien­tèle. Les stan­dar­distes ont été habitué·es à suivre un script duquel ils et elles ne pou­vaient pas dévier. Évi­dem­ment ça n’a pas été très com­pli­qué à par­tir de ce moment-là de rem­pla­cer des humains par une machine pour ce tra­vail déjà très robotisé.

Après ce qui est tou­jours fas­ci­nant, et c’est là que le fétiche de l’automatisation revient, c’est qu’on vou­drait que ça marche à tous les coups, on vou­drait que ça rem­place défi­ni­ti­ve­ment le tra­vail humain mais ça n’arrive jamais ! Une machine qui fonc­tionne par­fai­te­ment 100 % du temps n’existe pas. Les choses semblent mar­cher de manière auto­ma­tique un moment. Mais quand par exemple ça tombe en panne, on est rap­pe­lé à la maté­ria­li­té des choses, au fait que tout ça dépend d’ordinateurs, d’électricité, de câbles, de main d’œuvre, de main­te­nance, etc. L’essence même du fonc­tion­ne­ment tech­nique, c’est d’être inter­mit­tent, défaillant, de néces­si­ter de la maintenance.

C’est quand même assez rare que le chat­bot [robot conver­sa­tion­nel NDLR] résolve vrai­ment le pro­blème pour lequel on appelle. En fait ça sert sur­tout pour une entre­prise à gérer le flux d’appels, à désa­tu­rer les lignes télé­pho­niques, voire à décou­ra­ger les clients qui appellent… Le cas des caisses auto­ma­tiques l’illustre bien aus­si : on aurait du mal à ima­gi­ner un super­mar­ché qui arrive à mar­cher sans aucun employé·e humains. Les machines marchent une fois sur deux, dif­fé­rents codes d’erreurs s’affichent sur leurs écrans. Et l’agent humain devient alors une sorte de média­teur entre la machine et le client, celui qui vient régler, qui vient com­mu­ni­quer avec la machine. De manière géné­rale, l’intégration de nou­velles tech­no­lo­gies, notam­ment de l’IA, ne va pas éva­cuer l’humain mais va le dépla­cer dans la configuration.

Dans les discours sur les IA, revient souvent l’idée qu’elles pourraient se retourner contre nous, contre leurs créateurs. Selon vous, cela pourrait renvoyer à la vieille peur du dominant qui craint le soulèvement des esclaves, des colonisé·es, des subalternes. Est-ce que cela voudrait dire que l’IA repose sur un imaginaire colonial ?

Pour répondre cor­rec­te­ment à cette ques­tion, je dois faire un détour par la phi­lo­so­phie de Gil­bert Simon­don qui lit l’histoire de notre rap­port occi­den­tal à la tech­no­lo­gie dans la pro­lon­ga­tion du rap­port maitre-esclave. Aris­tote voyait en effet une conti­nui­té entre l’outil et l’esclave : dans les deux cas, ce sont des choses — dans la Grèce antique, rap­pe­lons que l’esclave était consi­dé­ré comme une chose. Ils n’ont tous deux pas de fin en soi : leur objec­tif est don­né soit par celui qui uti­lise l’outil, soit par le maitre. Sauf que l’esclave est une chose étrange puisqu’il peut se révol­ter, refu­ser d’obtempérer, fuir. Alors que l’outil lui obtem­père tou­jours, en tout cas pour des outils simples comme un mar­teau ou une char­rue. Mais, pro­gres­si­ve­ment, en deve­nant de plus en plus com­plexe, en deve­nant des machines, les outils se sont mis aus­si par­fois, à la manière des esclaves, à ne plus obtem­pé­rer, à dys­fonc­tion­ner, à tom­ber en panne.

Cet ima­gi­naire de l’esclave per­siste et il se situe en arrière-fond du fétiche de l’automatisation. Ain­si, quand on veut rem­pla­cer des travailleur·euses humain·es par des machines, la pré­oc­cu­pa­tion pre­mière n’est pas de les libé­rer du tra­vail, mais plu­tôt de pro­duire plus rapi­de­ment, de ne pas avoir à gérer de l’insubordination, des grèves, des syn­di­cats, des gros­sesses, des congés pater­ni­té, etc. Il faut pen­ser ce fétiche de l’automatisation dans cette his­toire longue construite autour de l’idée qu’une bonne machine, c’est un esclave. Et d’ailleurs c’est un lan­gage qui est repris dans l’histoire de l’informatique, on en trouve des marques par­tout : com­mande, exé­cu­tion, des logi­ciels « esclaves » et « maitres », l’étymologie du mot robot ren­voie aus­si à l’esclave.

Les machines sont deve­nues des objets com­plexes qui semblent par­fois n’en faire qu’à leur tête. D’ailleurs, c’est comme ça qu’on en parle quand elles ne font pas ce qu’il fau­drait. On s’énerve contre son ordi­na­teur, on dit : « aujourd’hui, il veut pas ». Et ce n’est pas un hasard si dans l’imaginaire science-fic­tion­nel au ciné­ma ou en lit­té­ra­ture, on voit des robots ou des machines qui se sou­lèvent. On ne cesse de pro­je­ter cette pos­si­bi­li­té qu’une machine, tout comme un esclave, un colo­ni­sé, un subal­terne pour­rait bien se révol­ter un jour. On est quelque part tou­jours dans une socié­té escla­va­giste — colo­niale dans le sens où on n’a pas éva­cué cette fonc­tion-là de notre acti­vi­té, de notre forme de pro­duc­tion. Tant qu’on vou­dra rem­pla­cer des ouvriers humains parce que les ouvriers humains ne sont pas dociles et que les machines le seraient, on gar­de­ra la fonc­tion esclave c’est-à-dire quelque chose qui obéit sans bron­cher. Sor­tir notre rap­port à la tech­nique de ce désir d’obéissance et de contrôle me semble dès lors un enjeu impor­tant. Car tant qu’on gar­de­ra cette fonc­tion de l’esclave docile confé­rée à la machine comme une pos­si­bi­li­té, elle pour­ra poten­tiel­le­ment un jour être rem­plie de nou­veau par des êtres humains. Il faut rendre cette rela­tion impos­sible à penser.

Comment on sort de cet imaginaire délétère ?

Ce n’est pas parce qu’une machine « n’en fait qu’à sa tête » qu’elle se révolte et va nous dépas­ser, être plus puis­sante que nous. Si on com­mence à voir que les tech­niques sont dans des rela­tions pour ain­si dire sociales avec nous, on n’aura plus une forme de méfiance ou de crainte, mais des com­por­te­ments de soin, d’attention et de com­pré­hen­sion de l’objet, comme on peut le faire dans d’autres formes de rela­tions sociales. Ce qui ne veut pas dire qu’il faut consi­dé­rer la machine comme un vivant. Mais il s’agirait de com­prendre com­ment ça fonc­tionne et pour­quoi ça dys­fonc­tionne. Alors aujourd’hui évi­dem­ment, c’est com­pli­qué d’attendre ça d’utilisateur⸱ices pour des sys­tèmes d’IA où les ingé­nieurs qui les conçoivent ont eux-mêmes du mal à com­prendre ou expli­quer com­ment ça fonc­tionne, à for­tio­ri à pro­duire du soin et de la com­pré­hen­sion. C’est là qu’il faut créer et réima­gi­ner des formes de col­lec­tifs qui donnent cette puis­sance d’agir aux utilisateur·ices. Mais aus­si réflé­chir à com­ment les ins­ti­tu­tions publiques pour­raient régu­ler les usages en impo­sant des normes strictes en termes d’ouverture et de répa­ra­bi­li­té sur les entre­prises. Aujourd’hui on jette ce qui ne marche plus comme on vou­drait, demain il fau­dra qu’on apprenne à prendre soin, sur­tout si on veut conser­ver quelque chose comme notre intelligence.

L’intelligence des villes – Critique d’une transparence sans fin
Tyler Reigeltuth
Météores, 2023

 

Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

code