Qu’est-ce qui menace nos démocraties dans cette diffusion de plus en plus poussée des IA dans nos quotidiens ? Est-ce que c’est quelque chose qui va au delà de phénomènes comme des deep fakes qui brouillent l’information ou de l’influence de processus algorithmiques sur les élections ?
Ce qui m’inquiète, c’est la personnalisation poussée des environnements informationnels que permettent les algorithmes – très loin de l’internet comme vaste espace public et de délibération fantasmé à ses débuts. Il y a une sorte d’utopie de la variété selon laquelle les algorithmes qui gèrent les plateformes seraient capables de donner voix à toute la diversité, sans avoir besoin d’intermédiaires ou de représentants. Mais l’expression de cette multitude d’opinions s’y réalise le plus souvent sans autre. Or, pour véritablement former son opinion, c’est-à-dire pour revoir nos références initiales, il faut nécessairement être confronté à quelque chose qui n’a pas été prévu pour nous.
Sur les réseaux sociaux par exemple, on observe surtout une juxtaposition d’individus ou d’opinions qui se sont certes émancipés de la norme, mais qui sont assoiffés de crédits, de followers, de likes, de visibilité. Dès lors, les opinions qui vont s’afficher ne vont pas exprimer une conviction politique murement réfléchie à l’aune de discussions ou une confrontation à des arguments telles qu’on peut avoir dans un espace public réel, c’est-à-dire dans un lieu où on comparait ensemble avec d’autres. Ça a plutôt à voir avec la recherche d’une optimisation du discours en fonction de l’injonction à maximiser son audience.
Il y a de la sorte une compétition de ces individus juxtaposés pour occuper un nœud dans le maillage du réseau, c’est-à-dire pour gagner en influence. Et pour ça, il faut être réactif, susciter du commentaire, faire le buzz, devenir et agir comme une marque. Le sens des mots que vous employez aura dès lors beaucoup moins d’importance que leur valorisation algorithmique. C’est-à-dire que la possibilité que ces mots-là attirent sur le mode pulsionnel, celui du réflexe et des réactions comme le clic ou le partage. Pour moi c’est une éviction totale de l’idée même de chose publique ou d’espace public puisqu’une ressource indispensable, le commun, est contournée, voire annihilée par cette dynamique.
Ce qui est menacé par ces dispositifs algorithmiques qui visent à la fragmentation, à l’individualisation, ce serait donc avant tout notre capacité ou notre volonté de faire du commun ?
Tout sujet en démocratie est un processus en constante élaboration et en constant dépassement de lui-même — y compris dans ses opinions politiques puisqu’en rencontrant d’autres on peut changer d’avis. Mais cela suppose toute une infrastructure du commun et non pas les bulles de filtre que construisent les réseaux… Cela suppose des instances, c’est-à-dire des lieux et moments de rencontre dans lesquels on est confronté à des choses qui n’ont pas été prévues pour nous, et à des opinions qui ne sont pas les mêmes que les nôtres. Des espace-temps aussi dans lesquelles on peut collectivement décider des règles fondamentales ou de la théorie de la justice à laquelle on veut adhérer. Par exemple, quels sont les critères de mérite, de besoin, de désirabilité, de dangerosité acceptable dans une société ? Ça doit être débattu car ce sont des concepts dialectiques c’est-à-dire qui ne sont pas définis une fois pour toutes. Ils sont en constante élaboration et réélaboration. Et devraient donc être soumis à une discussion permanente.
Or, c’est ça qui disparait avec les algorithmes, c’est ça qui est court-circuité par le calcul et le fait que nous passons de plus en plus de temps chacun isolément devant nos écrans. Nous sommes face à des contenus médiatiques qui nous sont envoyés en raison de système de profilage, de hiérarchisation, d’appariement sur lesquels nous n’avons aucune maitrise. Ceux-ci visent à nous cibler individuellement plutôt qu’à nous ouvrir à une multitude de contenus différents. Ce contournement du commun est extrêmement problématique en démocratie.
D’autant que le commun, c’est précisément ce qui ouvre les individus du présent aux intérêts de l’avenir c’est-à-dire des générations futures. Or, les dispositifs algorithmiques actuels sont mis au service de rationalités sectorielles qui visent essentiellement à s’optimiser. C’est-à-dire à optimiser leurs intérêts présents sans tenir compte du tout du futur, sans investir dans la préservation d’un avenir possible : ça évacue tout ce qui n’est pas déjà là. Cette dimension temporelle aussi me semble extrêmement importante. C’est pour ça que je défends l’idée d’une constitution pour réguler les usages du numérique.
Quelles seraient les vertus d’une constitution (du) numérique ?
Une constitution, c’est d’abord un texte dans lequel on décide en commun des critères de mérite, de besoin, de désirabilité qui président à la répartition des ressources et des procédures à partir desquels on va décider ça politiquement. Et ça, on ne peut pas le sous-traiter à des machines.
Le texte constitutionnel c’est aussi un texte dans lequel les puissances d’aujourd’hui acceptent de s’autolimiter en vue d’une promesse qu’ils font pour l’avenir. C’est un texte par lequel une société fait une promesse qui la dépasse, qui va perdurer au profit des générations futures.
C’est aussi un texte qui est généralement suffisamment vague — comme les mots, comme le langage le permettent, contrairement au numérique — pour laisser le champ à des interprétations. Ce jeu, cette marge de manœuvre s’appelle le politique. Ça permet de ménager de la résistance au monde, à ce qui arrive. Et aussi de faire valoir des significations qui n’avaient pas pu être entrevues au moment de la rédaction du texte constitutionnel, c’est-à-dire des situations singulières qui n’avaient pas pu être prévues.
Un texte constitutionnel, c’est donc essentiellement une manière de se ménager la possibilité de nous gouverner nous-mêmes, plutôt que d’être gouverné par des automatismes, de permettre de la différence plutôt que de la répétition à l’infini.
Et donc de repolitiser là où la logique algorithmique a tendance à faire l’économie de débats voire à automatiser de plus en plus de décisions ?
Oui, bien sûr, ça permettrait de repolitiser un ensemble de questions. On a cru à un moment que de passer de la représentation langagière au pur calcul, à la computation, allait nécessairement permettre des décisions plus objectives et plus impartiales. Or, ce dont on s’est rendu compte, c’est que ce passage-là a surtout servi à naturaliser des inégalités, les désavantages subis par certaines communautés vis-à-vis d’autres.
C’est ce que j’appelle la facticité algorithmique. Le philosophe Walter Benjamin décrivait la facticité comme cette tendance qu’ont les régimes fascistes à présenter l’état de fait comme étant le seul possible, à trouver à l’état de fait actuel une origine mythique qui l’immunise de toute remise en question. Cette facticité ne va pas évidemment pas s’imposer d’elle-même. C’est tellement faux que les régimes autoritaires ont besoin d’une énorme dose de violence pour l’imposer. Alors, je ne dis pas que ce tournant algorithmique nous conduit nécessairement au fascisme, mais la tendance est la même : considérer que tout ce qui est enregistré sous forme de données, c’est le monde en soi, la vérité, le réel. Et qu’on n’aurait plus besoin de l’historicité, c’est-à-dire d’interroger les causes, d’entendre les gens. Qu’on n’aurait plus besoin d’explications, d’interprétations, ni de témoignages.
C’est assez effrayant car cette facticité amène à reproduire et à reconduire automatiquement — et sans possibilité de contestation — le résultat des rapports de domination antécédents. Ça a été bien démontré au sujet des algorithmes qui automatisent le racisme ou la misogynie. Au fond, ça a tout à fait rigidifié la situation en permettant à ceux à qui l’état de fait convient très bien de s’immuniser contre tout changement.
Les algorithmes constituent ainsi un art de ne pas changer le monde, tout simplement parce qu’ils ne peuvent métaboliser que des données. Or, les données ne sont pas des faits, mais toujours le résultat de rapports de force et de domination qui sont transcrits sous une forme numérique. Et on fait comme si ces rapports de pouvoir naturalisés n’étaient causés par rien. Nous sommes incapables de questionner l’origine des données, leurs conditions de production, puisque la seule chose qui nous intéresse, c’est d’anticiper les effets. Des effets qui à leur tour deviennent des données d’entrainement. C’est une sorte de déhistoricisation contre laquelle il faut opposer une critique véritablement matérialiste c’est-à-dire qui s’intéresse aux situations.
Par exemple ?
Pour certains, si les chauffeurs Uber sont tellement individualistes et peinent à s’organiser pour améliorer leurs conditions de travail, ce serait parce qu’ils ignorent comment fonctionne leur plateforme. C’est faux, ils en sont les parfaits spécialistes. En fait, si leur exploitation perdure c’est bien plutôt parce que tout a été fait par le capitalisme pour prévenir toute forme d’émergence de formes collectives.
Après, oui, les algorithmes des plateformes constituent l’un des instruments qui permet d’isoler chaque travailleur, en le plaçant seul face à son smartphone et dans l’impossibilité de savoir exactement quelles sont les règles, quel est le seuil de productivité, de gentillesse avec le client, d’efficience, etc. qui sont attendus par la plateforme. Parce que précisément ce n’est plus la plateforme qui attend : ce n’est plus personne. C’est-à-dire que l’autorité n’est plus assumée par une figure concrète contre laquelle des travailleurs pourraient se mobiliser collectivement. La norme disparait puisqu’elle devient éminemment plastique et dépend des comportements de tous les autres chauffeurs avec qui il est mis en concurrence. C’est cette sorte de dissolution à nouveau de la possibilité de faire commun et de prendre une consistance collective qui est problématique.
Je voudrais d’ailleurs insister sur le fait que le plus gros problème avec ces plateformes, ce ne sont pas les menaces sur la vie privée ou la protection des données personnelles, mais les conditions socioéconomiques, dans lesquelles elles placent les travailleurs et l’économie politique dans laquelle nous nous trouvons. La critique doit s’élargir et cesser de se centrer uniquement sur les algorithmes. Ils ne sont que des instruments dans cette affaire ; ils pourraient servir à tout autre chose de beaucoup plus émancipateur. Ce qu’il faut critiquer, c’est bien le capitalisme au service duquel ces algorithmes sont utilisés.
Si les logiques algorithmiques, qui dopent le capitalisme, provoquent autant d’effets sur nos démocraties, est-ce aussi en raison d’une volonté de notre part de nous déresponsabiliser et de déléguer aux machines quand nous nous trouvons face à des questions complexes ?
Le philosophe Claude Lefort nous explique que la démocratie s’instaure et se perpétue par le maintien et la reconduction de l’indétermination. C’est-à-dire que face à la complexité du monde, à l’incertitude, à l’indétermination de ce que l’esprit humain peine à gérer, il y a ce mythe de la totalisation qui veut nous faire croire que cette complexité pourrait se résoudre dans la boite noire des algorithmes. C’est du technosolutionnisme de base : les IA pourraient nous dispenser d’avoir à nous confronter d’une façon nécessairement traumatique à l’indécidabilité, à la complexité…
Or, cette indétermination, c’est précisément ce qui nous oblige à nous rencontrer, à parler, à convenir, à débattre, à délibérer, à remettre chacun en question nos préférences a priori et les mettre à l’épreuve des préférences ou opinions des autres. C’est comme ça que les individus deviennent des sujets politiques, dans leur relation, dans leur confrontation à l’autre. Or, l’utopie — ou plutôt la dystopie — de l’IA et du machine learning, c’est précisément celle qui veut nous dispenser de l’épreuve de cette indétermination. La délibération, la chose publique, qui est avant tout de l’espace et du temps, sont court-circuités par l’apprentissage continu, par ce métabolisme, par cet hypercalcul.
Cet hyper calcul nous met pourtant dans une situation de précarité très grande puisqu’il produit lui-même énormément d’incertitude pour les êtres humains. Il construit un monde inhabitable parce que le temps réel n’est pas un temps vécu par nous : nous sommes des êtres hétérochroniques c’est-à-dire nous avons un passé, un présent et un avenir, nous sommes hantés par le passé et propulsés vers l’avenir à travers nos projets et nos rêves… Tandis que le monde algorithmique, c’est un monde absolument glacial, non peuplé. Un monde de coordonnées dont le centre n’est absolument plus l’être humain, ni individuel ni collectif.
Est-ce qu’il n’y a pas aussi une forte croyance selon laquelle il vaudrait mieux s’en remettre à la machine qui, par sa puissance de calcul phénoménal, saura mieux que nous ce qu’il faut faire ?
Non seulement que la machine saura mieux que nous ce qu’il faut faire, mais en plus qu’elle sera capable de prendre en compte ce qu’il y a chez nous de plus particulier. Or, ça correspond exactement à la forme sociale que nous habitons aujourd’hui : un hyper-individualisme où chacun se conçoit comme unique et incomparable à d’autres, irréductible à aucune moyenne, récalcitrant à la norme. Des hyper-individus qui se vivent à travers leurs performances identitaires et leurs recombinaisons sur les réseaux sociaux en vue de maximiser leur audience. Nous aimons la personnalisation algorithmique c’est-à-dire le fait que tout s’adapte exactement à nous. C’est quelque chose dont nous voulons. Aujourd’hui, ce que craignent les individus, ce n’est pas du tout un manque de protection de la vie privée ou l’usage des leurs données personnelles… Au contraire, leur pire terreur c’est de ne pas être assez visible, de ne pas être assez espionné, de ne pas laisser assez de traces ! C’est pourquoi on doit absolument revoir toutes les coordonnées d’une critique sociale actuellement fondée sur la protection de l’individu, de son intimité, de son for intérieur.
L’autre errance à mes yeux de la critique, actuelle, c’est le fait d’observer la numérisation sous le prisme de la perspective répressive, de se dire que tout ça veut nous influencer, nous contrôler façon Big Brother. Alors que non, pas du tout, au contraire ! Ça se nourrit précisément de ce qu’on jugeait précédemment comme ingouvernable, ça fait proliférer les comportements les plus anarchistes possible. C’est en cela que c’est du « capitalisme sous stéroïdes algorithmiques », ça prolifère grâce aux crises, grâce aux irrégularités, aux émergences, à ce qu’on conçoit comme relevant de notre spontanéité. C’est tout sauf un enfermement dans une norme ou une standardisation.
Est-ce que néanmoins les algorithmes ne peuvent pas créer des comportements ? Par exemple par le nudging, ces petits dispositifs incitatifs orientant subrepticement nos actions ?
Ce qui crée les comportements, c’est le capitalisme, c’est l’érosion des structures collectives, mais ce ne sont pas les algorithmes en tant que tels. Les algorithmes ne sont que des instruments, des dopants. Par contre, oui, comme on l’a évoqué, ça court-circuite les possibilités, le besoin ressenti et le désir des individus de se mettre ensemble pour affronter l’indécidabilité ou la part incompressible d’incertitude radicale. Et de décider ensemble. Ça rend plus rares les espace-temps pour imaginer ou pour développer des utopies.
Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».