Entretien avec Mathias Delori

Habsora : la guerre dopée à l’IA

Illustration : Simon Boillat

Hab­so­ra est un logi­ciel mili­taire employé par l’armée israé­lienne dans le cadre de son opé­ra­tion « Épée de fer » qui ravage actuel­le­ment Gaza. Basé sur des tech­no­lo­gies d’intelligence arti­fi­cielle (IA), il traite de nom­breuses don­nées col­lec­tées sur le ter­rain pour rapi­de­ment déter­mi­ner un nombre éle­vé de cibles à bom­bar­der, offi­ciel­le­ment pour éli­mi­ner un maxi­mum de com­bat­tants enne­mis. Com­ment l’IA s’intègre-t-elle dans le dis­cours et les pra­tiques de la « guerre contre le ter­ro­risme » ? Élé­ments de réponse avec Mathias Delo­ri, cher­cheur CNRS en Sciences poli­tiques au Centre Émile Dur­kheim de Bor­deaux est auteur de Ce que vaut une vie, ouvrage dans lequel il ana­lyse les res­sorts de la vio­lence guer­rière contre-ter­ro­riste des démo­cra­ties libérales.

[entretien réalisé le 12/02/2024]

Israël est généralement associé au bloc euro-atlantique dont vous étudiez les discours de justifications de la « guerre contre le terrorisme ». C’est d’ailleurs au nom de la guerre contre le terrorisme qu’Israël bombarde depuis plusieurs mois le territoire de Gaza avec l’aide d’Habsora, un logiciel utilisant des technologies d’IA. Comment une technique, celle des IA, rencontre-t-elle une pratique sécuritaire, celle de la guerre contre le terrorisme ?

Il faut com­men­cer par dire que la ques­tion des objec­tifs de l’opération israé­lienne à Gaza fait débat. S’agit-il là d’une opé­ra­tion contre-ter­ro­riste à pro­pre­ment par­ler, c’est-à-dire d’une opé­ra­tion dont l’objectif serait de détruire le Hamas pour pré­ve­nir des atten­tats futurs ou d’une opé­ra­tion de net­toyage eth­nique, voire d’un géno­cide ? Dans son avis du 26 jan­vier 2024, la Cour Inter­na­tio­nale de Jus­tice a rele­vé que de nom­breux élé­ments plaident pour la seconde inter­pré­ta­tion. Ces deux hypo­thèses ne sont cepen­dant pas contra­dic­toires. Les guerres sont des poli­tiques publiques comme les autres. Elles sont por­tées par des groupes d’acteurs aux inté­rêts et visions du monde hété­ro­gène. En d’autres termes, l’interprétation selon laquelle l’opération mili­taire à Gaza serait une entre­prise géno­ci­daire n’invalide pas celle selon laquelle cer­tains membres de l’appareil de sécu­ri­té israé­lien l’envisageraient, aus­si, comme une opé­ra­tion contre-ter­ro­riste. Je vais donc rete­nir cette hypo­thèse pour répondre à votre ques­tion au sujet de l’IA.

Israël a bom­bar­dé Gaza à plu­sieurs reprises au cours des vingt der­nières années sans jamais par­ve­nir à éli­mi­ner les groupes qu’il qua­li­fie de « ter­ro­ristes ». Cet échec s’ajoute à celui des États-Unis, du Royaume-Uni et de la France dans leurs propres guerres contre-ter­ro­ristes en Afgha­nis­tan, en Irak et au Sahel. L’IA arrive donc à point nom­mé pour les par­ti­sans de la guerre contre le ter­ro­risme. Ils peuvent se dire : « OK, cela n’a pas bien mar­ché jusqu’à pré­sent, mais nous avons aujourd’hui un nou­vel outil effi­cace ». Ils peuvent d’autant plus faci­le­ment s’en convaincre que l’IA et la guerre contre le ter­ro­risme reposent sur une logique simi­laire. Dans ce type de guerre, on n’est jamais cer­tain qu’une per­sonne qui ne porte pas d’arme à l’instant T ne va pas deve­nir un ter­ro­riste à T+1. On peut seule­ment esti­mer la pro­ba­bi­li­té que ce soit le cas. Or, l’IA per­met d’intégrer cette logique pro­ba­bi­liste. Hab­so­ra peut esti­mer, par exemple, qu’il existe une pro­ba­bi­li­té de 80 % qu’un mili­tant du Hamas se trouve dans tel ou tel immeuble. Le logi­ciel peut même esti­mer la pro­ba­bi­li­té de faire un nombre don­né de dégâts col­la­té­raux. C’est éga­le­ment inté­res­sant car les doc­trines de la contre-insur­rec­tion énoncent qu’il faut mai­tri­ser ces der­niers pour ne pas faire trop de voca­tions ter­ro­ristes. Sur le papier, l’IA semble donc épou­ser la gram­maire pro­ba­bi­liste de la guerre contre le ter­ro­risme. Je ne suis pas sur­pris de l’enthousiasme qu’elle sus­cite chez les par­ti­sans de ce type de guerres.

L’IA est censée permettre de maitriser le nombre de « dégâts collatéraux ». Ce n’est pas la première fois qu’une technique est utilisée comme un argument moral dans le cadre de la guerre contre le terrorisme. On se souvient des « frappes chirurgicales » où des bombes guidées étaient présentées comme plus « civilisées ». Est-ce qu’aussi ici, avec les IA, on veut faire passer une technique comme plus « humaine », plus « juste », car décidée par la machine ?

La notion-clé pour com­prendre cette logique est celle de « tech­no­lo­gie morale », que j’emprunte à Eyal Weiz­man. Cette notion ne dit rien de la mora­li­té d’une tech­no­lo­gie en soi (pour les vic­times, une tech­no­lo­gie guer­rière n’est jamais morale). Elle désigne les tech­no­lo­gies que leurs uti­li­sa­teurs inves­tissent d’une valeur morale. Eyal Weiz­man cite l’exemple de FAST-CD, un logi­ciel d’évaluation des « dégâts col­la­té­raux » uti­li­sé par les armées de l’espace euro-atlan­tique dans les années 2000. Il indi­quait aux pilotes de chas­seurs-bom­bar­diers et opé­ra­teurs de drones quels sont les risques (en pro­ba­bi­li­té) de cau­ser un nombre X de « dégâts col­la­té­raux » en fonc­tion de la dis­tance du point d’impact. Ce type de tech­no­lo­gie contri­bue à la construc­tion de la croyance dans la mora­li­té d’une manière de faire la guerre qu’Eyal Weiz­man appelle « huma­ni­taire » et moi « libé­rale » (peu importe), une manière de faire la guerre qui consiste à ne viser que des cibles mili­taires tout en cal­cu­lant le nombre de civils tués. Les pilotes et les opé­ra­teurs de drones qui uti­lisent cette tech­no­lo­gie se disent qu’ils ne font pas la guerre de la même façon que les ter­ro­ristes. Ni même que leurs pré­dé­ces­seurs qui lar­guaient des bombes incen­diaires sur Dresde et Tokyo en 1945. Les bombes dotées de sys­tème de gui­dage sont un autre exemple de tech­no­lo­gie morale. Elles maté­ria­lisent la pos­si­bi­li­té de ne viser que des cibles com­bat­tantes. Or ce rai­son­ne­ment n’est pas propre au champ mili­taire : dans l’idéologie libé­rale de la guerre contre le ter­ro­risme, une bombe qui vise un objec­tif mili­taire est jugée plus morale qu’un atten­tat ter­ro­riste, même si la bombe en ques­tion fait bien plus de morts civils. On le voit aujourd’hui à pro­pos d’Israël/Palestine. Les par­ti­sans de la guerre israé­lienne à Gaza ne nient pas le fait qu’elle fait au moins vingt fois plus de vic­times civiles que les attaques du 7 octobre 2023. Par contre, ils pré­tendent qu’Israël tue­rait de manière morale alors que le Hamas com­met­trait des atrocités.

L’IA peut donc tout à fait entrer dans cette caté­go­rie de tech­no­lo­gie que ses uti­li­sa­teurs ou par­ti­sans inves­tissent de valeurs morales. Pour en être sûr concer­nant Hab­so­ra, il fau­drait réa­li­ser des entre­tiens avec le com­man­de­ment mili­taire israé­lien ou bien avec les pilotes qui l’utilisent. Si leur logique n’est pas ou pas seule­ment géno­ci­daire, il se pour­rait qu’ils inté­rio­risent l’histoire sui­vante : « Contrai­re­ment au Hamas, nous ne tuons pas de manière indis­cri­mi­née ; un logi­ciel nous indique des cibles où se trouvent des com­bat­tants enne­mis et nous ne visons qu’eux ».

Quoi qu’il en soit, ce dis­cours sur la mora­li­té des tech­no­lo­gies guer­rières des pays de l’espace euro-atlan­tique passe sous silence deux points. Pre­miè­re­ment, il efface la voix des vic­times et de leurs proches. Pour ces der­niers, la ques­tion de savoir si un parent ou un fils a été tué de manière ter­ro­riste ou parce qu’un logi­ciel a esti­mé qu’il consti­tuait un dégât col­la­té­ral accep­table est dépour­vue de sens. Han­nah Arendt nous a expli­qué pour­quoi : pour les vic­times, tout le sens de la vio­lence est inclus dans l’action vio­lente, quels que soient les rai­son­ne­ments des bour­reaux. Deuxiè­me­ment, ce dis­cours valo­rise ce qu’on appelle le jus in bel­lo – c’est-à-dire le droit sur la manière de faire la guerre -, alors que le droit rela­tif à la guerre com­porte un autre pilier : le jus in bel­lum, le droit d’entrer en guerre ou non. Or l’immense majo­ri­té des guerres contre-ter­ro­ristes sont illi­cites de ce point de vue.

Les démocraties libérales affirment souvent que les morts de civils innocents lors des bombardements sont accidentelles. Qu’en est-il avec Habsora, sachant que le logiciel prend en compte une probabilité de « dommages collatéraux » ? Est-il plus difficile de prétendre ici que les civils meurent par accident ?

D’abord, et indé­pen­dam­ment de Hab­so­ra, il faut savoir que les médias nous induisent en erreur quand ils sug­gèrent qu’il y aurait deux manières de tuer des civils dans le cadre des guerres aériennes : une manière inten­tion­nelle comme lors des bom­bar­de­ments de Dresde, Tokyo, Hiro­shi­ma ou Naga­sa­ki, et une manière acci­den­telle comme quand on vise une cible com­bat­tante et on constate, après coup, que des civils sont morts aus­si. En réa­li­té, il existe trois manières de tuer des civils en les bom­bar­dant : les deux que je viens de citer et une troi­sième où la mort des civils n’est ni spé­ci­fi­que­ment inten­tion­nelle, ni accidentelle.

Pour que vous com­pre­niez, il faut que j’introduise une notion tech­nique : celle de « valeur seuil des vic­times non com­bat­tantes » (« non-com­bat­tant casual­ty cut-off value » en anglais). C’est le nombre de civils qu’un pilote ou opé­ra­teur de drone est auto­ri­sé à tuer pour une cible mili­taire don­née. On sait par exemple qu’en 2003 – 2004, pour les cibles dites de « haute valeur » en Irak, cette valeur était de 30. Cela veut dire que les pilotes de l’US Air Force pou­vaient tuer jusqu’à 29 civils ira­kiens s’ils avaient iden­ti­fié une telle cible. Cette notion en appa­rence tech­nique nous dit quelque chose de très impor­tant. Quand cette valeur seuil des vic­times non-com­bat­tantes est de zéro, la mort des civils est acci­den­telle. Mais dès lors que la valeur est de 1 ou plus, la mort des civils n’est ni spé­ci­fi­que­ment inten­tion­nelle (on ne les vise pas) ni acci­den­telle : c’est une consé­quence cal­cu­lée et connue du bombardement.

J’en viens à Hab­so­ra… il s’agit donc d’un logi­ciel qui, grâce à l’IA, génère des cibles en trai­tant une quan­ti­té mas­sive de don­nées issues, notam­ment, de la sur­veillance aérienne de Gaza. On ne sait pas com­ment Hab­so­ra est para­mé­tré. En admet­tant qu’il ne s’agisse pas d’une entre­prise géno­ci­daire (spé­ci­fi­que­ment diri­gée contre les civils), tout indique que la valeur seuil des vic­times non-com­bat­tantes est très éle­vée. En effet, envi­ron 50 enfants et ado­les­cents meurent chaque jour, depuis six mois, sous les bombes israé­liennes. Il faut ajou­ter à cela la des­truc­tion mas­sive des infra­struc­tures civiles et des habi­ta­tions, laquelle engendre ce que Rob Nixon appelle une « vio­lence lente ». Les gens meurent à petit feu.

Une autre justification de la Guerre contre le terrorisme consiste à prétendre qu’elle s’inscrit dans le cadre du droit international. L’usage des IA dans le cadre militaire et de Habsora en particulier respecte-t-il le droit international humanitaire ?

Il est dif­fi­cile de répondre à cette ques­tion car on ne sait pas exac­te­ment com­ment Hab­so­ra est para­mé­tré. L’enquête du maga­zine israé­lien 972 sug­gère que le com­man­de­ment israé­lien uti­lise un sub­ter­fuge. Hab­so­ra serait para­mé­tré pour pro­po­ser un maxi­mum de cibles mili­taires se trou­vant dans des infra­struc­tures civiles, typi­que­ment l’étage d’un immeuble où réside pro­ba­ble­ment un com­bat­tant du Hamas et dont on sait que la des­truc­tion entrai­ne­ra l’effondrement de l’immeuble dans son ensemble. Si cela est vrai, d’un point de vue for­mel, les civils ne seraient pas visés – confor­mé­ment à un prin­cipe car­di­nal du droit inter­na­tio­nal huma­ni­taire — mais la mort des civils pour­rait, elle, être pla­ni­fiée, ce qui est criminel.

La ques­tion de savoir si Israël per­pètre un géno­cide, un crime contre l’humanité ou des crimes de guerre à Gaza est impor­tante. Les ONG de défense des droits humains et les États sen­sibles à la cause pales­ti­nienne (comme l’Afrique du Sud) ont rai­son d’utiliser cet ins­tru­ment. Il faut tout faire pour arrê­ter les mas­sacres en cours et la vio­lence lente que j’évoquais plus haut. Cepen­dant, je pense qu’il ne faut pas faire du droit l’alpha et l’oméga de l’évaluation morale d’une vio­lence guer­rière. Rap­pe­lons que le droit inter­na­tio­nal huma­ni­taire n’interdit pas de tuer des civils, seule­ment de les viser et d’en tuer un nombre dis­pro­por­tion­né par rap­port à l’effet mili­taire recher­ché, ce qui est très sub­jec­tif. Les États capables de pro­duire des tech­no­lo­gies comme Hab­so­ra peuvent mimer le res­pect du droit inter­na­tio­nal huma­ni­taire pour, concrè­te­ment, mas­sa­crer une popu­la­tion civile et détruire ses lieux de vie. Ima­gi­nons qu’une cour sti­pule que les bom­bar­de­ments israé­liens à Gaza sont licites. Cela ne chan­ge­rait rien au fait que 150 per­sonnes, dont 50 enfants et ado­les­cents, meurent, chaque jour, dans ces bombardements.

Ce même article de 972 désigne Habsora comme « une usine d’assassinats de masse ». Est-ce que le fait que le nombre de cibles — et donc de frappes — soit décuplé par les capacités de traitement de l’IA, entraine la mort de plus de civils ?

Dans cet article, l’ancien chef d’État-major des forces armées israé­liennes explique qu’avant l’IA, le com­man­de­ment israé­lien était capable de pro­duire, grâce au ren­sei­gne­ment humain, une cin­quan­taine de cibles par an et que Hab­so­ra en four­nit une cen­taine par jour ! Donc effec­ti­ve­ment, ce type de logi­ciel décuple de manière inouïe le nombre de cibles. Il ne peut que faci­li­ter l’augmentation du volume de la violence.

Quel impact l’usage de l’IA et les discours qui l’accompagnent ont-ils sur la représentation des « cibles », c’est-à-dire des gens qui reçoivent les bombes, qui sont blessés, qui meurent ? Est-ce que cela participe à cette idée de valeur différenciée des vies humaines que vous analysez dans votre livre ?

Je ne reviens pas sur ce que j’ai expli­qué tout à l’heure au sujet des tech­no­lo­gies morales. Il y a, je pense, un autre élé­ment. Le socio­logue Max Weber, s’il était encore vivant aujourd’hui, ana­ly­se­rait sans doute le déve­lop­pe­ment de l’IA à la guerre comme un nou­vel épi­sode d’un pro­ces­sus de ratio­na­li­sa­tion de la manière de faire la guerre. Ce pro­ces­sus a com­men­cé avec le déve­lop­pe­ment de ce que Chris­tophe Wasins­ki appelle « le sens com­mun stra­té­gique », c’est-à-dire une manière de se repré­sen­ter la guerre comme une acti­vi­té sociale qu’on pour­rait appré­hen­der de manière géo­mé­trique ou logique. Ce pro­ces­sus de ratio­na­li­sa­tion s’est accé­lé­ré avec la bureau­cra­ti­sa­tion des orga­ni­sa­tions mili­taires à par­tir du 17e-18e siècle, puis s’est pour­sui­vi de la fin du 19e au début du 20e siècle avec l’industrialisation et la pro­duc­tion d’armes per­met­tant de tuer depuis de grandes dis­tances. Tout le pro­ces­sus de ratio­na­li­sa­tion de la guerre intro­duit des inter­faces entre com­bat­tants ou entre bour­reaux et vic­times. Le concept socio­lo­gique qui décrit le mieux cela est celui de réi­fi­ca­tion, c’est-à-dire de trans­for­ma­tion d’un être humain en chose. L’IA par­ti­cipe cer­tai­ne­ment à ce grand mou­ve­ment de réification.

Les IA sont souvent présentées comme des technologies plus morales parce qu’elles ne feraient pas d’erreur ou seraient neutres. Est-ce que cela redouble la nécessité d’engager un débat sur leurs usages dans un cadre militaire ?

J’ai com­men­cé à répondre à cette ques­tion en mon­trant l’impact de cette tech­no­lo­gie sur la mor­ta­li­té des civils. Il convient d’aborder un autre point : l’hypothèse de l’automatisation totale. Nous n’y sommes pas encore : les IA comme Hab­so­ra se contentent de géné­rer des cibles que le com­man­de­ment décide, ou non, d’éliminer. Il serait cepen­dant pos­sible de fran­chir un nou­veau pas et de pro­duire des engins com­plè­te­ment auto­ma­ti­sés qui déci­de­raient aus­si de l’ouverture du feu. L’enjeu éthique et démo­cra­tique est criant et il faut dis­cu­ter de cette évo­lu­tion. C’est d’ailleurs un enjeu qui dépasse lar­ge­ment la ques­tion de la guerre. Tout indique qu’il serait sage de faire une pause dans le déve­lop­pe­ment des IA et de débattre de leur bien­fon­dé et de la régu­la­tion de leurs usages.

Ces discours sur l’automatisation de la guerre vont jusqu’au fantasme d’une guerre où on laisserait pour ainsi dire les robots se battre entre eux. Est-ce que c’est une tentative de faire oublier que la guerre continue de provoquer morts et souffrance ?

Cette his­toire de guerre sans mort ren­voie moins à la ques­tion des robots (ou de l’automatisation) qu’à celle de la « méca­ni­sa­tion ». On appelle ain­si le fait d’utiliser des engins – auto­ma­ti­sés ou non – qui per­mettent de faire la guerre en expo­sant le moins pos­sible ses propres troupes. Le degré maxi­mal de méca­ni­sa­tion est atteint avec les drones mais les bom­bar­de­ments à l’aide de chas­seurs-bom­bar­diers consti­tuent, aus­si, une manière ultra-méca­ni­sée de faire la guerre. En France par exemple, aucun pilote ou navi­ga­teur n’est mort en opé­ra­tion depuis les années 1970. Or, il se trouve qu’à volume de vio­lence et inten­tions égales, les guerres aériennes font plus de morts civils que les inter­ven­tions ter­restres (c’est une des rai­sons pour les­quelles on ne fait pas la guerre aux ter­ro­ristes avec des drones ou des chas­seurs-bom­bar­diers quand ceux-ci se trouvent à Paris ou Washing­ton). Cette plus forte léta­li­té des guerres aériennes a fait dire au poli­tiste Mar­tin Shaw que le fait d’y avoir recours conduit à « trans­fé­rer » les risques des com­bat­tants occi­den­taux vers les civils non-occi­den­taux. En d’autres termes, le fait de pour­suivre l’objectif de la guerre zéro mort de notre côté conduit à aug­men­ter le nombre de morts (civils) de l’autre côté. Vous évo­quez un scé­na­rio de guerre symé­trique où deux armées tota­le­ment méca­ni­sées (avec des robots) se feraient la guerre. Cela abou­ti­rait à un double trans­fert (symé­trique) de risques des com­bat­tants vers les civils.

Au-delà du discours marketing des marchands de ces technologies, la guerre high-tech menée grâce à l’IA est-elle synonyme d’efficacité sur le terrain militaire ?

On n’est qu’au début du déve­lop­pe­ment de cette tech­no­lo­gie mais il faut bien consta­ter que dans les deux guerres que nous avons sous les yeux – celle en Ukraine et celle à Gaza‑, le résul­tat n’est pas brillant. De nom­breuses armes que les pays de l’OTAN four­nissent à l’Ukraine com­portent des tech­no­lo­gies basées sur l’IA. Or ce qui semble déci­sif à l’heure actuelle, c’est plu­tôt la bonne vieille artille­rie. C’est parce que la Rus­sie pro­duit entre 5 à 10 fois plus de muni­tions d’artillerie que l’OTAN que l’Ukraine se trouve aujourd’hui en si mau­vaise pos­ture. L’autre exemple, c’est donc l’utilisation par Israël de Hab­so­ra. Si le but n’est pas de détruire Gaza mais de neu­tra­li­ser le Hamas, la valeur ajou­tée de l’IA semble là encore très faible. Après cinq mois de guerre ultra inten­sive, le Hamas résiste encore. Pour l’instant, l’IA ne fait donc pas signe de grands suc­cès mili­taires par rap­port aux « vieilles » manières de faire la guerre que sont d’un côté de l’usage mas­sif de l’artillerie et de l’autre la guérilla…


[ajouté le 24/04/2024]

Depuis la parution de cet entretien, une nouvelle enquête du magazine +972 décrit plus en détail le fonctionnement et les usages des IA par l’armée israélienne à Gaza. Est-ce que les informations de +972 confirment des pistes que vous évoquiez il y a quelques mois ? »

Oui, la deuxième enquête de +972 confirme toutes ces ana­lyses. Elle apporte aus­si une pré­ci­sion quant à la « valeur seuil des vic­times non-com­bat­tantes », à savoir le nombre de civils que l’ar­mée israé­lienne s’au­to­rise à tuer pour une cible mili­taire don­née. D’a­près les infor­ma­tions de +972, ce nombre était au début de la guerre de quinze civils pour un simple mili­tant du Hamas et de cent civils pour un cadre du Hamas.

Pour aller plus loin

Références citées dans l'entretien :

Mathias Delori, Ce que vaut une vie - Théorie de la violence libérale, Amsterdam, 2021.

Rob Nixon, "Of Land Mines and Cluster Bombs." Cultural Critique 67,  2007, pp 160-74.

Martin Shaw, The New Western Way of War -Risk Transfer and Its Crisis in Iraq, Polity Press, 2006.

Christophe Wasinski, Rendre la guerre possible - La construction du sens commun stratégique, Peter Lang, 2010.

Eyal Weizman, The Least of All Possible Evils: Humanitarian Violence from Arendt to Gaza, Verso, 2012.

Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

code