L’IA au service de la mort à Gaza

La guerre, c’est compliqué. On ne tire pas n’importe où, n’importe comment et avec n’importe quelle arme. A fortiori lorsque l’ennemi est un groupe terroriste armé qui a choisi de se fondre dans la population civile. Depuis le début de l’offensive israélienne à Gaza, au lendemain de l’attaque barbare du Hamas en Israël le 7 octobre dernier, les autorités de Jérusalem ont toujours prétendu attaquer de façon à réduire les pertes civiles, allant jusqu’à aviser les populations, par tracts et par textos, d’un bombardement imminent. L’ampleur de la destruction de Gaza semblait jusqu’ici, à elle seule, démentir cette prétention.

Une enquête du +972 Magazine, formé de journalistes israéliens et palestiniens et dont la crédibilité est forte, a levé le voile sur l’ampleur des changements opérés par l’armée israélienne pour étendre le nombre de ses cibles — et des victimes collatérales — grâce à un nouvel allié, aussi puissant qu’implacable, soit l’intelligence artificielle (IA).

Les services de renseignement israéliens sont parmi les plus efficaces au monde et, sauf pour la gigantesque bourde de n’avoir pas prévu l’attaque du 7 octobre, ils accumulent sur les Palestiniens des informations précises massives versées dans un logiciel nommé Lavender (« lavande » en français). La plupart des 2,3 millions d’habitants de la bande de Gaza sont ainsi fichés. Lavender attribue à chacun une note de 1 à 100 quant à la probabilité qu’il soit un militant actif militairement. Parmi les variables : faire partie d’un groupe WhatsApp avec un militant connu du Hamas, changer de téléphone portable ou d’adresse régulièrement, l’identification lors de manifs, etc. Un individu présentant plusieurs de ces caractéristiques atteindra une note élevée et deviendra une cible potentielle d’assassinat.

« Nous ne pouvons pas traiter autant d’informations, écrivait en 2021 le gradé israélien qui a conçu Lavender. Peu importe le nombre de personnes que vous avez chargées de débusquer des personnes cibles pendant la guerre : vous ne parviendrez pas à toutes les identifier à temps. »

Maintenant, c’est fait. Au total, environ 37 000 personnes étaient considérées comme proches ou membres du Hamas au moment du 7 octobre. Lavender peut également indiquer le lieu où se trouvent les cibles à abattre, grâce à une surveillance constante.

Selon six officiers du renseignement, environ deux semaines après l’attaque du 7 octobre, l’armée a commencé à bombarder les cibles suggérées par Lavender. La décision fut méthodique. Les services de renseignement ont retiré de Lavender un échantillon de plusieurs centaines de personnes ciblées pour en contre-vérifier l’exactitude. L’IA avait raison dans 90 % des cas. Donc tort une fois sur 10. « À partir de ce moment, écrit +972, des sources assurent que, si Lavender décidait qu’un individu était un militant du Hamas, cela était essentiellement pris comme un ordre. »

« Nous permettre d’attaquer automatiquement [les agents juniors], c’est le Saint Graal, dit une des sources. Une fois que vous acceptez leur désignation automatique, la génération de cibles devient folle. » Une seule manoeuvre humaine, de 20 secondes, était nécessaire pour faire un dernier tri : ne choisir que les hommes.

Le système « Où est papa ? »

Des « règles d’engagement » encadrent toute action militaire professionnelle. Il s’agit notamment du niveau de victimes civiles qu’on est prêt à tolérer. Avant le 7 octobre, les Israéliens visaient des cibles en situation de combat, de transport ou de réunion. Il est évidemment plus facile de les localiser lorsqu’ils dorment, à la maison, avec femmes et enfants. Après le 7 octobre, la règle fut modifiée pour les attaquer à leur domicile. Un système automatisé a été conçu, froidement intitulé « Où est papa ? ».

Lavender fait une distinction entre des dirigeants du Hamas, les cibles privilégiées et des militants juniors, moins importants. Pour les dirigeants, l’armée envoie ses bombes intelligentes, précises, aptes à détruire des bâtiments entiers. Pour les militants juniors, on lance sur leurs immeubles des bombes dites « stupides ». « Vous ne voulez pas gaspiller des bombes coûteuses pour des personnes sans importance — cela coûte très cher au pays et il y a une pénurie [de ces bombes] », a raconté un des officiers.

Un autre témoigne : « C’était très surprenant qu’on nous demande de bombarder une maison pour tuer un fantassin du Hamas dont l’importance dans les combats était faible. » C’était quand même, ajoute-t-il, « plus éthique que les cibles que nous bombardions à des fins de simple “dissuasion” — des immeubles qui sont évacués et renversés juste pour provoquer la destruction. »

Chacun de ces changements nécessite de déterminer combien de vies civiles l’armée est prête à sacrifier pour faucher un militant junior. Avant le 7 octobre, la réponse était : aucune. Après : jusqu’à 15 ou 20. Pour un commandant, cela va désormais jusqu’à 100 civils sacrifiés. Un général américain, Peter Gersten, a déjà indiqué que, dans la guerre contre le groupe État islamique, si l’armée américaine jugeait qu’une frappe contre une cible allait tuer 15 personnes, elle devait avoir l’autorisation du chef du commandement central, tant c’était inhabituel.

L’armée israélienne nie catégoriquement ces informations et assure que, « dans tous les cas, un examen indépendant par un analyste [du renseignement] est requis, qui vérifie que les cibles identifiées sont des cibles légitimes ». Les sources citées par +972, en collaboration avec Local Call, ne sont pas les seules à mettre cette affirmation en doute. Le gouvernement Biden a plusieurs fois répété qu’à son avis, Israël ne prenait pas toutes les mesures nécessaires pour éviter les pertes civiles.

Une source explique que, lorsque le bassin de cibles était trop faible, il arrivait que les critères soient relâchés. « Nous subissions constamment des pressions : “Amenez-nous plus d’objectifs.” » Elle ajoute : « Il y a eu des moments où un agent du Hamas était défini de manière plus large. La machine a commencé à nous pointer toutes sortes de personnels de la protection civile, des policiers, sur lesquels il serait dommage de gaspiller des bombes. »

Puis il y a le fait que les cibles bougent davantage que leurs familles. « Il m’est arrivé plusieurs fois d’attaquer une maison, mais la personne n’était même pas chez elle, a déclaré une source. Le résultat est que vous avez tué une famille sans raison. »

L’objectif militaire légitime — détruire la capacité militaire du Hamas — est une chose, le sentiment de vengeance en est une autre. Toutes les sources interrogées par +972 affirment que les massacres du Hamas du 7 octobre et la prise d’otages ont grandement influencé la politique de tir et l’ampleur des dommages collatéraux. « Au début, témoigne l’une de ces sources, l’atmosphère était douloureuse et vindicative. » Elle a servi dans une salle d’opération ciblée. « Les règles étaient très clémentes. Ils ont démoli quatre bâtiments alors qu’ils savaient que la cible se trouvait dans l’un d’entre eux. C’était fou. »

https://www.ledevoir.com/opinion/chroniques/811776/chronique-ia-service-mort-gaza

PS :

Sur le même sujet :

https://www.revolutionpermanente.fr/Saint-Graal-genocidaire-comment-Israel-se-sert-de-l-IA-pour-cibler-des-milliers-de-victimes

A lire aussi...