Ceci n’est pas de la science-fiction. L'intelligence artificielle (IA) est désormais activement utilisée par l'armée israélienne dans les bombardements sur la bande de Gaza, marquant une réalité inquiétante selon une enquête conjointe des médias israéliens Local Call et +972. Le Jerusalem Post, pour sa part, rapportait en 2021 que Tsahal revendiquait avoir mené la première "guerre par IA", mentionnant plusieurs outils algorithmiques.
L’enquête réalisée met en lumière l'utilisation de plusieurs algorithmes, dont "Gospel" (ou "Habsora") et "Fire Factory", destinés à optimiser les opérations militaires. Alors que "Gospel" cible les zones les plus pertinentes pour une attaque dans un périmètre donné, "Fire Factory" optimise en temps réel les plans d'attaques des avions et des drones, en calculant la quantité de munitions nécessaire, en attribuant les cibles et en déterminant l'ordre optimal des attaques.
Selon les informations recueillies par les médias, l'utilisation de ces technologies explique le rythme intense des bombardements, avec Tsahal revendiquant avoir ciblé 15 000 objectifs au cours des 35 premiers jours de bombardement. L'algorithme "Gospel" aurait été particulièrement efficace, générant automatiquement des cibles à un rythme rapide, comme l'ont reconnu les forces armées israéliennes elles-mêmes dans un communiqué publié début novembre.
"Assasinat de masse"
Une enquête plus approfondie révèle des aspects troublants de cette utilisation de l'IA. Des entretiens avec des membres des services de renseignement israéliens indiquent une intention délibérée de causer un maximum de victimes civiles. Ces sources révèlent que le nombre de victimes civiles est préalablement calculé par les services de renseignements, et que le commandement israélien aurait même approuvé des attaques conduisant au massacre de centaines de civils palestiniens, justifiant cela par la possibilité d'éliminer des chefs militaires du Hamas.
Dans un article paru fin juin sur le média israélien YNet, l’ancien chef d’état-major de l’armée israélienne Aviv Kochavi expliquait que, lors des opérations militaires en 2021, la moitié des cibles suggérées par le logiciel avaient été attaquées. En raison de la fréquence à laquelle l'algorithme suggère de nouvelles cibles pour des bombardements, d'anciens officiers de renseignement, exprimant leur critique envers cette méthode dans une entrevue avec +972, comparent le processus à une "usine générant des opérations d'assassinat de masse".
"Rien n’arrive par hasard. Lorsqu’une fillette de 3 ans est tuée dans une maison à Gaza, c’est parce que quelqu’un, dans l’armée, a décidé que ce n’était pas grave qu’elle soit tuée – que c’était un prix qui valait la peine d’être payé pour frapper [une autre] cible. Nous ne sommes pas le Hamas. Ce ne sont pas des missiles aléatoires. Tout est intentionnel. Nous savons exactement combien de dommages collatéraux il y a dans chaque maison" , explique une autre source aux journalistes de +972.
Plusieurs des sources sollicitées par +972 et Local Call confirment une démarche visant délibérément à faire le maximum de victimes civiles. "Leur nombre est calculé et connu à l’avance par les services de renseignements. Ils savent ainsi exactement, avant même la mise en œuvre d’une attaque, combien de civils vont périr", précise Yuval Abraham, journaliste d’investigation israélien basé à Jérusalem.