Retour à la table des matières
Droits et libertés, printemps / été 2025
Chronique Un monde sous surveillance
Génocide à Gaza, IA et complicité de Microsoft, Google et Amazon
Dominique Peschard, membre du comité Surveillance des populations, intelligence artificielle et droits humains, président de 2007 à 2015, Ligue des droits et libertés
Pour mener son entreprise de destruction de la bande de Gaza et le génocide du peuple palestinien, Israël a recouru massivement à l’intelligence artificielle (IA) et a bénéficié, à cet égard, du soutien informatique des géants étatsuniens Microsoft, Google et Amazon.

Une enquête menée par les médias israéliens +972 Magazine et Local Call a révélé en avril 2024 que l’armée d’occupation israélienne a développé un programme fondé sur l’IA, appelé Lavender, conçu pour générer automatiquement des cibles à bombarder à partir d’analyse de données massives1. Le programme analyse l’information colligée sur la presque totalité des 2,3 millions de Palestinien-ne-s de Gaza. La machine leur assigne ensuite une cote allant de 1 à 100 qui représente la probabilité qu’elles et ils soient des militant-e-s des mouvements de résistance palestinienne liés au Hamas ou au Palestinian Islamic Jihad (PIJ). Selon quatre sources qui se sont confiées à +972 Magazine et Local Call, Lavender aurait identifié jusqu’à 37 000 Palestinien-ne-s, d’être « militants du Hamas », la plupart de bas niveau, devant être assassinés.
Dès le début de l’offensive militaire contre Gaza, l’armée israélienne a décidé qu’il était acceptable de tuer 15 à 20 civil- e-s pour chaque personne considérée être un membre junior du Hamas qui était éliminé. Si la cible était considérée être un commandant senior, l’armée pouvait autoriser la mort de plus de 100 civil-e-s pour l’assassiner.
L’officier du renseignement de plus haut rang, identifié comme B dans l’enquête, a accepté d’informer +972 Magazine parce qu’il croyait que la politique de tuer les Palestinien-ne-s de manière disproportionnée mettait également en danger les Israélien-ne-s. Il a déclaré :
« À court terme, nous sommes plus en sécurité parce que nous affaiblissons le Hamas. Mais à long terme, je pense que nous sommes moins en sécurité. Je vois les familles endeuillées à Gaza — c’est à dire à peu près toutes — et comment cela incitera les gens à rejoindre le Hamas dans les dix prochaines années. Et comment il sera beaucoup plus facile pour le Hamas de les recruter2».
Selon B, le motif pour cette automatisation était la pression pour générer constamment de nouvelles cibles :
« On nous engueulait : « Donnez-nous de nouvelles cibles. » On tuait nos cibles très rapidement. À son sommet, le système a généré 37 000 cibles. Mais les chiffres changeaient tout le temps, parce que ça dépend où vous fixez le seuil pour définir un opérateur du Hamas. Quand la définition était élargie, la machine nous identifiait plein de gens de la défense civile et d’officiers de police sur lesquels il était dommage de gaspiller des bombes. Ils aident le Hamas à gouverner, mais ils ne mettent pas vraiment les soldats en danger».
Comme l’a dit une source critique de Lavender : « Quel doit être le lien de proximité d’une personne avec le Hamas pour être considérée comme affiliée à l’organisation»?
Selon les sources, quand il s’agissait de cibler des militant-e-s de bas niveau, l’armée préférait utiliser des dumb bombes [non-guidées] qui effondrent des édifices au complet sur leurs occupant-e-s. Comme l’a dit la source C à +972 Magazine : « Vous ne voulez pas utiliser des bombes dispendieuses sur des gens sans importance — ça coûte cher au pays et il a une pénurie de ces bombes».
De plus, la vérification humaine des cibles jugées de faible valeur par Lavender était minime. L’opérateur prenait seulement quelques secondes pour vérifier que la cible était un homme et que les pertes civiles tombaient présumément dans les limites fixées.
Les sources ont expliqué que le niveau sans précédent de pertes humaines provoqué par les bombardements résultait de la décision d’attaquer les cibles dans leur maison, où se trouvait leur famille. Du point de vue du renseignement, il était plus facile pour un système automatisé de repérer des domiciles. Le système de surveillance de l’armée à Gaza pouvait facilement faire le lien entre des individus et des domiciles. Ces programmes suivent des milliers d’individus simultanément, identifient quand ils sont chez eux et alertent alors le responsable du ciblage, qui désigne la maison à être bombardée. Un de ces logiciels de pistage s’appelle Where’s daddy (Où est papa)?
Toujours selon B : « À 5 heures du matin, l’aviation allait bombarder toutes les maisons que nous avions identifiées. Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une à une — tout était inséré dans un système automatisé et dès qu’un des individus désignés était chez lui, il devenait une cible et nous le bombardions, lui et sa maison».
Il n’y avait pas de procédure pour vérifier si Lavender avait désigné des civil-e-s pour cible. Selon B, lorsqu’une cible appartenant présumément au Hamas passait son téléphone à une connaissance, cette dernière était alors bombardée dans sa maison avec sa famille. C’était une erreur courante.
Dans le cas de commandants du Hamas, le niveau de destruction infligé pouvait être beaucoup plus élevé. B se souvient du bombardement visant Wisam Farhat, le commandant du bataillon Shuja’iya, où plus d’une centaine de civil-e-s ont été tué-e-s. Amjad Al-Sheikh, un Palestinien habitant le quartier, a perdu 11 membres de sa famille lors de ce bombardement le 2 décembre 2023. Comme il l’a raconté à
+972 Magazine et Local Call : « J’ai couru vers ma maison mais il n’y avait plus d’édifices. La rue était remplie de cris et de fumée. Des édifices résidentiels entiers étaient réduits à des décombres et des cratères. Des gens se sont mis à fouiller dans le ciment à mains nues, et moi aussi, pour tenter de retrouver les vestiges de ma maison».
Le rôle de Microsoft, Google et Amazon
Une enquête menée également par +972 Magazine et Local Call en collaboration avec The Guardian3 a révélé qu’une douzaine d’unités de l’armée israélienne avaient acheté les services de la plateforme infonuagique Azure de Microsoft, dont l’unité 8200 de renseignement d’élite, le pendant israélien de la National Security Agency (NSA) des États-Unis. Microsoft a également donné accès à GPT4 d’OpenAI à l’armée israélienne. Des sources au sein de l’Unité 8200 ont confirmé que des services similaires avaient été achetés à Amazon Web Services (AWS), la plateforme infonuagique d’Amazon.
À 5 heures du matin, l’aviation allait bombarder toutes les maisons que nous avions identifiées. Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une à une — tout était inséré dans un système automatisé et, dès qu’un des individus désignés était chez lui, il devenait une cible et nous le bombardions, lui et sa maison.
Les services d’Azure ont été utilisés par l’unité Ofek de l’armée de l’air qui gère la banque de cibles aériennes. Les documents indiquent que Microsoft Azure entretient également le système Rolling Stone utilisé par l’armée pour gérer le registre de la population de Cisjordanie et ses déplacements. En octobre 2023, après le lancement de l’offensive israélienne sur Gaza, le recours à Azure a bondi d’un facteur 7 et, en mars 2024, il était 64 fois plus élevé qu’avant l’assaut génocidaire contre Gaza.
Entre octobre 2023 et juin 2024, le ministère de la Défense d’Israël a dépensé 10 millions de dollars pour 19 000 heures de soutien génie de Microsoft. Un officier du renseignement de l’Unité 8200, qui a travaillé avec des employé-e-s d’Azure dans le développement d’un système de surveillance des Palestinien-ne-s, a déclaré à +972 Magazine et Local Call que les développeurs de la compagnie étaient tellement incorporés à l’Unité qu’il en parlait comme s’ils faisaient partie de l’armée.
Avant 2024, les conditions d’utilisation d’OpenAI excluaient les usages militaires, mais ces conditions ont été discrètement retirées alors que l’armée israélienne augmentait son utilisation de GPT4 dans son offensive contre Gaza.
Déjà en 2021, Google et Amazon avaient remporté une soumission de 1,2 milliard de dollars pour le stockage d’information des ministères et des services de sécurité dans leurs serveurs et pour l’utilisation de leurs services avancés.
Enfin, il faut souligner qu’Israël se veut un modèle et un chef de file mondial dans le domaine militaire, de l’IA et des technologies de surveillance des populations, où droits et libertés et droit international n’ont plus leur place. Comme l’a démontré Anthony Loewenstein, la Palestine est le laboratoire où Israël teste les nouvelles armes et technologies en situation réelle, afin qu’elles soient éprouvées au combat, étiquette qui facilite ensuite la promotion à l’exportation4.
Les Big Tech de la Silicon Valley, Palantir, Oracle et compagnie y gagnent aussi en réputation et en contrats. Les implications sont claires : les instruments testés en Palestine sur le peuple palestinien, tels que biométrie, drones, caméras omniprésentes et envahissantes, ciblage par l’IA, etc., risquent de se frayer un chemin vers tous les continents. Le slogan du Defense Tech Summit de Tel Aviv de décembre 2024 : What happens here goes global5.
- Yuval Abraham, ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza, +972 Magazine, 3 avril 2024.
En ligne : https://www.972mag.com/lavender-ai-israeli-army-gaza - Toutes les citations sont traduites de l’article publié par +972 Magazine.
- Yuval Abraham, Leaked documents expose deep ties between Israeli army and Microsoft, +972 Magazine, 23 janvier 2025. En ligne : https://www.972mag.com/microsoft-azure-openai-israeli-army-cloud/
- Al Jazeera, The Palestine Laboratory – EP 1, 30 janvier 2025. En ligne : https://www.aljazeera.com/program/featured-documentaries/2025/1/30/the-palestine-laboratory-ep-1
- Traduction libre : Ce qui se passe ici s’étend au monde entier. Sophia Goodfriend, With Gaza war and Trump’s return, Silicon Valley embraces a military renaissance, +972 Magazine, 31 décembre 2024. En ligne : https://972mag.com/gaza-war-trump-silicon-valley-military