Tiré de France Palestine Solidarité. Article initialement paru dans +972 Magazine. Photo : Octobre 2023, vue aérienne de bâtiments écroulés et de la destruction dans la bande de Gaza © UNRWA Photo/Ashraf Amra
En 2021, un livre intitulé L’équipe humain-machine, comment créer une synergie entre humain et intelligence artificielle qui va révolutionner le monde a été publié en anglais sous le pseudonyme de « Brigadier General Y.S. ». Dans cet ouvrage, l’auteur – un homme dont nous pouvons confirmer qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de « cibles » potentielles pour des frappes militaires dans le feu de l’action. Une telle technologie, écrit-il, résoudrait ce qu’il décrit comme un « goulot d’étranglement humain à la fois pour la localisation des nouvelles cibles et la prise de décision pour approuver les cibles ».
Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle (IA), connu sous le nom de « Lavender », dévoilé ici pour la première fois.
Selon six officiers du renseignement israélien, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon ces sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA « comme s’il s’agissait de décisions humaines ».
Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien, y compris les moins gradés, comme des cibles potentielles pour les bombardements. Ces sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a marqué jusqu’à 37 000 Palestiniens comme militants présumés – avec leurs maisons – en vue d’éventuelles frappes aériennes.
Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes d’objectifs de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix, ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des « erreurs » dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.
En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit, en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées. Lavender a marqué jusqu’à 37 000 Palestiniens comme militants présumés – avec leurs maisons – en vue d’éventuelles frappes aériennes.
D’autres systèmes automatisés, dont celui appelé « Where’s Daddy ? » (Où est papa ?), également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et commettre des attentats à la bombe lorsqu’ils étaient entrés dans les résidences de leur famille.
Le résultat, comme en témoignent ces sources, est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été éliminés par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’intelligence artificielle.
« Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou participaient à une activité militaire », a déclaré A., un officier de renseignement, à +972 et à Local Call. « Au contraire, l’armée israélienne les a bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations. »
La machine Lavender rejoint un autre système d’IA, « The Gospel », au sujet duquel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. La différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes – et les inscrit sur une liste de personnes à abattre.
En outre, selon les sources, lorsqu’il s’agissait de cibler de jeunes militants présumés marqués par Lavender, l’armée préférait n’utiliser que des missiles non guidés, communément appelés bombes « stupides » (par opposition aux bombes de précision « intelligentes »), qui peuvent détruire des bâtiments entiers sur leurs occupants et causer d’importantes pertes humaines. « Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance - cela coûte très cher au pays et il y a une pénurie [de ces bombes] », a déclaré C., l’un des officiers de renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de « centaines » de domiciles privés d’agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que « dommages collatéraux ».
Selon deux des sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun « dommage collatéral » lors de l’assassinat de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.
L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza.
– Tout d’abord, nous expliquons le fonctionnement de la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens à l’aide de l’IA.
– Ensuite, nous révélons le système « Where’s Daddy ? » (Où est papa ?), qui a suivi ces cibles et signalé à l’armée qu’elles entraient dans leurs maisons familiales.
– Troisièmement, nous décrivons comment des bombes « stupides » ont été choisies pour frapper ces maisons.
– Quatrièmement, nous expliquons comment l’armée a assoupli le nombre de civils pouvant être tués lors du bombardement d’une cible.
– Cinquièmement, nous expliquons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer.
– Sixièmement, nous montrons qu’à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les officiers militaires n’ont pas vérifié l’information en temps réel.
Étape 1 : Générer des cibles
« Une fois que l’on passe à l’automatisme, la génération des cibles devient folle »
Dans l’armée israélienne, l’expression « cible humaine » désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l’armée, pouvait être tué à son domicile privé, même s’il y avait des civils à proximité.
Des sources du renseignement ont déclaré à +972 et à Local Call qu’au cours des précédentes guerres conduites par Israël, étant donné qu’il s’agissait d’une manière « particulièrement brutale » de tuer quelqu’un – souvent en tuant toute une famille aux côtés de la cible – ces cibles humaines étaient marquées très soigneusement : seuls les commandants militaires de haut rang étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.
Mais après le 7 octobre, lorsque les militants du Hamas ont lancé un assaut meurtrier contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en enlevant 240, l’armée a adopté une approche radicalement différente, selon les sources. Dans le cadre de l’opération « Épées de fer », l’armée a décidé de désigner tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Cela a tout changé.
Cette nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Au cours des guerres précédentes, pour autoriser l’assassinat d’une seule cible humaine, un officier devait passer par un processus d’« incrimination » long et complexe : vérifier par recoupement les preuves que la personne était bien un membre haut placé de l’aile militaire du Hamas, découvrir où elle vivait, ses coordonnées, et enfin savoir quand elle était chez elle en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut rang, les services de renseignement pouvaient s’occuper individuellement du travail d’incrimination et de localisation.
Mais une fois que la liste a été élargie pour y inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a compris qu’elle devait s’appuyer sur des logiciels automatisés et sur l’intelligence artificielle. Le résultat, selon les sources, est que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté et que l’intelligence artificielle a fait le gros du travail à sa place.
Selon quatre des sources qui ont parlé à +972 et à Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a marqué quelque 37 000 Palestiniens comme étant des « militants du Hamas » présumés, des jeunes pour la plupart d’entre eux, en vue de leur assassinat (le porte-parole de l’armée israélienne a nié l’existence d’une telle liste dans une déclaration à +972 et à Local Call).
« Nous ne savions pas qui étaient les agents subalternes, parce qu’Israël ne les suivait pas régulièrement [avant la guerre] », a expliqué l’officier supérieur B. à +972 et à Local Call, expliquant ainsi la raison pour laquelle cette machine à cibler a été mise au point pour la guerre en cours. « Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que l’on passe à l’automatisation, la génération des cibles devient folle ».
Les sources ont déclaré que l’autorisation d’adopter automatiquement les listes d’objectifs de Lavender, qui n’avaient été utilisées auparavant que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel des services de renseignement a vérifié « manuellement » l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’intelligence artificielle.
Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. À partir de ce moment-là, ces sources ont déclaré que si Lavender décidait qu’un individu était un militant du Hamas, il leur était essentiellement demandé de traiter cela comme un ordre, sans qu’il soit nécessaire de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes de renseignement sur lesquelles elle est basée.
« À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions marquées », raconte B.. « Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une par une – nous avons tout mis dans des systèmes automatisés, et dès que l’une [des personnes marquées] était chez elle, elle devenait immédiatement une cible. Nous la bombardions, elle et sa maison ».
Les résultats meurtriers de ce relâchement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la Santé à Gaza, sur lesquelles l’armée israélienne s’appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre de morts à ce jour – au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit conclu le 24 novembre.
« Plus il y a d’informations et de variété, mieux c’est »
Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l’aile militaire du Hamas ou du Jihad islamique. Selon certaines sources, la machine attribue à presque chaque habitant de Gaza une note de 1 à 100, exprimant la probabilité qu’il s’agisse d’un militant.
Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du Jihad islamique, dont les informations ont été transmises à la machine en tant que données d’entraînement, puis à repérer ces mêmes caractéristiques – également appelées « traits » – au sein de la population générale, ont expliqué les sources. Une personne présentant plusieurs caractéristiques incriminantes différentes obtient une note élevée et devient ainsi automatiquement une cible potentielle pour un assassinat.
Dans L’équipe humain-machine, le livre cité au début de cet article, l’actuel commandant de l’unité 8 200 plaide en faveur d’un tel système sans citer Lavender nommément. (Le commandant lui-même n’est pas nommé, mais cinq sources au sein de l’unité 8 200 ont confirmé que le commandant était l’auteur de ce livre, comme l’a également rapporté Haaretz ).
Décrivant le personnel humain comme un « goulot d’étranglement » qui limite la capacité de l’armée au cours d’une opération militaire, le commandant se lamente : « Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes chargées de produire des objectifs pendant la guerre, il est toujours impossible de produire suffisamment d’objectifs par jour ».
Selon lui, la solution à ce problème réside dans l’intelligence artificielle. Le livre propose un petit guide pour construire une « machine à cibles », similaire à Lavender, basée sur l’intelligence artificielle et des algorithmes d’apprentissage automatique. Ce guide contient plusieurs exemples de « centaines et de milliers » de caractéristiques susceptibles d’augmenter la cote d’un individu, comme le fait de faire partie d’un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d’adresse.
« Plus il y a d’informations et plus elles sont variées, mieux c’est », écrit le commandant. « Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. Si, dans un premier temps, ce sont les humains qui sélectionnent ces caractéristiques, poursuit le commandant, au fil du temps, la machine en viendra à les identifier d’elle-même. » Selon lui, cela peut permettre aux armées de créer « des dizaines de milliers de cibles », la décision de les attaquer ou non restant du ressort de l’homme.
Ce livre n’est pas la seule source où un haut commandant israélien a fait allusion à l’existence de machines à cibles humaines comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, le « colonel Yoav », lors de la semaine de l’IA à l’université de Tel-Aviv en 2023, dont les médias israéliens ont parlé à l’époque.
Dans cette conférence, le commandant parle d’une nouvelle machine cible sophistiquée utilisée par l’armée israélienne, qui détecte les « personnes dangereuses » en se basant sur leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été entraînée. « Grâce à ce système, nous avons réussi à identifier les commandants des escadrons de missiles du Hamas », a déclaré le colonel Yoav lors de la conférence, en faisant référence à l’opération militaire israélienne de mai 2021 à Gaza, au cours de laquelle la machine a été utilisée pour la première fois.
Les diapositives de la présentation, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à remarquer leurs caractéristiques, puis elle évalue d’autres Palestiniens en fonction de leur degré de ressemblance avec les militants.
« Nous classons les résultats et déterminons le seuil [à partir duquel il convient d’attaquer une cible] », a déclaré le colonel Yoav lors de la conférence, soulignant qu’« en fin de compte, ce sont des personnes en chair et en os qui prennent les décisions. » « Dans le domaine de la défense, d’un point de vue éthique, nous insistons beaucoup sur ce point. Ces outils sont destinés à aider [les officiers de renseignement] à franchir leurs barrières. »
Dans la pratique, cependant, les sources qui ont utilisé Lavender au cours des derniers mois affirment que l’action humaine et la précision ont été remplacées par la création de cibles de masse et la létalité.
« Il n’y avait pas de politique “zéro erreur” »
B., un officier supérieur qui a utilisé Lavender, a expliqué à +972 et à Local Call que dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner de manière indépendante les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.
« Tout était statistique, tout était ordonné – c’était très sec », a déclaré B.. Il a noté que ce manque de supervision a été autorisé malgré des contrôles internes montrant que les calculs de Lavender n’étaient considérés comme exacts que dans 90 % des cas ; en d’autres termes, on savait à l’avance que 10 % des cibles humaines destinées à être assassinées n’étaient pas du tout des membres de l’aile militaire du Hamas.
Par exemple, des sources ont expliqué que la machine Lavender signalait parfois par erreur des individus dont les modes de communication étaient similaires à ceux d’agents connus du Hamas ou du Jihad islamique, notamment des policiers et des membres de la défense civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d’un agent, et des habitants de Gaza qui utilisaient un appareil ayant appartenu à un agent du Hamas.
« À quel point une personne doit-elle être proche du Hamas pour être [considérée par une machine d’IA comme] affiliée à l’organisation ? », s’est demandé une source critiquant l’inexactitude de Lavender. « Il s’agit d’une limite vague. Une personne qui ne reçoit pas de salaire du Hamas, mais qui l’aide pour toutes sortes de choses, est-elle un agent du Hamas ? Une personne qui a fait partie du Hamas dans le passé, mais qui n’y est plus aujourd’hui, est-elle un agent du Hamas ? Chacune de ces caractéristiques – des caractéristiques qu’une machine signalerait comme suspectes – est inexacte ».
Des problèmes similaires se posent en ce qui concerne la capacité des machines de ciblage à évaluer le téléphone utilisé par une personne désignée pour être assassinée. « En temps de guerre, les Palestiniens changent de téléphone en permanence », explique cette source. « Les gens perdent le contact avec leur famille, donnent leur téléphone à un ami ou à une épouse, ou le perdent. Il est impossible de se fier à 100 % au mécanisme automatique qui détermine quel numéro de téléphone appartient à qui ».
Selon les sources, l’armée savait que la supervision humaine minimale en place ne permettrait pas de découvrir ces failles. Il n’y avait pas de politique « zéro erreur ». « Les erreurs étaient traitées statistiquement », a déclaré une source qui a utilisé Lavender. « En raison de la portée et de l’ampleur du projet, le protocole était le suivant : même si l’on n’est pas sûr que la machine est bonne, on sait que statistiquement, elle est bonne. C’est pourquoi on l’utilise. »
« Elle a fait ses preuves », a déclaré B., la source principale. « Il y a quelque chose dans l’approche statistique qui vous fait respecter une certaine norme et un certain standard. Il y a eu un nombre illogique de [bombardements] dans cette opération. De mémoire, c’est sans précédent. Et je fais bien plus confiance à un mécanisme statistique qu’à un soldat qui a perdu un ami il y a deux jours. Tout le monde, y compris moi, a perdu des proches le 7 octobre. La machine l’a fait froidement. Et cela a facilité les choses. »
Une autre source du renseignement, qui a défendu le recours aux listes de suspects palestiniens établies par Lavender, a fait valoir qu’il valait la peine d’investir le temps d’un officier de renseignement uniquement pour vérifier les informations si la cible était un commandant de haut rang du Hamas. « Mais lorsqu’il s’agit d’un militant subalterne, il n’est pas souhaitable d’investir du temps et de la main-d’œuvre dans cette tâche », a-t-elle déclaré. « En temps de guerre, on n’a pas le temps d’incriminer chaque cible. On est donc prêt à prendre la marge d’erreur de l’utilisation de l’intelligence artificielle, à risquer des dommages collatéraux et la mort de civils, et à risquer d’attaquer par erreur, et à s’en accommoder ».
B. explique que la raison de cette automatisation est la volonté constante de créer davantage de cibles à assassiner. « Le jour où il n’y avait pas de cibles [dont l’évaluation des caractéristiques était suffisante pour autoriser une frappe], nous attaquions à un seuil plus bas. On nous mettait constamment la pression : "Apportez-nous plus de cibles". Ils nous ont vraiment crié dessus. Nous avons fini [par tuer] nos cibles très rapidement ».
Il a expliqué qu’en abaissant le seuil d’évaluation de Lavender, le système marquait plus de personnes comme cibles pour les frappes. « À son apogée, le système a réussi à générer 37 000 personnes comme cibles humaines potentielles », a déclaré B. « Mais les chiffres changeaient tout le temps, parce que cela dépendait de l’endroit où l’on plaçait la barre de ce qu’était un agent du Hamas. À certains moments, la définition d’un agent du Hamas était plus large, puis la machine a commencé à nous fournir toutes sortes d’agents de la défense civile et de la police, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ne mettent pas vraiment les soldats en danger ».
Une source qui a travaillé avec l’équipe militaire d’analyse des données qui a entrainé Lavender a déclaré que les données collectées auprès des employés du ministère de la sécurité intérieure dirigé par le Hamas, qu’il ne considère pas comme des militants, ont également été introduites dans la machine. « J’ai été gêné par le fait que lors de la formation de Lavender, le terme "agent du Hamas" a été utilisé de manière vague et que des personnes travaillant pour la défense civile ont été incluses dans l’ensemble de données de formation », a-t-il déclaré.
La source a ajouté que même si l’on pense que ces personnes méritent d’être tuées, le fait d’entraîner le système sur la base de leurs profils de communication rendait Lavender plus susceptible de sélectionner des civils par erreur lorsque ses algorithmes étaient appliqués à l’ensemble de la population. « Comme il s’agit d’un système automatique qui n’est pas géré manuellement par des humains, la signification de cette décision est dramatique : cela signifie que vous incluez de nombreuses personnes ayant un profil de communication civil en tant que cibles potentielles. »
« Nous avons seulement vérifié que la cible était un homme »
L’armée israélienne rejette catégoriquement ces affirmations. Dans une déclaration à +972 et Local Call, son porte-parole a nié l’usage de l’intelligence artificielle pour incriminer des cibles, affirmant qu’il s’agit simplement « d’outils auxiliaires qui aident les officiers dans le processus d’incrimination ». Le communiqué poursuit : « Dans tous les cas, un examen indépendant par un analyste [du renseignement] est nécessaire, qui vérifie que les cibles identifiées sont des cibles légitimes pour l’attaque, conformément aux conditions énoncées dans les directives de Tsahal et le droit international. »
Toutefois, des sources ont indiqué que le seul protocole de supervision humaine mis en place avant de bombarder les maisons de militants « juniors » présumés marqués par Lavender consistait à effectuer une seule vérification : s’assurer que la cible sélectionnée par l’IA était un homme plutôt qu’une femme. L’armée partait du principe que s’il s’agissait d’une femme, la machine avait probablement commis une erreur, car il n’y a pas de femmes dans les rangs des ailes militaires du Hamas et du Jihad islamique.
« Un être humain devait [vérifier la cible] pendant quelques secondes seulement », a déclaré B., expliquant que ce protocole a été adopté après avoir constaté que le système Lavender « avait raison » la plupart du temps. « Au début, nous faisions des vérifications pour nous assurer que la machine ne s’embrouillait pas. Mais à un moment donné, nous nous sommes fiés au système automatique et nous nous sommes contentés de vérifier que [la cible] était un homme – c’était suffisant. Il ne faut pas beaucoup de temps pour savoir si quelqu’un a une voix d’homme ou de femme ».
Pour effectuer la vérification homme/femme, B. affirme que dans la guerre actuelle, il « consacrerait 20 secondes à chaque cible à ce stade, [pour en faire] des dizaines par jour. Je n’avais aucune valeur ajoutée en tant qu’humain, si ce n’est d’être un tampon d’approbation. Cela permettait de gagner beaucoup de temps. Si [l’agent] apparaissait dans le mécanisme automatisé et que je vérifiais qu’il s’agissait d’un homme, j’avais l’autorisation de le bombarder, sous réserve d’un examen des dommages collatéraux ».
Dans la pratique, les sources ont déclaré que cela signifiait que pour les hommes civils marqués par erreur par Lavender, il n’y avait pas de mécanisme de supervision en place pour détecter l’erreur. Selon B., une erreur courante se produit « si la cible [du Hamas] donne [son téléphone] à son fils, à son frère aîné ou à un homme au hasard. Cette personne sera bombardée dans sa maison avec sa famille. Cela s’est souvent produit. C’est la plupart des erreurs causées par Lavender », a déclaré B.
Étape 2 : Relier les cibles aux domiciles familiaux
L’étape suivante de la procédure d’assassinat de l’armée israélienne consiste à déterminer où attaquer les cibles générées par Lavender.
Dans une déclaration à +972 et à Local Call, le porte-parole de l’armée israélienne a affirmé, en réponse à cet article, que « le Hamas place ses agents et ses moyens militaires au cœur de la population civile, utilise systématiquement la population civile comme bouclier humain et mène des combats à l’intérieur de structures civiles, y compris des sites sensibles tels que des hôpitaux, des mosquées, des écoles et des installations de l’ONU. Les Forces de défense israélienne sont liées par le droit international et agissent conformément à celui-ci, en dirigeant leurs attaques uniquement contre des cibles militaires et des agents militaires ».
Les six sources avec lesquelles nous nous sommes entretenus ont fait écho à ces propos dans une certaine mesure, affirmant que le vaste réseau de tunnels du Hamas passe délibérément sous les hôpitaux et les écoles, que les militants du Hamas utilisent des ambulances pour se déplacer et qu’un nombre incalculable de moyens militaires ont été placés à proximité de bâtiments civils.
Les sources affirment que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas – une caractérisation qui, selon les groupes de défense des droits de l’homme, élude la responsabilité d’Israël dans l’apparition de ces victimes.
Toutefois, contrairement aux déclarations officielles de l’armée israélienne, les sources ont expliqué que l’une des principales raisons du nombre sans précédent de victimes des bombardements israéliens actuels est le fait que l’armée a systématiquement attaqué les cibles dans leurs maisons privées, avec leurs familles – en partie parce qu’il était plus facile, du point de vue du renseignement, de marquer les maisons familiales à l’aide de systèmes automatisés.
En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d’agents du Hamas engagés dans des activités militaires depuis des zones civiles, dans le cas des frappes d’assassinat systématiques, l’armée a régulièrement fait le choix actif de bombarder des militants présumés lorsqu’ils se trouvaient à l’intérieur de maisons civiles où aucune activité militaire n’avait lieu. Ce choix, ont-ils déclaré, est le reflet de la manière dont le système israélien de surveillance de masse à Gaza est conçu.
Les sources ont déclaré à +972 et à Local Call que, puisque chaque habitant de Gaza avait une maison privée à laquelle il pouvait être associé, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement « relier » les individus aux maisons familiales. Afin d’identifier en temps réel le moment où les agents entrent dans leurs maisons, divers logiciels automatiques supplémentaires ont été développés.
Ces programmes suivent des milliers d’individus simultanément, identifient le moment où ils sont chez eux et envoient une alerte automatique à l’officier chargé du ciblage, qui marque alors la maison pour le bombardement. L’un de ces logiciels, révélé ici pour la première fois, s’appelle « Where’s Daddy ? » (Où est papa ?).
« Vous entrez des centaines [de cibles] dans le système et vous attendez de voir qui vous pouvez tuer », a déclaré une source connaissant le système. « C’est ce qu’on appelle la chasse au large : vous copiez-collez les listes produites par le système de ciblage. »
La preuve de cette politique est également évidente dans les données : au cours du premier mois de la guerre, plus de la moitié des victimes – 6 120 personnes – appartenaient à 1 340 familles, dont beaucoup ont été complètement anéanties à l’intérieur de leur maison, selon les chiffres de l’ONU. La proportion de familles entières bombardées dans leurs maisons dans la guerre actuelle est beaucoup plus élevée que lors de l’opération israélienne de 2014 à Gaza, ce qui confirme l’importance de cette politique.
Une autre source a déclaré qu’à chaque fois que le rythme des assassinats diminuait, d’autres cibles étaient ajoutées à des systèmes tels que « Where’s Daddy ? » pour localiser les individus qui entraient chez eux et pouvaient donc être bombardés. Elle a ajouté que la décision de placer des personnes dans les systèmes de repérage pouvait être prise par des officiers de rang relativement bas dans la hiérarchie militaire.
« Un jour, de mon propre chef, j’ai ajouté quelque 1 200 nouvelles cibles au système [de repérage], parce que le nombre d’attaques [que nous menions] diminuait », a déclaré cette source. « Cela me paraissait logique. Rétrospectivement, cela semble être une décision sérieuse que j’ai prise. Et de telles décisions n’ont pas été prises à des niveaux élevés ».
Les sources ont indiqué qu’au cours des deux premières semaines de la guerre, « plusieurs milliers » de cibles ont été initialement entrées dans des programmes de localisation tels que « Where’s Daddy ? ». Il s’agissait notamment de tous les membres de l’unité d’élite des forces spéciales du Hamas, la Nukhba, de tous les agents antichars du Hamas et de toute personne ayant pénétré en Israël le 7 octobre. Mais très vite, la liste des personnes à abattre s’est considérablement allongée.
« À la fin, il s’agissait de tout le monde [marqué par Lavender] », a expliqué une source. « Des dizaines de milliers. Cela s’est produit quelques semaines plus tard, lorsque les brigades [israéliennes] sont entrées dans Gaza et qu’il y avait déjà moins de personnes non impliquées [c’est-à-dire de civils] dans les zones du nord ». Selon cette source, même certains mineurs ont été désignés par Lavender comme des cibles à bombarder. « Normalement, les agents ont plus de 17 ans, mais ce n’était pas une condition. »
Lavender et des systèmes comme « Where’s Daddy ? » ont donc été combinés avec un effet mortel, tuant des familles entières, selon certaines sources. En ajoutant un nom figurant sur les listes générées par Lavender au système de localisation des maisons « Where’s Daddy ? », a expliqué A., la personne marquée était placée sous surveillance permanente et pouvait être attaquée dès qu’elle mettait le pied chez elle, ce qui faisait s’effondrer la maison sur toutes les personnes qui s’y trouvaient.
« Disons que vous calculez [qu’il y a un] [agent du Hamas] et 10 [civils dans la maison], a déclaré A.. En général, ces dix personnes sont des femmes et des enfants. De manière absurde, il s’avère que la plupart des personnes que vous avez tuées étaient des femmes et des enfants ».
Étape 3 : Le choix de l’arme
« Nous menions généralement nos attaques à l’aide de "bombes stupides" »Une fois que Lavender a désigné une cible à assassiner, que le personnel de l’armée a vérifié qu’il s’agit bien d’un homme et qu’un logiciel de suivi a localisé la cible à son domicile, l’étape suivante consiste à choisir la munition avec laquelle on va la bombarder.
En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza étaient des bombes dites « stupides », connues pour causer davantage de dommages collatéraux que les bombes guidées.
En réponse à l’article de CNN, un porte-parole de l’armée cité dans l’article a déclaré : « En tant qu’armée attachée au droit international et à un code de conduite moral, nous consacrons de vastes ressources à minimiser les dommages causés aux civils que le Hamas a contraints à jouer le rôle de boucliers humains. Notre guerre est contre le Hamas, pas contre la population de Gaza ».
Trois sources des services de renseignement ont cependant déclaré à +972 et à Local Call que les agents subalternes marqués par Lavender n’ont été assassinés qu’avec des bombes stupides, afin d’économiser des armements plus coûteux. L’une des sources a expliqué que l’armée ne frappait pas une cible subalterne si elle vivait dans un immeuble de grande hauteur, parce qu’elle ne voulait pas dépenser une « bombe au sol » plus précise et plus chère (avec des effets collatéraux plus limités) pour la tuer. En revanche, si une cible de rang inférieur vivait dans un immeuble de quelques étages seulement, l’armée était autorisée à la tuer, ainsi que tous les habitants de l’immeuble, à l’aide d’une bombe muette.
« C’était comme ça pour toutes les cibles juniors », témoigne C., qui a utilisé divers programmes automatisés dans la guerre actuelle. « La seule question était de savoir s’il était possible d’attaquer le bâtiment en limitant les dommages collatéraux. En effet, nous menions généralement les attaques avec des bombes stupides, ce qui signifiait détruire littéralement toute la maison et ses occupants. Mais même si une attaque est évitée, on s’en fiche, on passe immédiatement à la cible suivante. Grâce au système, les cibles ne s’arrêtent jamais. Il y en a encore 36 000 qui attendent ».
Étape 4 : Autoriser les pertes civiles
« Nous avons attaqué presque sans tenir compte des dommages collatéraux »
Une source a déclaré que lors de l’attaque d’agents subalternes, y compris ceux marqués par des systèmes d’intelligence artificielle comme Lavender, le nombre de civils qu’ils étaient autorisés à tuer à côté de chaque cible était fixé, pendant les premières semaines de la guerre, à 20 au maximum.
Selon une autre source, ce nombre aurait été fixé à 15. Ces « degrés de dommages collatéraux », comme les militaires les appellent, ont été appliqués de manière générale à tous les militants juniors présumés, selon les sources, indépendamment de leur rang, de leur importance militaire et de leur âge, et sans examen spécifique au cas par cas pour évaluer l’avantage militaire de les assassiner par rapport aux dommages attendus pour les civils.
Selon A., qui était officier dans une salle d’opération cible pendant la guerre actuelle, le département du droit international de l’armée n’a jamais auparavant donné une telle « approbation générale » pour un degré de dommages collatéraux aussi élevé. « Ce n’est pas seulement que vous pouvez tuer toute personne qui est un soldat du Hamas, ce qui est clairement autorisé et légitime en termes de droit international », a déclaré A.. « Mais ils vous disent directement : Vous êtes autorisés à les tuer en même temps que de nombreux civils. »
« Chaque personne ayant porté un uniforme du Hamas au cours de l’année ou des deux dernières années pouvait être bombardée avec 20 [civils tués] comme dommages collatéraux, même sans autorisation spéciale », a poursuivi A.. « Dans la pratique, le principe de proportionnalité n’existait pas. »
Selon A., cette politique a été appliquée pendant la majeure partie de la période où il a servi. Ce n’est que plus tard que l’armée a abaissé le niveau des dommages collatéraux. « Dans ce calcul, il peut s’agir de 20 enfants pour un agent subalterne… Ce n’était vraiment pas le cas dans le passé », explique A.. Interrogé sur la logique sécuritaire qui sous-tend cette politique, A. a répondu : « La létalité ».
Le degré de dommages collatéraux prédéterminé et fixe a contribué à accélérer la création massive de cibles à l’aide de la machine Lavender, selon les sources, car cela permettait de gagner du temps. B. a affirmé que le nombre de civils qu’ils étaient autorisés à tuer par militant junior présumé marqué par l’IA au cours de la première semaine de la guerre était de quinze, mais que ce nombre « augmentait et diminuait » au fil du temps.
« Au début, nous avons attaqué presque sans tenir compte des dommages collatéraux », a déclaré B. à propos de la première semaine qui a suivi le 7 octobre. « En pratique, on ne comptait pas vraiment les gens [dans chaque maison bombardée], parce qu’on ne pouvait pas vraiment savoir s’ils étaient chez eux ou non. Au bout d’une semaine, les restrictions sur les dommages collatéraux ont commencé. Le nombre est passé [de 15] à cinq, ce qui a rendu nos attaques très difficiles, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis ils ont à nouveau augmenté ce nombre. »
« Nous savions que nous allions tuer plus de 100 civils »
Des sources ont déclaré à +972 et à Local Call que maintenant, en partie à cause de la pression américaine, l’armée israélienne ne génère plus en masse des cibles humaines subalternes à bombarder dans les maisons civiles. Le fait que la plupart des maisons de la bande de Gaza aient déjà été détruites ou endommagées, et que la quasi-totalité de la population ait été déplacée, a également empêché l’armée de s’appuyer sur des bases de données de renseignements et des programmes automatisés de localisation des maisons.
E. a affirmé que les bombardements massifs des militants juniors n’ont eu lieu que pendant la première ou les deux premières semaines de la guerre, et qu’ils ont ensuite été interrompus principalement pour ne pas gaspiller les bombes. « Il existe une économie des munitions », a déclaré E.. « Ils ont toujours eu peur qu’il y ait [une guerre] dans l’arène nord [avec le Hezbollah au Liban]. Ils ne s’attaquent plus du tout à ce genre de personnes [de rang inférieur] ».
Cependant, les frappes aériennes contre les commandants de haut rang du Hamas se poursuivent, et des sources ont déclaré que pour ces attaques, l’armée autorise le meurtre de « centaines » de civils par cible – une politique officielle pour laquelle il n’y a pas de précédent historique en Israël, ni même dans les récentes opérations militaires américaines.
« Lors du bombardement du commandant du bataillon Shuja’iya, nous savions que nous allions tuer plus de 100 civils », a rappelé B. à propos d’un bombardement du 2 décembre qui, selon le porte-parole de l’armée israélienne, visait à assassiner Wisam Farhat. « Pour moi, psychologiquement, c’était inhabituel. Plus de 100 civils, c’est une ligne rouge à ne pas franchir. »
Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués lors de ce bombardement. Habitant de Shuja’iya, à l’est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu’il a entendu cinq explosions qui ont brisé les vitres.
« J’ai couru vers la maison de ma famille, mais il n’y avait plus d’immeubles », a déclaré M. Al-Sheikh à +972 et à Local Call. « La rue était remplie de cris et de fumée. Des pâtés de maisons entiers se sont transformés en montagnes de décombres et en fosses profondes. Les gens ont commencé à chercher dans le ciment, avec leurs mains, et j’ai fait de même, à la recherche de traces de la maison de ma famille. »
La femme et la petite fille d’Al-Sheikh ont survécu – protégées des décombres par une armoire qui leur est tombée dessus – mais il a retrouvé 11 autres membres de sa famille, dont ses sœurs, ses frères et leurs jeunes enfants, morts sous les décombres. Selon l’organisation de défense des droits de l’homme B’Tselem, les bombardements de ce jour-là ont détruit des dizaines de bâtiments, tués des dizaines de personnes et en ont enseveli des centaines sous les ruines de leurs maisons.
« Des familles entières ont été tuées »
Des sources des services de renseignement ont déclaré à +972 et à Local Call qu’ils avaient participé à des frappes encore plus meurtrières. Afin d’assassiner Ayman Nofal, le commandant de la brigade centrale de Gaza du Hamas, une source a déclaré que l’armée avait autorisé le meurtre d’environ 300 civils, détruisant plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Bureij le 17 octobre, sur la base d’un repérage imprécis de Nofal. Des images satellite et des vidéos de la scène montrent la destruction de plusieurs grands immeubles d’habitation à plusieurs étages.
« Entre 16 et 18 maisons ont été détruites lors de l’attaque », a déclaré Amro Al-Khatib, un résident du camp, à +972 et à Local Call. « Nous ne pouvions pas distinguer un appartement d’un autre – ils ont tous été mélangés dans les décombres, et nous avons trouvé des parties de corps humains partout ».
Al-Khatib se souvient qu’une cinquantaine de cadavres ont été retirés des décombres et qu’environ 200 personnes ont été blessées, dont beaucoup grièvement. Mais ce n’était que le premier jour. Les résidents du camp ont passé cinq jours à sortir les morts et les blessés.
Nael Al-Bahisi, ambulancier, a été l’un des premiers à arriver sur les lieux. Il a dénombré entre 50 et 70 victimes ce premier jour. « À un moment donné, nous avons compris que la cible de la frappe était le commandant du Hamas Ayman Nofal », a-t-il déclaré à +972 et à Local Call. « Ils l’ont tué, ainsi que de nombreuses personnes qui ne savaient pas qu’il était là. Des familles entières avec des enfants ont été tuées. »
Une autre source du renseignement a déclaré à +972 et à Local Call que l’armée avait détruit une tour à Rafah à la mi-décembre, tuant « des dizaines de civils », afin d’essayer de tuer Mohammed Shabaneh, le commandant de la brigade du Hamas à Rafah (on ne sait pas s’il a été tué ou non lors de l’attaque). Selon cette source, les hauts commandants se cachent souvent dans des tunnels qui passent sous des bâtiments civils, et le choix de les assassiner par une frappe aérienne tue donc nécessairement des civils.
« La plupart des blessés étaient des enfants », a déclaré Wael Al-Sir, 55 ans, qui a assisté à la frappe de grande envergure que certains habitants de Gaza considèrent comme une tentative d’assassinat. Il a déclaré à +972 et à Local Call que le bombardement du 20 décembre a détruit un « bloc résidentiel entier » et tué au moins 10 enfants.
« Il y avait une politique totalement permissive concernant les victimes des opérations [de bombardement] – tellement permissive qu’à mon avis, il y avait un élément de vengeance », a affirmé D., une source des services de renseignement. « L’élément central était l’assassinat de hauts responsables [du Hamas et du Jihad islamique] pour lesquels ils étaient prêts à tuer des centaines de civils. Nous avions un calcul : combien pour un commandant de brigade, combien pour un commandant de bataillon, etc. »
« Il y avait des règles, mais elles étaient très indulgentes », a déclaré E., une autre source du renseignement. « Nous avons tué des gens avec des dommages collatéraux à deux chiffres, voire à trois chiffres. Ce sont des choses qui ne s’étaient jamais produites auparavant ».
Un taux aussi élevé de « dommages collatéraux » est exceptionnel non seulement par rapport à ce que l’armée israélienne jugeait auparavant acceptable, mais aussi par rapport aux guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.
Le général Peter Gersten, commandant adjoint des opérations et du renseignement dans l’opération de lutte contre l’Etat islamique en Irak et en Syrie, a déclaré à un magazine de défense américain en 2021 qu’une attaque avec des dommages collatéraux de 15 civils s’écartait de la procédure ; pour la mener à bien, il avait dû obtenir une autorisation spéciale du chef du Commandement central des États-Unis, le général Lloyd Austin, qui est aujourd’hui secrétaire à la Défense.
« Dans le cas d’Oussama Ben Laden, la NCV (Non-Combatant Casualty Value) était de 30, mais dans le cas d’un commandant de rang inférieur, la NCV était généralement de zéro », a expliqué M. Gersten. « Nous sommes restés à zéro pendant très longtemps. »
« On nous disait : "Faites tout ce que vous pouvez, bombardez" »
Toutes les sources interrogées dans le cadre de cette enquête ont déclaré que les massacres perpétrés par le Hamas le 7 octobre et l’enlèvement d’otages avaient fortement influencé la politique de l’armée en matière de tirs et de degrés de dommages collatéraux.
« Au début, l’atmosphère était pénible et vindicative », a déclaré B., qui a été enrôlé dans l’armée immédiatement après le 7 octobre et a servi dans une salle d’opération. « Les règles étaient très souples. Ils ont détruit quatre bâtiments alors qu’ils savaient que la cible se trouvait dans l’un d’entre eux. C’était de la folie. »
« Il y avait une dissonance : d’une part, les gens ici étaient frustrés que nous n’attaquions pas assez », poursuit B.. « D’autre part, à la fin de la journée, on constate qu’un millier d’habitants de Gaza sont morts, la plupart d’entre eux étant des civils. »
« L’hystérie régnait dans les rangs des professionnels », affirme D., qui a également été incorporé immédiatement après le 7 octobre. « Ils ne savaient pas du tout comment réagir. La seule chose qu’ils savaient faire était de commencer à bombarder comme des fous pour essayer de démanteler les capacités du Hamas. »
D. a souligné qu’on ne leur avait pas dit explicitement que l’objectif de l’armée était la « vengeance », mais a exprimé que « dès que chaque cible liée au Hamas devient légitime, et que presque tous les dommages collatéraux sont approuvés, il est clair que des milliers de personnes vont être tuées. Même si officiellement chaque cible est liée au Hamas, lorsque la politique est si permissive, elle perd tout son sens ».
A. a également utilisé le mot « vengeance » pour décrire l’atmosphère qui régnait au sein de l’armée après le 7 octobre. « Personne n’a pensé à ce qu’il faudrait faire après, une fois la guerre terminée, ni à la façon dont il serait possible de vivre à Gaza et à ce qu’ils en feraient », a déclaré A.. « On nous a dit : maintenant, il faut foutre en l’air le Hamas, quel qu’en soit le prix. Tout ce que vous pouvez, vous le bombardez ».
B., la source principale du renseignement, a déclaré qu’avec le recul, il pense que cette politique « disproportionnée » consistant à tuer des Palestiniens à Gaza met également en danger les Israéliens, et que c’est l’une des raisons pour lesquelles il a décidé de se prêter à l’exercice de l’interview.
« À court terme, nous sommes plus en sécurité, car nous avons blessé le Hamas. Mais je pense que nous sommes moins en sécurité à long terme. Je vois comment toutes les familles endeuillées à Gaza – c’est-à-dire presque tout le monde – motiveront les gens à rejoindre le Hamas dans dix ans. Et il sera beaucoup plus facile pour [le Hamas] de les recruter ».
Dans une déclaration à +972 et à Local Call, l’armée israélienne a démenti une grande partie de ce que les sources nous ont dit, affirmant que « chaque cible est examinée individuellement, tandis qu’une évaluation individuelle est faite de l’avantage militaire et des dommages collatéraux attendus de l’attaque… Les Forces de défense israéliennes ne mènent pas d’attaques lorsque les dommages collatéraux attendus de l’attaque sont excessifs par rapport à l’avantage militaire ».
Étape 5 : Calcul des dommages collatéraux
« Le modèle n’était pas lié à la réalité »
Selon les sources du renseignement, le calcul par l’armée israélienne du nombre de civils susceptibles d’être tués dans chaque maison située à côté d’une cible – une procédure examinée dans une enquête précédente de +972 et Local Call – a été effectué à l’aide d’outils automatiques et imprécis.
Lors des guerres précédentes, les services de renseignement passaient beaucoup de temps à vérifier le nombre de personnes présentes dans une maison destinée à être bombardée, le nombre de civils susceptibles d’être tués étant répertorié dans un « fichier cible ». Après le 7 octobre, cependant, cette vérification minutieuse a été largement abandonnée au profit de l’automatisation.
En octobre, le New York Times a fait état d’un système exploité à partir d’une base spéciale dans le sud d’Israël, qui recueille des informations à partir de téléphones portables dans la bande de Gaza et fournit à l’armée une estimation en temps réel du nombre de Palestiniens qui ont fui le nord de la bande de Gaza vers le sud.
Le général de brigade Udi Ben Muha a déclaré au New York Times : « Ce n’est pas un système parfait à 100 %, mais il vous donne les informations dont vous avez besoin pour prendre une décision ». Le système fonctionne par couleurs : le rouge indique les zones où il y a beaucoup de monde, tandis que le vert et le jaune indiquent les zones qui ont été relativement débarrassées de leurs habitants.
Les sources qui ont parlé à +972 et à Local Call ont décrit un système similaire de calcul des dommages collatéraux, utilisé pour décider de bombarder ou non un bâtiment à Gaza. Elles ont indiqué que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre – en évaluant la taille du bâtiment et en examinant sa liste de résidents – puis réduisait ces chiffres en fonction de la proportion de résidents censés avoir évacué le quartier.
Par exemple, si l’armée estime que la moitié des habitants d’un quartier sont partis, le programme comptabilise une maison qui compte habituellement 10 habitants comme une maison contenant cinq personnes. Pour gagner du temps, l’armée n’a pas surveillé les maisons pour vérifier combien de personnes y vivaient réellement, comme elle l’avait fait lors d’opérations précédentes, afin de savoir si l’estimation du programme était effectivement exacte.
« Ce modèle n’était pas lié à la réalité », a déclaré l’une des sources. « Il n’y avait aucun lien entre les personnes qui vivaient dans la maison aujourd’hui, pendant la guerre, et celles qui étaient répertoriées comme vivant dans la maison avant la guerre. Il nous est arrivé de bombarder une maison sans savoir qu’il y avait plusieurs familles à l’intérieur, qui se cachaient ensemble. »
Selon cette source, bien que l’armée sache que de telles erreurs peuvent se produire, ce modèle imprécis a tout de même été adopté, parce qu’il était plus rapide. Ainsi, selon cette source, « le calcul des dommages collatéraux était complètement automatique et statistique » – produisant même des chiffres qui n’étaient pas des nombres entiers.
Étape 6 : Bombarder la maison d’une famille
« Vous avez tué une famille sans raison »
Les sources qui ont parlé à +972 et à Local Call ont expliqué qu’il y avait parfois un décalage important entre le moment où les systèmes de repérage comme Where’s Daddy ? alertaient un officier qu’une cible était entrée dans sa maison, et le bombardement lui-même – ce qui a conduit à la mort de familles entières, même sans atteindre la cible de l’armée. « Il m’est arrivé plusieurs fois d’attaquer une maison, mais la personne n’était même pas chez elle », a déclaré une source. « Le résultat est que vous avez tué une famille sans raison. »
Trois sources du renseignement ont déclaré à +972 et à Local Call qu’elles avaient été témoins d’un incident au cours duquel l’armée israélienne avait bombardé la maison privée d’une famille, et qu’il s’était avéré par la suite que la cible visée par l’assassinat n’était même pas à l’intérieur de la maison, étant donné qu’aucune vérification supplémentaire n’avait été effectuée en temps réel.
« Parfois, [la cible] était chez elle plus tôt, puis le soir, elle est allée dormir ailleurs, par exemple dans un sous-sol, et vous ne le saviez pas », a déclaré l’une des sources. Il y a des moments où l’on vérifie deux fois l’emplacement, et d’autres où l’on se dit simplement : « D’accord, il était dans la maison au cours des dernières heures, alors vous pouvez simplement bombarder ».
Une autre source a décrit un incident similaire qui l’a affecté et l’a incité à accepter d’être interrogé dans le cadre de cette enquête. « Nous avons compris que la cible était chez elle à 20 heures. Finalement, l’armée de l’air a bombardé la maison à 3 heures du matin. Il y avait deux autres familles avec des enfants dans le bâtiment que nous avons bombardé ».
Lors des précédentes guerres à Gaza, après l’assassinat de cibles humaines, les services de renseignement israéliens appliquaient des procédures d’évaluation des dommages causés par les bombes (BDA) – une vérification de routine après la frappe pour voir si le commandant en chef avait été tué et combien de civils avaient été tués en même temps que lui.
Comme l’a révélé une précédente enquête sur le +972 et Local call, ces procédures impliquaient l’écoute des appels téléphoniques des parents ayant perdu un être cher. Dans la guerre actuelle, cependant, au moins en ce qui concerne les militants subalternes marqués à l’aide de l’IA, les sources affirment que cette procédure a été supprimée afin de gagner du temps.
Les sources ont déclaré qu’elles ne savaient pas combien de civils avaient été effectivement tués dans chaque frappe, et pour les militants présumés de bas rang du Hamas et du Jihad islamique marqués par l’IA, elles ne savaient même pas si la cible elle-même avait été tuée.
« Vous ne savez pas exactement combien vous avez tué, ni qui vous avez tué », a déclaré une source des services de renseignement à Local Call dans le cadre d’une précédente enquête publiée en janvier. « Ce n’est que lorsqu’il s’agit de hauts responsables du Hamas que vous suivez la procédure du BDA. Dans les autres cas, vous ne vous en souciez pas. Vous recevez un rapport de l’armée de l’air indiquant si le bâtiment a explosé, et c’est tout. Vous n’avez aucune idée de l’ampleur des dommages collatéraux ; vous passez immédiatement à la cible suivante. L’accent était mis sur la création d’autant de cibles que possible, aussi rapidement que possible ».
Mais alors que l’armée israélienne peut tourner la page de chaque frappe sans s’attarder sur le nombre de victimes, Amjad Al-Sheikh, le résident de Shuja’iya qui a perdu 11 membres de sa famille dans le bombardement du 2 décembre, a déclaré que lui et ses voisins sont toujours à la recherche de cadavres.
« Jusqu’à présent, il y a des corps sous les décombres », a-t-il déclaré. « Quatorze bâtiments résidentiels ont été bombardés avec leurs habitants à l’intérieur. Certains de mes proches et de mes voisins sont toujours ensevelis. »
Traduction : AFPS
Abonnez-vous à notre lettre hebdomadaire - pour recevoir tous les liens permettant d’avoir accès aux articles publiés chaque semaine.
Chaque semaine, PTAG publie de nouveaux articles dans ses différentes rubriques (économie, environnement, politique, mouvements sociaux, actualités internationales ...). La lettre hebdomadaire vous fait parvenir par courriel les liens qui vous permettent d’avoir accès à ces articles.
Cliquez sur ce bouton pour vous abonner à la lettre de PTAG :
Un message, un commentaire ?