Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
5 avril 2024 5 05 /04 /avril /2024 05:00
Une enquête de l'Humanité - « Lavender », l’intelligence artificielle qui dirige les bombardements israéliens à Gaza (Yuval Abraham, 3 avril 2024)
« Lavender », l’intelligence artificielle qui dirige les bombardements israéliens à Gaza

L’armée israélienne a désigné des dizaines de milliers d’habitants de Gaza comme des suspects, cibles d’assassinat, en utilisant un système de ciblage par intelligence artificielle (IA), avec peu de contrôle humain et une politique permissive en matière de pertes « collatérales », révèlent le magazine +972 et le site d’informations Local Call. L’Humanité publie une traduction française de l’enquête conduite par ces médias israéliens.

Yuval Abraham

Par Yuval Abraham,

Journaliste et cinéaste basé à Jérusalem

En 2021, un livre intitulé L’équipe humain-machine, comment créer une synergie entre humain et intelligence artificielle qui va révolutionner le monde a été publié en anglais sous le pseudonyme de « Brigadier General Y.S. ». Dans cet ouvrage, l’auteur – un homme dont nous pouvons confirmer qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de « cibles » potentielles pour des frappes militaires dans le feu de l’action. Une telle technologie, écrit-il, résoudrait ce qu’il décrit comme un « goulot d’étranglement humain à la fois pour la localisation des nouvelles cibles et la prise de décision pour approuver les cibles ».

Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle (IA), connu sous le nom de « Lavender », dévoilé ici pour la première fois.

Selon six officiers du renseignement israélien, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon ces sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA « comme s’il s’agissait de décisions humaines ».

20 secondes pour autoriser un bombardement

Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien, y compris les moins gradés, comme des cibles potentielles pour les bombardements. Ces sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a marqué jusqu’à 37 000 Palestiniens comme militants présumés – avec leurs maisons – en vue d’éventuelles frappes aériennes.

Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes d’objectifs de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix, ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées.

Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des « erreurs » dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.

En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit, en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées.

Lavender a marqué jusqu’à 37 000 Palestiniens comme militants présumés – avec leurs maisons – en vue d’éventuelles frappes aériennes.

D’autres systèmes automatisés, dont celui appelé « Where’s Daddy ? » (Où est papa ?), également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et commettre des attentats à la bombe lorsqu’ils étaient entrés dans les résidences de leur famille.

Le résultat, comme en témoignent ces sources, est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été éliminés par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’intelligence artificielle.

« Il est beaucoup plus facile de bombarder la maison d’une famille »

« Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou participaient à une activité militaire », a déclaré A., un officier de renseignement, à +972 et à Local Call. « Au contraire, l’armée israélienne les a bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations. »

La machine Lavender rejoint un autre système d’IA, « The Gospel », au sujet duquel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. La différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes – et les inscrit sur une liste de personnes à abattre.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza.

  • Tout d’abord, nous expliquons le fonctionnement de la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens à l’aide de l’IA.
  • Ensuite, nous révélons le système « Where’s Daddy ? » (Où est papa ?), qui a suivi ces cibles et signalé à l’armée qu’elles entraient dans leurs maisons familiales.
  • Troisièmement, nous décrivons comment des bombes « muettes » ont été choisies pour frapper ces maisons.
  • Quatrièmement, nous expliquons comment l’armée a assoupli le nombre de civils pouvant être tués lors du bombardement d’une cible.
  • Cinquièmement, nous expliquons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer.
  • Sixièmement, nous montrons qu’à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les officiers militaires n’ont pas vérifié l’information en temps réel.

ÉTAPE 1 : GÉNÉRER DES CIBLES

Dans l’armée israélienne, l’expression « cible humaine » désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l’armée, pouvait être tué à son domicile privé, même s’il y avait des civils à proximité.

Des sources du renseignement ont déclaré à +972 et à Local Call qu’au cours des précédentes guerres conduites par Israël, étant donné qu’il s’agissait d’une manière « particulièrement brutale » de tuer quelqu’un – souvent en tuant toute une famille aux côtés de la cible – ces cibles humaines étaient marquées très soigneusement : seuls les commandants militaires de haut rang étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.

Le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires mis de côté

Mais après le 7 octobre, lorsque les militants du Hamas ont lancé un assaut meurtrier contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en enlevant 240, l’armée a adopté une approche radicalement différente, selon les sources. Dans le cadre de l’opération « Iron Swords », l’armée a décidé de désigner tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Cela a tout changé.

Cette nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Au cours des guerres précédentes, pour autoriser l’assassinat d’une seule cible humaine, un officier devait passer par un processus d’« incrimination » long et complexe : vérifier par recoupement les preuves que la personne était bien un membre haut placé de l’aile militaire du Hamas, découvrir où elle vivait, ses coordonnées, et enfin savoir quand elle était chez elle en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut rang, les services de renseignement pouvaient s’occuper individuellement du travail d’incrimination et de localisation.

Mais une fois que la liste a été élargie pour y inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a compris qu’elle devait s’appuyer sur des logiciels automatisés et sur l’intelligence artificielle. Le résultat, selon les sources, est que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté et que l’intelligence artificielle a fait le gros du travail à sa place.

Selon quatre des sources qui ont parlé à +972 et à Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a marqué quelque 37 000 Palestiniens comme étant des « militants du Hamas » présumés, des jeunes pour la plupart d’entre eux, en vue de leur assassinat (le porte-parole de l’armée israélienne a nié l’existence d’une telle liste dans une déclaration à +972 et à Local Call).

« Une fois que l’on passe à l’automatisation, la génération des cibles devient folle »

« Nous ne savions pas qui étaient les agents subalternes, parce qu’Israël ne les suivait pas régulièrement [avant la guerre] », a expliqué l’officier supérieur B. à +972 et à Local Call, expliquant ainsi la raison pour laquelle cette machine à cibler a été mise au point pour la guerre en cours. « Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que l’on passe à l’automatisation, la génération des cibles devient folle ».

Les sources ont déclaré que l’autorisation d’adopter automatiquement les listes d’objectifs de Lavender, qui n’avaient été utilisées auparavant que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel des services de renseignement a vérifié « manuellement » l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’intelligence artificielle.

Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. À partir de ce moment-là, ces sources ont déclaré que si Lavender décidait qu’un individu était un militant du Hamas, il leur était essentiellement demandé de traiter cela comme un ordre, sans qu’il soit nécessaire de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes de renseignement sur lesquelles elle est basée.

« À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions marquées », raconte B.. «Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une par une – nous avons tout mis dans des systèmes automatisés, et dès que l’une [des personnes marquées] était chez elle, elle devenait immédiatement une cible. Nous la bombardions, elle et sa maison ».

Les résultats meurtriers de ce relâchement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la Santé à Gaza, sur lesquelles l’armée israélienne s’appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre de morts à ce jour – au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit conclu le 24 novembre.

« Plus il y a d’informations et de variété, mieux c’est »

Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l’aile militaire du Hamas ou du Jihad islamique. Selon certaines sources, la machine attribue à presque chaque habitant de Gaza une note de 1 à 100, exprimant la probabilité qu’il s’agisse d’un militant.

Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du Jihad islamique, dont les informations ont été transmises à la machine en tant que données d’entraînement, puis à repérer ces mêmes caractéristiques – également appelées « traits » – au sein de la population générale, ont expliqué les sources. Une personne présentant plusieurs caractéristiques incriminantes différentes obtient une note élevée et devient ainsi automatiquement une cible potentielle pour un assassinat.

Dans « L’équipe humain-machine », le livre cité au début de cet article, l’actuel commandant de l’unité 8 200 plaide en faveur d’un tel système sans citer Lavender nommément. (Le commandant lui-même n’est pas nommé, mais cinq sources au sein de l’unité 8 200 ont confirmé que le commandant était l’auteur de ce livre, comme l’a également rapporté Haaretz).

Décrivant le personnel humain comme un « goulot d’étranglement » qui limite la capacité de l’armée au cours d’une opération militaire, le commandant se lamente : « Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes chargées de produire des objectifs pendant la guerre, il est toujours impossible de produire suffisamment d’objectifs par jour ».

Selon lui, la solution à ce problème réside dans l’intelligence artificielle. Le livre propose un petit guide pour construire une « machine à cibles », similaire à Lavender, basée sur l’intelligence artificielle et des algorithmes d’apprentissage automatique. Ce guide contient plusieurs exemples de « centaines et de milliers » de caractéristiques susceptibles d’augmenter la cote d’un individu, comme le fait de faire partie d’un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d’adresse.

« Plus il y a d’informations et plus elles sont variées, mieux c’est », écrit le commandant. « Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. Si, dans un premier temps, ce sont les humains qui sélectionnent ces caractéristiques, poursuit le commandant, au fil du temps, la machine en viendra à les identifier d’elle-même. » Selon lui, cela peut permettre aux armées de créer « des dizaines de milliers de cibles », la décision de les attaquer ou non restant du ressort de l’homme.

Ce livre n’est pas la seule source où un haut commandant israélien a fait allusion à l’existence de machines à cibles humaines comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, le « colonel Yoav », lors de la semaine de l’IA à l’université de Tel-Aviv en 2023, dont les médias israéliens ont parlé à l’époque.

Dans cette conférence, le commandant parle d’une nouvelle machine cible sophistiquée utilisée par l’armée israélienne, qui détecte les « personnes dangereuses » en se basant sur leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été entraînée. « Grâce à ce système, nous avons réussi à identifier les commandants des escadrons de missiles du Hamas », a déclaré le colonel Yoav lors de la conférence, en faisant référence à l’opération militaire israélienne de mai 2021 à Gaza, au cours de laquelle la machine a été utilisée pour la première fois.

Les diapositives de la présentation, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à remarquer leurs caractéristiques, puis elle évalue d’autres Palestiniens en fonction de leur degré de ressemblance avec les militants.

Partager cet article
Repost0

commentaires

Présentation

  • : Le chiffon rouge - PCF Morlaix/Montroulez
  • : Favoriser l'expression des idées de transformation sociale du parti communiste. Entretenir la mémoire des débats et des luttes de la gauche sociale. Communiquer avec les habitants de la région de Morlaix.
  • Contact

Visites

Compteur Global

En réalité depuis Janvier 2011