"Le sort de centaines de milliers de civils à Gaza est entre les mains de l'intelligence artificielle"

17:584/04/2024, jeudi
AA
De la fumée s'élève pendant les bombardements israéliens dans le sud de la bande de Gaza le 03 avril 2024.
Crédit Photo : SAID KHATIB / AFP
De la fumée s'élève pendant les bombardements israéliens dans le sud de la bande de Gaza le 03 avril 2024.

Des médias israéliens ont avancé que l'armée israélienne se sert de l'Intelligence Artifficielle (IA) pour déterminer ses cibles au sein de la population de Gaza.

Ainsi, d'après des sources qui ont fait des déclarations aux médias israéliens "+972" et "Local Call", basés à Tel Aviv, le programme "Lavender" analyse les données qu'il recueille sur quelque 2,3 millions de personnes à Gaza selon des critères vagues, évaluant la probabilité qu'une personne soit liée au Hamas.


Selon ces sources, Israël risquerait au moins 20
"victimes civiles"
pour chacun des 37 000
"suspects"
identifiés par le programme d'intelligence artificielle "Lavender" comme des
"cibles humaines"
dans les attaques contre Gaza.

L'armée israélienne
"adhérait pleinement"
au programme, en particulier au début de la guerre, et les noms identifiés par Lavender étaient donc considérés comme des cibles par le personnel sans contrôle et sans critères spécifiques, dès lors qu'il s'agissait d'hommes, précisent les sources dans leurs affirmations aux médias en question.

37 000 Palestiniens étiquetés comme suspects


Des sources ont déclaré à
"+972" que le concept de "cible humaine", qui permet de tuer sur sa propriété privée même s'il y a des civils dans le bâtiment et dans la zone environnante, ne couvrait auparavant que les
"cibles militaires de haut niveau"
, mais après le 7 octobre, les
"cibles humaines"
ont été élargies pour inclure tous les membres du Hamas.

En raison de l'augmentation du nombre de cibles, il a été noté que l'intelligence artificielle était nécessaire, car la possibilité de vérifier les cibles en les examinant et en les vérifiant individuellement par des humains a été éliminée, contrairement à ce qui se passait auparavant, et il a été indiqué que l'intelligence artificielle a étiqueté environ 37 000 Palestiniens comme étant
"suspects".

Le processus a été entièrement automatisé après que Lavender a été considéré comme ayant réussi à classer les Palestiniens
"jusqu'à 90 %".

"Nous avons tué des milliers de personnes. Nous avons tout automatisé et n'avons pas vérifié les cibles individuellement. Lorsque les personnes marquées entraient dans leur maison, nous les bombardions"
, ont déclaré les sources, confirmant la suppression du contrôle humain.

Le commentaire de l'une des sources selon lequel il était
"très surprenant qu'on lui demande de bombarder une maison pour tuer un personnage mineur"
, a été perçu comme un aveu du massacre de civils par Israël à Gaza.

Feu vert pour les cibles de haut niveau jusqu'à 100 victimes civiles


Des sources ont indiqué qu'un maximum de
"20 victimes civiles"
était autorisé dans l'opération contre un
"suspect"
de bas niveau, et que ce nombre était fréquemment augmenté et diminué au cours du processus, attirant l'attention sur le fait que le
"principe de proportionnalité"
n'était pas appliqué.

D'autre part, il a été déclaré que le nombre en question allait jusqu'à 100 pour les cibles de haut niveau.

Les mêmes sources ont déclaré qu'ils avaient reçu l'ordre de
"bombarder partout où ils le pouvaient"
et ont ajouté:
"Les hauts fonctionnaires étaient dans un état d'hystérie. Ils ne savaient pas comment réagir. Tout ce qu'ils savaient, c'était qu'il fallait bombarder comme des fous pour limiter les capacités du Hamas".

"B.", un soldat de haut rang qui a utilisé Lavender, affirme que le programme à une
"marge d'erreur d'environ 10 %"
et qu'il n'a pas besoin d'être vérifié par des humains pour éviter de perdre du temps.

La personne qui portait le téléphone identifié comme la cible a été bombardée avec sa famille.


"Lorsque la définition de membre du Hamas a été élargie, l'application a commencé à cibler toutes sortes de membres de la protection civile et de policiers. Même si ces personnes aidaient le Hamas, elles ne mettaient pas vraiment en danger les soldats israéliens".

Soulignant les lacunes du système, "B." a déclaré:
"Si la cible donnait son téléphone à une autre personne, celle-ci était bombardée chez elle avec toute sa famille. Cela arrivait très souvent. C'était l'une des erreurs les plus fréquentes de Lavender."

La plupart des personnes tuées étaient des femmes et des enfants


D'autre part, un autre logiciel appelé "Where's Daddy ?" suit des milliers de personnes simultanément et informe les autorités israéliennes lorsqu'elles entrent dans leurs maisons.


Les maisons des personnes ciblées ont été bombardées grâce à ce logiciel:
"Disons que vous calculez qu'il y a un membre du Hamas et 10 civils dans une maison, généralement ces 10 personnes sont des femmes et des enfants. Donc, la plupart des personnes que vous tuez sont des femmes et des enfants".

Ce système comporte également des erreurs de calcul, comme l'explique l'une des sources:
"La plupart du temps, la personne ciblée ne se trouve même pas dans la maison que nous avons bombardée. Par conséquent, on tue une famille pour rien".

Les bombes non guidées sont utilisées pour économiser de l'argent


Les sources ont également indiqué que des personnes de rang inférieur étaient visées par des "
bombes non guidées"
au lieu de
"bombes intelligentes guidées"
afin
"d'économiser des armes coûteuses"
, ce qui a fait de nombreuses victimes civiles puisque les bâtiments situés à l'intérieur et autour de la personne visée ont été détruites.

À propos de l'utilisation de bombes non guidées, l'une des sources a déclaré:
"Nous menons généralement des attaques avec des bombes non guidées, ce qui signifie littéralement la destruction de toute la maison et de son contenu. À cause de ce système, les cibles ne cessent de se multiplier".

L'intelligence artificielle est utilisée pour trouver davantage de cibles, et non pour réduire le nombre de victimes civiles


S'adressant à Al Jazeera, le professeur Marc Owen Jones, qui travaille sur les études du Moyen-Orient et les sciences humaines numériques à l'université Hamid bin Khalifa au Qatar, a déclaré:
"Il devient de plus en plus clair qu'Israël utilise des systèmes d'intelligence artificielle non testés qui n'ont pas fait l'objet d'une évaluation transparente pour l'aider à prendre des décisions concernant la vie des civils".

Suggérant que les responsables israéliens qui utilisent des systèmes d'intelligence artificielle délèguent la sélection des cibles à l'intelligence artificielle et utilisent ce système pour
"éviter toute responsabilité morale"
, Jones a affirmé que le système est utilisé
"pour trouver davantage de cibles, et non pour réduire le nombre de victimes civiles".

Affirmant que même les fonctionnaires qui exploitent le système considèrent l'intelligence artificielle comme une
"machine à tuer"
, Jones a souligné qu'il était peu probable que ce pays mette fin à l'utilisation de l'intelligence artificielle dans les attaques, à moins que
"ses alliés ne fassent pression sur Israël".

Décrivant l'incident comme un génocide assisté par l'intelligence artificielle, Jones estime
"qu'un moratoire devrait être demandé pour l'utilisation de l'intelligence artificielle dans les guerres".

Habsora" (L'Évangile)


Dans une autre étude publiée le 1er décembre 2023, il est indiqué que l'armée israélienne a utilisé l'application d'intelligence artificielle appelée "Habsora" (L'Évangile), qu'elle utilise pour identifier des cibles lors de ses attaques contre la bande de Gaza, pour frapper délibérément des infrastructures civiles, et qu'elle sait toujours combien de civils mourront lors d'attaques contre des cibles générées automatiquement par cette application.


Alors que "Habsora" cible des bâtiments et des structures, Lavender cible des individus.


À lire également:



#Gaza
#Conflit-israélo-palestinien
#Palestiniens
#IA
#​​​​​​​Israël