Israël utilise l’IA pour cibler ses frappes aériennes, doublant ainsi le nombre de sites potentiels


Alors que le conflit à Gaza et en Israël se poursuit, les Forces de défense israéliennes (FDI) ont présenté leurs systèmes de gestion de ciblage basés sur l’IA qui, selon eux, sont actifs 24 heures sur 24 depuis l’attaque terroriste surprise contre Israël par le Hamas le 7 octobre.

Le système amélioré par l’IA, dont le nom se traduit par « Les Évangiles », traite rapidement les informations les plus récentes pour générer des recommandations que les analystes humains examinent ensuite.

« Il s’agit d’un plan visant à rendre le renseignement entièrement accessible aux échelons des brigades et des divisions et à fermer immédiatement les cercles de tir à l’aide de systèmes d’intelligence artificielle », a déclaré un porte-parole de Tsahal, selon une traduction Google d’un entretien publié par l’agence.

Israël utilise l’IA pour cibler ses frappes aériennes, doublant ainsi le nombre de sites potentiels

L’armée israélienne a déclaré que le système de ciblage prend en charge diverses unités de renseignement, notamment le renseignement de l’armée de l’air israélienne, le renseignement naval et le Centre de renseignement du Commandement Sud.

« Nous ne faisons aucun compromis sur la qualité du produit et des renseignements, et créons des cibles pour des attaques précises contre les infrastructures affiliées au Hamas, « causant de grands dégâts à l’ennemi et un minimum de dommages aux civils non impliqués », a affirmé le porte-parole de Tsahal.

« Nous travaillons sans compromis pour définir qui et ce qu’est un ennemi », a-t-il poursuivi. « Les membres de l’organisation terroriste Hamas ne sont pas à l’abri, où qu’ils se cachent. »

Même si l’armée israélienne affirme que le système est conçu pour minimiser les dommages causés aux civils, The Guardian rapporte que le système a également été utilisé pour générer des recommandations ciblant les maisons privées d’individus soupçonnés d’être des membres du Hamas ou du Jihad islamique. Selon la publication, Tsahal a constitué une base de données de plus de 30 000 militants présumés.

Selon l’armée israélienne, le système alimenté par l’IA a été utilisé pour identifier 15 000 cibles potentielles à Gaza, en plus de milliers d’autres cibles terroristes présumées depuis le début de la guerre avec le Hamas. Ce chiffre pourrait doubler le nombre de sites dans la guerre contre le Hamas en 2014, qui a touché 5 000 et 6 000 cibles, a rapporté The Guardian.

Alors que l’IA devient de plus en plus omniprésente, les militaires du monde entier ont cherché des moyens de tirer parti de la technologie émergente sur le champ de bataille. Au-delà de son utilisation en temps de guerre, le gouvernement américain utilise également l’intelligence artificielle pour surveiller l’espace aérien autour de Washington, DC.

En novembre, le gouvernement américain a annoncé des efforts visant à établir des normes mondiales pour l’utilisation responsable de l’intelligence artificielle et des systèmes autonomes dans les opérations militaires.

« Les États-Unis sont un leader mondial en matière d’utilisation militaire responsable de l’IA et de l’autonomie, le ministère de la Défense défendant les principes éthiques de l’IA et les politiques relatives à l’autonomie des systèmes d’armes depuis plus d’une décennie », a déclaré la sous-secrétaire à la Défense pour la politique, Sasha Baker. « La déclaration politique s’appuie sur ces efforts. Elle fait progresser les normes internationales sur l’utilisation militaire responsable de l’IA et l’autonomie, fournit une base pour construire une compréhension commune et crée une communauté permettant à tous les États d’échanger les meilleures pratiques. »

Plus tôt cette année, Kratos Defence a participé à un exercice conjoint avec l’armée américaine pour tester la capacité de son XQ-58A Valkyrie expérimental propulsé par l’IA à voler en formation avec d’autres chasseurs de l’US Air Force.

La Valkyrie utilise la technologie d’IA conçue par Shield AI, basée à San Diego, qui considère l’introduction de l’IA sur le champ de bataille comme un moyen de sauver des vies et de dissuader les mauvais acteurs.

« Je mets vraiment en valeur la partie bouclier de Shield AI », a déclaré précédemment Willie Logan, directeur de l’ingénierie de Shield AI. « En donnant aux États-Unis cette capacité, [Shield AI] a un effet dissuasif. » Logan a averti que même si les États-Unis déclaraient qu’ils ne développeraient pas d’outils d’IA pour la guerre, cela ne signifie pas que d’autres pays ne le feront pas.