2 avril 2026

Quand l’intelligence artificielle déshumanise le champ de bataille <BR> Le biais de la guerre des algorithmes

Le déclenchement de la guerre qui fait rage actuellement en Iran, lancée en tandem par les Américains et les Israéliens, a été fulgurant. Non seulement l’ayatollah Ali Khamenei a été tué au tout début de l’opération « Fureur épique », mais on rapporte aussi que 1 000 cibles ont été atteintes lors des 24 premières heures .

Comment a-t-on pu atteindre un tel résultat ? La réponse à cette question semble, comme à Gaza, tenir en deux lettres, IA. Le Washington Post a rapidement révélé que «l’armée américaine a eu recours à l’intelligence artificielle la plus avancée qu’elle ait jamais utilisée sur un champ de bataille» .

L’illusion de la fiabilité algorithmique

Il s’agit du Maven Smart System, développé par la société Palantir Technologies, fondée par le milliardaire américain Peter Thiel. Ce système informatique utilise des outils d’intelligence artificielle, dont Claude, développé par l’entreprise Anthropic. Cet outil, concurrent de ChatGPT d’OpenAI, aurait aussi été utilisé lors de l’opération militaire au Venezuela ayant permis la capture de Nicolás Maduro .

Ce système informatique «génère des analyses à partir d’une quantité phénoménale de données classifiées provenant de satellites, de capteurs de surveillance et d’autres sources de renseignement, aidant ainsi à fournir un ciblage et une hiérarchisation des objectifs en temps réel pour les opérations militaires en Iran», a précisé le quotidien américain .

La façon dont des systèmes d’IA ont été utilisés tant en Iran qu’à Gaza et les conséquences de leur intégration sur le champ de bataille inquiètent les experts en IA qui visent à développer des politiques pour favoriser plutôt la paix.

Les explications des experts de l’usage militaire de l’IA permettent de mieux comprendre les nombreux risques de dérapages liés à ce développement fondamental. « Les systèmes dont on parle sont ce qu’on appelle des systèmes de soutien à la décision par IA, désignés sous le sigle IDSS, pour Intelligent Decision Support System. Ce sont essentiellement des algorithmes qui analysent de vastes quantités de données provenant de sources différentes à savoir renseignement humain, flux vidéo, audio, différents médias. Tout cela est analysé pour fournir une recommandation», explique le Washington Post .

Quand l’humain s’efface devant la machine

Ces systèmes de recommandation sont très préoccupants, car ils changent fondamentalement le rôle de l’humain dans le processus décisionnel. «Les humains impliqués dans la boucle risquent un ‘biais d’automatisation’ car une dépendance excessive à l’égard des systèmes, donnant à ces systèmes trop d’influence sur les décisions qui doivent être prises par humains», explique le Dr Marta Bo, chercheuse à l’Institut international de recherche sur la paix de Stockholm (SIPRI) .

Elle a formulé cette analyse dans le cadre de ses recherches sur l’utilisation de l’intelligence artificielle par les forces armées israéliennes à Gaza, notamment concernant les systèmes de ciblage assisté par IA comme «Habsora» et « Lavender ». Elle a également co-signé des travaux approfondis sur les risques des systèmes d’aide à la décision par IA dans les opérations militaires .

Ce phénomène largement documenté est pernicieux. Il nous pousse à faire davantage confiance à des systèmes automatisés, comme ceux qui sont alimentés par l’IA, qu’au jugement humain. Notre cerveau fonctionne comme ça. Nous sommes prompts, par exemple, à sous-estimer les possibilités que ces systèmes se trompent.

Ce biais cognitif, identifié par les chercheurs en psychologie et en ergonomie, décrit la tendance des humains à accorder une confiance excessive aux machines, surtout dans des contextes de haute pression ou de surcharge d’information. Plusieurs facteurs l’expliquent comme la complexité des systèmes qui donne l’illusion d’objectivité, la fatigue cognitive des opérateurs humains face à des flux de données massifs, et la pression temporelle qui pousse à privilégier la rapidité de la machine à la réflexion humaine. Dans le cas des systèmes militaires, ce biais peut avoir des conséquences mortelles à savoir des cibles civiles peuvent être identifiées à tort comme des menaces, ou des bâtiments protégés peuvent être frappés sur la base de corrélations algorithmiques erronées .

Le biais d’action sur le champ de bataille

Ce n’est pas le seul biais cognitif qui nous rend particulièrement vulnérables aux dérives en temps de guerre lorsque l’IA entre en scène. Branka Marijan, chercheuse senior à l’ONG canadienne Project Ploughshares, cite également le biais d’action. Ce phénomène psychologique implique que nous aurons tendance à préférer l’action à l’inaction, même lorsque celle-ci ne constitue pas nécessairement la meilleure décision «alors parfois, nous agissons, alors qu’il vaudrait mieux attendre », explique-t-elle.
Or ces systèmes d’IA ont considérablement augmenté la vitesse de la guerre en fournissant des recommandations de cibles à un rythme beaucoup plus élevé que celui des analystes humains. Cette accélération soulève de nombreuses inquiétudes quant à la précision réelle de ces systèmes .

Faire preuve d’une grande prudence en les utilisant sur le champ de bataille devrait par conséquent aller de soi. «Ce n’est pas parce que vous pouvez générer 100 cibles par jour qu’il s’agit réellement de cibles militaires légitimes. Nous devons donc avoir une conversation très approfondie sur la manière dont la vitesse transforme la prise de décisions humaine», ajoute Branka Marijan .

D’autant que les algorithmes d’intelligence artificielle, on le sait, hallucinent encore trop souvent, commettent des erreurs, et ont eux aussi leurs propres biais. Ces distorsions algorithmiques, liées aux données d’entraînement, aux choix de modélisation ou aux objectifs fixés par les développeurs, peuvent conduire à des recommandations systématiquement biaisées, sans que les opérateurs humains ne s’en aperçoivent.

Et parce que, bien sûr, les décisions prises dans ces contextes grâce à l’IA sont bien différentes de celles qui peuvent être rendues dans une banque, une école, ou lorsque vous vous fiez à une réponse de ChatGPT ou de Claude avant de faire un choix banal de votre quotidien. En temps de guerre, plusieurs des décisions rendues font la différence entre la vie et la mort. Et si la prochaine cible, c’était une erreur de calcul ?

Palantir Technologies
Palantir Technologies est une entreprise de logiciels américaine spécialisée dans l’analyse de données massives (big data). Elle travaille déjà depuis plusieurs années avec le Pentagone, notamment sur le projet Maven original lancé en 2017, qui visait à utiliser l’IA pour analyser les flux vidéo des drones militaires. Le contrat Maven avait d’ailleurs provoqué la colère des employés de Google, forçant l’entreprise à se retirer du projet en 2018 .

Qui est le Dr Marta Bo ?
Le Dr Marta Bo est une chercheuse spécialisée dans les armes autonomes et les systèmes d’IA militaire au sein du SIPRI, l’un des instituts de recherche sur la paix les plus prestigieux au monde. Ses travaux portent sur le droit international humanitaire appliqué aux nouvelles technologies, les biais algorithmiques dans les processus de ciblage, et les limites de la « boucle humaine » (human-in-the-loop) dans les systèmes d’armes autonomes. Elle contribue régulièrement aux débats sur la régulation des armes autonomes aux Nations unies et est fréquemment citée dans les médias internationaux .

Qui est Branka Marijan ?
Branka Marijan est chercheuse senior à Project Ploughshares, une organisation non gouvernementale canadienne spécialisée dans la recherche sur la paix, le désarmement et la sécurité internationale. Elle travaille particulièrement sur les questions d’armes autonomes, d’intelligence artificielle militaire et de cyberconflictualité. Elle siège notamment au PAX Protection of Civilians team et est membre du comité directeur de la Campagne pour interdire les robots tueurs. Ses recherches portent sur l’impact des technologies émergentes sur la sécurité internationale et la protection des populations civiles en zones de conflit .

Références

The Washington Post, « U.S. military used most advanced AI ever on battlefield in strikes on Iran », 24 juin 2025.
Sources relatives à l’utilisation d’Anthropic Claude dans des opérations militaires.

The Guardian, « Google to end involvement with Project Maven », 2 juin 2018.

+972 Magazine, « ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza », 3 avril 2024.

Dr Marta Bo, SIPRI (Stockholm International Peace Research Institute), publications sur les armes autonomes et l’IA militaire, 2024-2025.

Parasuraman, R., & Riley, V. (1997). « Humans and Automation: Use, Misuse, Disuse, Abuse ». Human Factors, 39(2), 230-253.

Branka Marijan, Project Ploughshares, « Keeping humans in the loop: The risks of removing human control from weapons », et interventions lors du sommet mondial sur l’action contre les armes autonomes, février 2025.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *