Le conflit en cours en Iran illustre la dépendance croissante des armées américaine et israélienne à l'intelligence artificielle (IA) pour le ciblage et la planification des frappes. Le bombardement d'une école à Minab le 28 février, présenté comme une erreur de ciblage et ayant causé la mort de 168 civils, principalement des enfants, met en lumière les risques juridiques, les failles des systèmes et les problèmes de responsabilité.
Une guerre qualifiée de « première guerre de l'IA »
Le conflit armé contre l'Iran lancé le 28 février par Washington et Tel-Aviv a été rapidement qualifié de « première guerre de l'IA ». Cette assertion est trompeuse à plusieurs égards. L'IA a déjà été utilisée de manière intensive dans des conflits récents, notamment par Israël à Gaza. De plus, l'IA, en tant que moyen numérique de traitement et d'analyse de données, entretient une longue histoire avec les conflits armés, dont les fondements techniques remontent à la Seconde Guerre mondiale.
Cependant, la situation iranienne se distingue par le niveau de sophistication inédit de ces moyens et par la dépendance sans précédent des armées à leur égard. Elle diffère également du conflit à Gaza car, cette fois, l'IA a été déployée contre un adversaire étatique dans le cadre d'une guerre de haute intensité. Enfin, jamais les États n'avaient aussi ouvertement communiqué sur leur recours à ces systèmes. Cette communication, conjuguée aux conséquences dramatiques de certaines frappes, invite à s'interroger sur la compatibilité de ces pratiques avec le droit international.
Les faits : l'utilisation de l'IA dans la guerre en Iran
L'utilisation de l'IA par Israël dans sa guerre contre le Hamas avait été révélée par le journal +972. Ce média avait exposé ce que de nombreux spécialistes soupçonnaient depuis quelques années. Dans le cadre du conflit en Iran, ce sont les autorités américaines elles-mêmes qui ont annoncé leur emploi de l'IA.
Les forces militaires américaines ont admis avoir recouru à des systèmes d'IA pour établir et trier la liste des objectifs à une vitesse fulgurante. Ce procédé aurait entraîné plus de 1 000 frappes, qualifiées de très précises, durant les vingt-quatre premières heures du conflit. Elles se seraient notamment servies du système Maven Smart System, un projet conjoint utilisant un logiciel d'IA de surveillance et de collecte de données de Palantir, couplé au système d'IA générative Claude, développé par Anthropic.
Cependant, lors du premier jour de guerre, l'une des frappes américaines a visé une école de Minab, causant la mort d'environ 170 victimes civiles, principalement des enfants. Les États-Unis ont reconnu leur responsabilité dans cette frappe, présentée comme une erreur. L'école était en effet située à proximité d'une base navale des Gardiens de la révolution. Elle faisait autrefois partie intégrante du même complexe, avant d'en être séparée. C'est donc une information non actualisée qui aurait conduit à autoriser la frappe.
Une telle méprise n'est pas anodine. De nombreux médias et ONG ont rapidement établi le lien entre l'école et la base navale. Il a ainsi été avancé que l'armée américaine aurait probablement ciblé ce bâtiment sur la base de données obsolètes en suivant aveuglément une recommandation issue d'un système d'IA sans procéder à la vérification qui s'imposait.
La licéité de l'utilisation de l'IA
Dans quelle mesure l'utilisation de l'IA pour mener ces frappes, et l'erreur commise, sont-elles licites au regard du droit international ?
Il convient d'abord de préciser que l'IA n'est pas interdite en tant que telle par le droit des conflits armés (DCA, également appelé droit international humanitaire). Pour l'heure, aucune règle juridique n'envisage spécifiquement la question de sa licéité. Pour autant, la question n'évolue pas dans un vide juridique. Les règles générales du DCA s'appliquent à la conduite des hostilités, quels que soient les moyens et méthodes déployés.
L'une de ces règles est le principe de distinction selon lequel seules les cibles militaires peuvent faire l'objet d'attaques, les personnes civiles et les biens civils devant être préservés. Viser directement une école, comme celle de Minab, en l'absence de tout objectif militaire en son sein, constitue donc une violation manifeste de ce principe. Il est toutefois peu probable que l'armée américaine ait eu l'intention délibérée de détruire l'école en tant que telle. Comme indiqué, il s'agit plus vraisemblablement d'une erreur d'identification de la cible, possiblement liée à un système d'IA entraîné sur des données obsolètes, datant de l'époque où le bâtiment était encore rattaché à la base navale.
En conséquence, la violation est plutôt relative au principe de précaution. Ce dernier prescrit notamment que les parties au conflit doivent faire tout ce qui est pratiquement possible pour vérifier que les objectifs à attaquer sont bien des objectifs militaires. En l'espèce, l'armée américaine ne semble pas avoir procédé aux vérifications nécessaires pour s'assurer que la cible était une école. Une vérification élémentaire, comme celle effectuée par certains médias, aurait pu rapidement dissiper le moindre doute.
Il faut rappeler que, lors de la guerre à Gaza, il avait été rapporté que des soldats israéliens ne disposaient parfois que de vingt secondes pour valider une cible, ce qui interroge sur la possibilité matérielle de respecter effectivement ce principe. Les préoccupations relatives à l'IA militaire se cristallisent souvent autour de la question de l'autonomie et du risque qu'un système désigne et engage seul une cible ; c'est l'enjeu des systèmes d'armes létales autonomes. Cet exemple démontre toutefois qu'un contrôle humain formellement maintenu peut n'être que fictif si l'opérateur ne dispose ni du temps ni de l'esprit critique nécessaires pour évaluer une recommandation algorithmique.
Du côté iranien, il y a lieu de relever que le principe de précaution n'a pas davantage été respecté. Ce principe impose non seulement des obligations à l'attaquant, mais requiert également de l'attaqué qu'il prenne certaines précautions passives : les parties doivent notamment éloigner les personnes civiles et les biens de caractère civil des objectifs militaires. En l'espèce, transformer un bâtiment d'une base navale en école, tout en la maintenant à proximité immédiate du reste du complexe militaire, exposait délibérément cette installation civile aux risques liés à la conduite des hostilités.
Quelles responsabilités juridiques, politiques et morales ?
La responsabilité individuelle
L'attaque ne constitue pas un crime de guerre. Si l'attaque constitue une violation du DCA, il est probable qu'aucun militaire américain ne soit condamné pour de tels faits. Outre les questions de compétence juridictionnelle, le principal obstacle tient à ce que ni la violation du principe de précaution ni les erreurs conduisant à des violations du DCA ne constituent des crimes de guerre au sens du droit international pénal.
L'acte matériel est bien caractérisé, mais l'élément intentionnel, c'est-à-dire la volonté de commettre l'infraction, fait défaut. Le régime de responsabilité pénale internationale actuel ne reconnaît pas la responsabilité pour négligence dans ce contexte. Cette approche pragmatique pourrait néanmoins évoluer. D'une part, si les erreurs algorithmiques de ciblage se multiplient, le caractère « raisonnable » de l'erreur sera de plus en plus difficile à invoquer et l'utilisation consciente d'un système connu pour ses défaillances pourrait induire une forme d'intention indirecte de cibler des civils. D'autre part, le droit pourrait à l'avenir se développer pour sanctionner les militaires qui, par leur négligence, causent la mort de civils.
La responsabilité des entreprises d'IA
Un autre point de vigilance tient au rôle des entreprises privées spécialisées en IA qui détiennent aujourd'hui la majeure partie des compétences technologiques mobilisées sur le champ de bataille. Ces entreprises pourraient être tenues responsables lorsqu'elles développent des systèmes défaillants, mais, au-delà de cette responsabilité, une question morale et politique fondamentale se pose au regard de la vente de technologies d'IA à des fins militaires.
Juste avant l'entrée en guerre des États-Unis, Anthropic, qui produit le système Claude, s'était opposé à une coopération sans limite avec le Pentagone, notamment sur les armes autonomes, en invoquant ses engagements éthiques et les limites de fiabilité technique de ses systèmes pour les usages envisagés. Le Pentagone avait alors accusé Anthropic de trahison, bien que ses systèmes continuent d'être utilisés par l'armée.
D'autres entreprises du secteur, comme OpenAI, Google, Amazon ou Microsoft, semblent, quant à elles, collaborer sans réserve avec les armées, s'imposant de facto comme de véritables entreprises de défense. Il est intéressant de noter que des entreprises, normalement guidées par le profit, ont parfois plus d'états d'âme en la matière que certains États pourtant garants de l'intérêt général.
La responsabilité étatique
Les États qui développent et utilisent l'IA militaire portent une responsabilité particulière. En l'espèce, les États-Unis engagent leur responsabilité internationale pour la commission d'un fait internationalement illicite. Cette responsabilité sera, certes, difficile à mettre en œuvre dans la pratique. Mais au-delà, il émerge une responsabilité tant juridique que politique. Aux termes de l'article 1 commun aux conventions de Genève, les États ont en effet l'obligation de respecter et de faire respecter le DCA. Or, le développement de l'IA militaire tend à miner ce respect, voire à favoriser et à dissimuler les violations du droit.
Divers mécanismes pourraient endiguer ce phénomène, comme la formation des militaires aux spécificités des systèmes d'IA, l'élaboration de règles d'engagement propres à l'IA, des garanties techniques de fiabilité et de transparence des systèmes ainsi que des tests et évaluations réguliers. Plusieurs initiatives internationales appellent à intégrer de telles mesures au sein de nouveaux instruments juridiques. Pourtant, la volonté politique fait défaut, notamment chez les États à l'avant-garde du développement et de l'utilisation de l'IA militaire. Ainsi, Pete Hegseth, secrétaire à la défense des États-Unis, semble en réalité agir dans le sens contraire. Il a récemment limogé des conseillers juridiques militaires qu'il considérait comme des entraves à la bonne conduite des hostilités et a qualifié les règles d'engagement de stupides. Plus largement, les États-Unis s'opposent à toute réglementation juridique internationale de l'IA militaire. L'IA apparaît ainsi comme à la fois l'un des moteurs et le révélateur d'une érosion profonde du DCA.
Jacques Lacan disait : « Le réel, c'est quand on se cogne. » L'accident de Minab constitue un événement dramatique qui confirme les risques sur lesquels les experts en IA militaire alertent depuis plusieurs années et qui aurait dû susciter bien davantage de réactions.
En réalité, cette information semble avoir été éclipsée par d'autres considérations perçues comme plus urgentes et plus visibles dans le cadre de cette guerre, à commencer par le risque nucléaire. L'accident de Minab n'aura pas été l'électrochoc attendu pour inciter les États à s'entendre sur un cadre juridique spécifique applicable à l'IA militaire. Il reste à savoir si un tel électrochoc est encore possible ou même souhaitable.



