Guerre en Iran : comment l’intelligence artificielle s’impose comme un véritable acteur du champ de bataille
L’utilisation du modèle d’intelligence artificielle Claude lors des frappes américaines et israéliennes contre l’Iran marque une nouvelle étape dans l’intégration des algorithmes à la conduite des opérations militaires. Entre accélération décisionnelle, tensions politiques à Washington et interrogation sur la responsabilité pénale des chefs militaires, l’IA s’impose désormais comme un véritable acteur du champ de bataille contemporain.
L’intelligence artificielle n’est plus cantonnée aux laboratoires. Elle s’insère désormais dans la chaîne opérationnelle militaire. Les frappes menées contre l’Iran dans le cadre de l’opération Epic Fury, coordonnée entre les États-Unis et Israël, en constituent une illustration concrète. Selon plusieurs sources américaines, le modèle Claude, développé par Anthropic, aurait été mobilisé par le Commandement central américain pour des tâches d’analyse du renseignement, de hiérarchisation de cibles et de simulation de scénarios.
Dans un conflit à haute intensité, l’apport recherché est clair : absorber des volumes massifs de données, réduire le temps d’analyse et accélérer la prise de décision. L’IA ne déciderait pas à la place des officiers mais elle structurerait l’information, proposerait des options et optimiserait des séquences opérationnelles.
Mais cette accélération modifie l’équilibre traditionnel de la décision militaire. Elle réduit le temps de vérification humaine et accroît la dépendance à des systèmes dont les mécanismes internes demeurent partiellement opaques voire biaisés.
Les risques de l’usage militaire de l’IA
Même limitée à un rôle d’appui, l’intelligence artificielle soulève, en effet, plusieurs risques identifiés : biais dans les données d’entraînement, erreurs de classification, effet de surconfiance dans les résultats produits, difficulté à expliciter les critères ayant conduit à la priorisation de telle ou telle cible. Cette opacité algorithmique devient un enjeu central.
C’est dans ce cadre que la crise entre Washington et Anthropic s’est cristallisée. Dario Amodei, dirigeant de l’entreprise, a refusé de lever pour le Pentagone certaines restrictions encadrant l’usage de Claude, notamment son intégration à des systèmes d’armes entièrement autonomes et son emploi à des fins de surveillance de masse. L’administration Trump, furieuse, a choisi l’affrontement.
Le président américain a ordonné la cessation de l’utilisation des outils d’Anthropic par les agences fédérales et engagé une rupture contractuelle, ouvrant la voie à un redéploiement accéléré vers des concurrents, comme OpenAI (ChatGPT). Ce dernier promet à son tour des garde-fous tout en acceptant de déployer ses modèles dans un réseau classifié.
La responsabilité pénale ne saurait se diluer dans l’algorithme
Au-delà du bras de fer politique, la question essentielle demeure juridique : qui répond d’une frappe illégale lorsque l’IA a contribué à la sélection ou à l’analyse d’une cible ? En droit international humanitaire, la responsabilité pénale ne se dilue pas dans l’algorithme. La décision finale appartient bien à une chaîne de commandement humaine. Les obligations de précaution, de proportionnalité et de distinction continuent de s’imposer aux décideurs militaires, indépendamment des outils technologiques mobilisés.
La France, sur ce point, maintient une position constante. Les travaux parlementaires relatifs aux Systèmes d’Armes Létaux Autonomes (SALA) ont affirmé le principe d’un contrôle humain effectif. L’intelligence artificielle peut assister, optimiser, anticiper ; elle ne doit pas disposer du pouvoir autonome d’engager le feu. L’« homme dans la boucle » conserve la capacité d’autoriser, d’interrompre et d’assumer l’acte final. Dans un environnement où la donnée accélère le tempo opérationnel, Paris défend ainsi l’idée que l’autonomie technique ne saurait effacer la responsabilité politique et pénale.