Drones et robots tueurs dans la guerre : soldat ou algorithme, qui décidera de la vie et de la mort demain ?
Par Laurent Vilaine, ESDES - UCLy (Lyon Catholic University)
Il est impossible de purement et simplement ignorer la propagation sans cesse plus rapide des armes létales autonomes et de l’intelligence artificielle sur les théâtres de guerre ; mais il serait éminemment dangereux de confier la prise de décision à la technologie seule.
La guerre des machines est déjà en cours. Ces dernières années, le recours massif aux drones et à l’intelligence artificielle (IA) a transformé le champ de bataille et la nature des opérations. L’autonomie accélère la détection et la délivrance du feu. La refuser, c’est rendre les armes. L’envisager sans garde-fous, c’est percevoir la guerre dénuée de toute éthique.
La France est une puissance moyenne qui ne peut se permettre de prendre du retard technologique. Mais la France est également une grande démocratie qui se veut exemplaire : elle ne peut faire n’importe quoi avec l’avènement de ces nouvelles armes. Elle doit instaurer la primauté humaine sur le code informatique, assumer un couple homme-machine où l’impact militaire demeure, mais où l’humain reste responsable.
Les drones, l’IA, les robots tueurs sont déjà là. Le front en Ukraine est saturé de drones et de logiciels qui trient des images. Déjà, des prototypes sont capables de détecter, de poursuivre et de frapper presque sans intervention humaine. Où la France se place-t-elle dans cette rapide évolution, et que doit-elle décider aujourd’hui pour rester dans la course sans nier ses valeurs ?
Ce qui a déjà changé
Le drone est devenu l’outil d’artillerie du pauvre. Il est l’instrument de reconnaissance de la petite unité et l’engin de précision du dernier mètre. Avec les milliers de drones dans le ciel, l’œil est partout, l’angle mort se réduit. La surprise se joue en secondes.
L’artillerie classique est, certes, toujours efficace. Mais la rupture que constituent les drones est d’abord logicielle : des algorithmes identifient une silhouette humaine ou celle d’un véhicule et accélèrent le temps entre la détection et la frappe. C’est précisément là où l’humain fatigue, là où chaque seconde compte et que la valeur ajoutée de l’autonomie s’affirme.
Pourquoi l’autonomie change tout
Il est nécessaire de distinguer l’idéal du réel. Dans la première configuration, l’humain décide alors que, dans la deuxième, l’humain commence à déléguer des éléments de son jugement à, par exemple, une alerte automatique ou à une trajectoire optimale.
Concrètement, il est d’usage de parler de trois régimes différents :
- l’humain dans la boucle ;
- l’humain sur la boucle ;
- et l’humain hors de la boucle.
Le premier cas est très simple : l’humain décide. Dans le deuxième cas, l’humain surveille et, éventuellement, interrompt. Dans le troisième cas, la machine est préprogrammée et décide seule.
Ce n’est pas qu’une affaire de choix, car, à très haute vitesse (défense antidrones, interception de missiles ou encore combat collaboratif aérien complexe), la présence humaine tend à s’effacer, puisque l’action se joue en secondes ou en dizaines de secondes. Le réalisme et l’efficacité de l’action imposent dès lors de penser que refuser toute autonomie revient à accepter d’être lent et, donc, inopérant. En revanche, accepter une autonomie totale, c’est-à-dire rejeter tout garde-fou, c’est faire entrer de l’incertitude, voire de l’erreur, dans le fonctionnement d’une action létale.
La responsabilité stratégique et éthique d’un pays démocratique se joue entre ces deux pôles.
Le dilemme des puissances moyennes
La France est, du point de vue militaire, une puissance moyenne, mais de très haute technologie. Elle est souveraine dans la grande majorité de ses équipements, mais ne dispose pas d’un budget illimité, ce qui l’oblige à arbitrer.
Dans ce contexte, se priver d’autonomie revient à prendre le risque d’un retard capacitaire face à des régimes autocratiques à l’éthique inexistante ; s’y jeter sans doctrine, c’est s’exposer à une bavure ou à une action involontaire menant à une escalade risquant d’éroder la confiance de la société dans sa propre armée.
Atouts et angles morts français
La France dispose d’une armée moderne et aguerrie en raison de sa participation à de nombreuses missions extérieures. Sa chaîne hiérarchique est saine car elle responsabilise les différents niveaux (contrairement à l’armée russe par exemple). Son industrie sait intégrer des systèmes complexes. En outre, elle dispose d’une grande expertise de la guerre électronique et en cybersécurité. Ces différentes caractéristiques sont des fondements solides pour développer une autonomie maîtrisée.
En revanche, les défauts de l’industrie française sont connus. Son industrie et les militaires privilégient des solutions lourdes et chères. En bonne logique ; les cycles d’acquisition sont longs en raison des innovations. Enfin, une certaine difficulté à passer du démonstrateur à la série peut être constatée.
Tout cela rend difficile la réponse à un besoin massif et urgent du déploiement de drones et de systèmes antidrones, qui combinent détection, brouillage, leurre et neutralisation, du niveau section jusqu’au niveau opératif (sur l’ensemble d’un front).
Ce que la France devrait décider maintenant
L’industrie doit ancrer la primauté nouvelle dès la conception de l’arme ou du système d’armes. Cet objectif doit incorporer certains impératifs : chaque boucle létale (processus de décision et d’action qui conduit à neutraliser ou à tuer une cible) doit avoir un responsable humain identifiable.
En outre, des garde-fous techniques doivent être mis en place. Des « kill-switch » (« boutons d’arrêt d’urgence ») physiques doivent être installés dans les systèmes. Des seuils reparamétrables doivent être prévus : par exemple, si un radar ou une IA détecte une cible, il est nécessaire de définir un seuil de confiance (par exemple de 95 %) avant de la classer comme ennemie. Des limitations géographiques et temporelles codées doivent être prévues. Par exemple, un drone armé ne peut jamais franchir les coordonnées GPS d’un espace aérien civil ou bien une munition autonome se désactive automatiquement au bout de trente minutes si elle n’a pas trouvé de cible.
Un autre point important est que la décision doit être traçable. Il est nécessaire de posséder des journaux de mission permettant de déterminer qui a fait quoi, quand et sur quelle base sensorielle (radars, imagerie, etc.). Une telle traçabilité permet de définir la chaîne de responsabilité. Elle permet également d’apprendre de ses erreurs.
La formation des personnels est aussi importante que la qualité des matériels. Les militaires doivent être formés, préparés à l’ambiguïté. Les opérateurs et décisionnaires doivent être en mesure de comprendre le fonctionnement et les limites des algorithmes, savoir lire un score de confiance. Ils doivent être en mesure de reconnaître une dérive de capteur et, par conséquent, de décider quand reprendre la main. Paradoxalement, l’autonomie exige des humains mieux formés, pas moins.
Sur le plan capacitaire, la France doit apprendre le « low-cost », ce qui implique de disposer d’essaims et de munitions rôdeuses en nombre. Pour ce faire, le pays doit savoir intégrer dans sa base industrielle de défense aussi bien les grandes entreprises traditionnelles que des start-ups innovantes pour plus de productions locales et réactives. Il ne s’agit pas de remplacer les systèmes lourds, mais bien de les compléter afin de pouvoir saturer le champ de bataille.
Le pays, qui a délaissé la capacité antiaérienne, doit bâtir une défense antidrones, chargée de la courte portée et ayant les capacités de détecter, d’identifier, de brouiller, de leurrer, de durcir les postes de commandement (c’est-à-dire leur apporter une protection plus efficace, en les enterrant, par exemple) et protéger les convois. Ces capacités doivent être intégrées dans l’entraînement au quotidien.
Ce qu’il faut éviter
Un piège peut être une forme de surenchère normative stérile. Il est nécessaire de tenir bon sur les principes sans être naïf dans un monde de plus en plus agressif. Si la France dit explicitement « Jamais de robots tueurs autonomes », cela n’empêchera pas d’autres pays d’en utiliser ; mais dire « Toujours oui à ces technologies » serait incompatible avec les principes moraux proclamés par Paris.
Un cadre clair, ajusté par l’expérience, doit donc être inventé.
La dépendance logicielle et, donc, l’absence de souveraineté numérique sont très dangereuses. Il est indispensable de ne pas acheter de briques IA sans véritablement connaître leurs biais, sans savoir ce que l’algorithme a pris en compte. Un effort financier continu doit être entrepris pour développer nos propres outils.
Enfin, il faut éviter d’oublier le facteur humain. Il serait tentant de soulager la chaîne décisionnelle par l’automatisation. Ce serait la priver de l’intelligence de situation propre aux humains et de leur intuition difficilement codable. La doctrine doit accepter de ralentir provisoirement l’action sur le champ de bataille pour laisser la place au jugement.
Responsabilité et droit : la vraie ligne rouge
Une machine, bien paramétrée, peut paradoxalement mieux respecter qu’un humain le droit des conflits armés qui repose sur quelques principes simples. Durant un conflit, il est nécessaire de distinguer (ne pas frapper les civils), d’agir dans le cadre de la proportionnalité, c’est-à-dire de ne pas causer de dommages excessifs (ce qui est très difficile à mettre en œuvre) ; et d’appliquer la précaution (faire tout ce qui est raisonnable pour éviter l’erreur).
Si une machine peut aider à appliquer ces principes, elle ne peut, seule, assumer la responsabilité de se tromper.
Comment correctement appliquer ces principes ? Réponse : c’est le commandement qui s’assure que les paramétrages et les règles ont été convenablement définis, testés, validés.
Société et politique : ne pas mentir au pays
La guerre est par nature une activité terrible, destructrice des âmes et des chairs. Affirmer que le recours généralisé à l’IA permettrait de rendre la guerre « propre » serait une imposture intellectuelle et morale.
L’autonomie est ambiguë. Si elle peut réduire certaines erreurs humaines inhérentes au combat (la fatigue, le stress, la confusion, l’indécision), elle en introduit d’autres :
- le biais : une IA entraînée avec des images de chars soviétiques dans le désert peut se tromper si elle rencontre un blindé moderne en forêt) ;
- les capteurs trompés : des feux de camp peuvent tromper une caméra infrarouge qui les prendra pour des signatures humaines ou de véhicules
- la confusion. Exemple historique : en 1983, l’officier soviétique Stanislav Petrov a refusé de croire son système d’alerte qui détectait à tort une attaque nucléaire américaine contre l’URSS. Une IA autonome aurait appliqué son programme et donc déclenché le feu nucléaire soviétique contre le territoire des États-Unis…
Coder nos valeurs
Notre pays doit faire concilier agilité et vitesse au combat, et conscience humaine. Cela suppose de coder nos valeurs dans les systèmes (garde-fous, traçabilité, réversibilité), de procéder à des essais dans le maximum de situation (temps, météo, nombres différents d’acteurs, etc.), d’enseigner ce que l’on pourrait appeler « l’humilité algorithmique », du sergent au général.
Alors, demandions-nous, qui décidera de la vie et de la mort ? La réponse d’un pays démocratique, comme le nôtre, doit être nuancée. Certes, la machine étend le champ du possible, mais l’humain doit garder la main sur le sens et sur la responsabilité. L’autonomie ne doit pas chasser l’humain. La guerre moderne impose la rapidité de l’attaque et de la réplique. À notre doctrine d’éviter de faire de cet impératif un désert éthique.
Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.