Accéder au contenu principal

Le fact-checking suffit-il à garantir une objectivité journalistique ?

Vérifier les faits est essentiel, car certaines informations sont tout simplement fausses. Mais la manière dont les faits sont sélectionnés et racontés implique un tri, et aucun choix n’est jamais neutre. beast01/Shutterstock Par  Fabrice Flipo , Institut Mines-Télécom Business School Les médias mettent en avant la vérification des faits (« fact checking ») face aux fausses informations (« fake news »). Ils questionnent moins souvent la façon dont les récits sont élaborés (« storytelling »). Quelle pourrait-être la méthode pour construire un discours journalistique objectif et impartial ? Chacun a entendu parler des fake news , qui seraient supposément propagées par les réseaux sociaux. Nombreux sont les médias qui s’équipent de cellules de «  fact checking  » censées les contrer. Mais sont-elles efficaces ? Leur critère est souvent de « revenir aux faits »...

Drones et robots tueurs dans la guerre : soldat ou algorithme, qui décidera de la vie et de la mort demain ?

drone

Par Laurent Vilaine, ESDES - UCLy (Lyon Catholic University)

Il est impossible de purement et simplement ignorer la propagation sans cesse plus rapide des armes létales autonomes et de l’intelligence artificielle sur les théâtres de guerre ; mais il serait éminemment dangereux de confier la prise de décision à la technologie seule.


La guerre des machines est déjà en cours. Ces dernières années, le recours massif aux drones et à l’intelligence artificielle (IA) a transformé le champ de bataille et la nature des opérations. L’autonomie accélère la détection et la délivrance du feu. La refuser, c’est rendre les armes. L’envisager sans garde-fous, c’est percevoir la guerre dénuée de toute éthique.

La France est une puissance moyenne qui ne peut se permettre de prendre du retard technologique. Mais la France est également une grande démocratie qui se veut exemplaire : elle ne peut faire n’importe quoi avec l’avènement de ces nouvelles armes. Elle doit instaurer la primauté humaine sur le code informatique, assumer un couple homme-machine où l’impact militaire demeure, mais où l’humain reste responsable.

Les drones, l’IA, les robots tueurs sont déjà là. Le front en Ukraine est saturé de drones et de logiciels qui trient des images. Déjà, des prototypes sont capables de détecter, de poursuivre et de frapper presque sans intervention humaine. Où la France se place-t-elle dans cette rapide évolution, et que doit-elle décider aujourd’hui pour rester dans la course sans nier ses valeurs ?

Ce qui a déjà changé

Le drone est devenu l’outil d’artillerie du pauvre. Il est l’instrument de reconnaissance de la petite unité et l’engin de précision du dernier mètre. Avec les milliers de drones dans le ciel, l’œil est partout, l’angle mort se réduit. La surprise se joue en secondes.

L’artillerie classique est, certes, toujours efficace. Mais la rupture que constituent les drones est d’abord logicielle : des algorithmes identifient une silhouette humaine ou celle d’un véhicule et accélèrent le temps entre la détection et la frappe. C’est précisément là où l’humain fatigue, là où chaque seconde compte et que la valeur ajoutée de l’autonomie s’affirme.

Pourquoi l’autonomie change tout

Il est nécessaire de distinguer l’idéal du réel. Dans la première configuration, l’humain décide alors que, dans la deuxième, l’humain commence à déléguer des éléments de son jugement à, par exemple, une alerte automatique ou à une trajectoire optimale.

Concrètement, il est d’usage de parler de trois régimes différents :

  • l’humain dans la boucle ;
  • l’humain sur la boucle ;
  • et l’humain hors de la boucle.

Le premier cas est très simple : l’humain décide. Dans le deuxième cas, l’humain surveille et, éventuellement, interrompt. Dans le troisième cas, la machine est préprogrammée et décide seule.

Ce n’est pas qu’une affaire de choix, car, à très haute vitesse (défense antidrones, interception de missiles ou encore combat collaboratif aérien complexe), la présence humaine tend à s’effacer, puisque l’action se joue en secondes ou en dizaines de secondes. Le réalisme et l’efficacité de l’action imposent dès lors de penser que refuser toute autonomie revient à accepter d’être lent et, donc, inopérant. En revanche, accepter une autonomie totale, c’est-à-dire rejeter tout garde-fou, c’est faire entrer de l’incertitude, voire de l’erreur, dans le fonctionnement d’une action létale.

La responsabilité stratégique et éthique d’un pays démocratique se joue entre ces deux pôles.

Le dilemme des puissances moyennes

La France est, du point de vue militaire, une puissance moyenne, mais de très haute technologie. Elle est souveraine dans la grande majorité de ses équipements, mais ne dispose pas d’un budget illimité, ce qui l’oblige à arbitrer.

Dans ce contexte, se priver d’autonomie revient à prendre le risque d’un retard capacitaire face à des régimes autocratiques à l’éthique inexistante ; s’y jeter sans doctrine, c’est s’exposer à une bavure ou à une action involontaire menant à une escalade risquant d’éroder la confiance de la société dans sa propre armée.

Atouts et angles morts français

La France dispose d’une armée moderne et aguerrie en raison de sa participation à de nombreuses missions extérieures. Sa chaîne hiérarchique est saine car elle responsabilise les différents niveaux (contrairement à l’armée russe par exemple). Son industrie sait intégrer des systèmes complexes. En outre, elle dispose d’une grande expertise de la guerre électronique et en cybersécurité. Ces différentes caractéristiques sont des fondements solides pour développer une autonomie maîtrisée.

En revanche, les défauts de l’industrie française sont connus. Son industrie et les militaires privilégient des solutions lourdes et chères. En bonne logique ; les cycles d’acquisition sont longs en raison des innovations. Enfin, une certaine difficulté à passer du démonstrateur à la série peut être constatée.

Tout cela rend difficile la réponse à un besoin massif et urgent du déploiement de drones et de systèmes antidrones, qui combinent détection, brouillage, leurre et neutralisation, du niveau section jusqu’au niveau opératif (sur l’ensemble d’un front).

Ce que la France devrait décider maintenant

L’industrie doit ancrer la primauté nouvelle dès la conception de l’arme ou du système d’armes. Cet objectif doit incorporer certains impératifs : chaque boucle létale (processus de décision et d’action qui conduit à neutraliser ou à tuer une cible) doit avoir un responsable humain identifiable.

En outre, des garde-fous techniques doivent être mis en place. Des « kill-switch » (« boutons d’arrêt d’urgence ») physiques doivent être installés dans les systèmes. Des seuils reparamétrables doivent être prévus : par exemple, si un radar ou une IA détecte une cible, il est nécessaire de définir un seuil de confiance (par exemple de 95 %) avant de la classer comme ennemie. Des limitations géographiques et temporelles codées doivent être prévues. Par exemple, un drone armé ne peut jamais franchir les coordonnées GPS d’un espace aérien civil ou bien une munition autonome se désactive automatiquement au bout de trente minutes si elle n’a pas trouvé de cible.

Un autre point important est que la décision doit être traçable. Il est nécessaire de posséder des journaux de mission permettant de déterminer qui a fait quoi, quand et sur quelle base sensorielle (radars, imagerie, etc.). Une telle traçabilité permet de définir la chaîne de responsabilité. Elle permet également d’apprendre de ses erreurs.

La formation des personnels est aussi importante que la qualité des matériels. Les militaires doivent être formés, préparés à l’ambiguïté. Les opérateurs et décisionnaires doivent être en mesure de comprendre le fonctionnement et les limites des algorithmes, savoir lire un score de confiance. Ils doivent être en mesure de reconnaître une dérive de capteur et, par conséquent, de décider quand reprendre la main. Paradoxalement, l’autonomie exige des humains mieux formés, pas moins.

Sur le plan capacitaire, la France doit apprendre le « low-cost », ce qui implique de disposer d’essaims et de munitions rôdeuses en nombre. Pour ce faire, le pays doit savoir intégrer dans sa base industrielle de défense aussi bien les grandes entreprises traditionnelles que des start-ups innovantes pour plus de productions locales et réactives. Il ne s’agit pas de remplacer les systèmes lourds, mais bien de les compléter afin de pouvoir saturer le champ de bataille.

Le pays, qui a délaissé la capacité antiaérienne, doit bâtir une défense antidrones, chargée de la courte portée et ayant les capacités de détecter, d’identifier, de brouiller, de leurrer, de durcir les postes de commandement (c’est-à-dire leur apporter une protection plus efficace, en les enterrant, par exemple) et protéger les convois. Ces capacités doivent être intégrées dans l’entraînement au quotidien.

Ce qu’il faut éviter

Un piège peut être une forme de surenchère normative stérile. Il est nécessaire de tenir bon sur les principes sans être naïf dans un monde de plus en plus agressif. Si la France dit explicitement « Jamais de robots tueurs autonomes », cela n’empêchera pas d’autres pays d’en utiliser ; mais dire « Toujours oui à ces technologies » serait incompatible avec les principes moraux proclamés par Paris.

Un cadre clair, ajusté par l’expérience, doit donc être inventé.

La dépendance logicielle et, donc, l’absence de souveraineté numérique sont très dangereuses. Il est indispensable de ne pas acheter de briques IA sans véritablement connaître leurs biais, sans savoir ce que l’algorithme a pris en compte. Un effort financier continu doit être entrepris pour développer nos propres outils.

Enfin, il faut éviter d’oublier le facteur humain. Il serait tentant de soulager la chaîne décisionnelle par l’automatisation. Ce serait la priver de l’intelligence de situation propre aux humains et de leur intuition difficilement codable. La doctrine doit accepter de ralentir provisoirement l’action sur le champ de bataille pour laisser la place au jugement.

Responsabilité et droit : la vraie ligne rouge

Une machine, bien paramétrée, peut paradoxalement mieux respecter qu’un humain le droit des conflits armés qui repose sur quelques principes simples. Durant un conflit, il est nécessaire de distinguer (ne pas frapper les civils), d’agir dans le cadre de la proportionnalité, c’est-à-dire de ne pas causer de dommages excessifs (ce qui est très difficile à mettre en œuvre) ; et d’appliquer la précaution (faire tout ce qui est raisonnable pour éviter l’erreur).

Si une machine peut aider à appliquer ces principes, elle ne peut, seule, assumer la responsabilité de se tromper.

Comment correctement appliquer ces principes ? Réponse : c’est le commandement qui s’assure que les paramétrages et les règles ont été convenablement définis, testés, validés.

Société et politique : ne pas mentir au pays

La guerre est par nature une activité terrible, destructrice des âmes et des chairs. Affirmer que le recours généralisé à l’IA permettrait de rendre la guerre « propre » serait une imposture intellectuelle et morale.

L’autonomie est ambiguë. Si elle peut réduire certaines erreurs humaines inhérentes au combat (la fatigue, le stress, la confusion, l’indécision), elle en introduit d’autres :

  • le biais : une IA entraînée avec des images de chars soviétiques dans le désert peut se tromper si elle rencontre un blindé moderne en forêt) ;
  • les capteurs trompés : des feux de camp peuvent tromper une caméra infrarouge qui les prendra pour des signatures humaines ou de véhicules
  • la confusion. Exemple historique : en 1983, l’officier soviétique Stanislav Petrov a refusé de croire son système d’alerte qui détectait à tort une attaque nucléaire américaine contre l’URSS. Une IA autonome aurait appliqué son programme et donc déclenché le feu nucléaire soviétique contre le territoire des États-Unis…

Coder nos valeurs

Notre pays doit faire concilier agilité et vitesse au combat, et conscience humaine. Cela suppose de coder nos valeurs dans les systèmes (garde-fous, traçabilité, réversibilité), de procéder à des essais dans le maximum de situation (temps, météo, nombres différents d’acteurs, etc.), d’enseigner ce que l’on pourrait appeler « l’humilité algorithmique », du sergent au général.

Alors, demandions-nous, qui décidera de la vie et de la mort ? La réponse d’un pays démocratique, comme le nôtre, doit être nuancée. Certes, la machine étend le champ du possible, mais l’humain doit garder la main sur le sens et sur la responsabilité. L’autonomie ne doit pas chasser l’humain. La guerre moderne impose la rapidité de l’attaque et de la réplique. À notre doctrine d’éviter de faire de cet impératif un désert éthique.The Conversation

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Comment savoir si je suis touché par un logiciel espion ?

Par Allan Camps, Senior Enterprise Account Executive chez Keeper Security Les logiciels espions sont des logiciels malveillants qui, installés à votre insu sur votre appareil, permettent aux cybercriminels de vous espionner et de voler vos informations privées. Ces informations peuvent ensuite être utilisées par des cybercriminels ou vendues sur le dark web pour commettre des fraudes ou des usurpations d'identité. Il est possible de repérer ces logiciels malveillants sur votre appareil en observant des signes particuliers tels que l'épuisement rapide de la batterie, la surchauffe, l'augmentation du nombre de fenêtres pop-up ou de l'utilisation des données, et la présence d'applications inconnues. Comment détecter un logiciel espion sur votre smartphone Android ou votre iPhone ? Recherchez les applications que vous n'avez pas téléchargées. Les applications que vous n'avez pas téléchargées peuvent se cacher dans votre bibliothèque et contenir des logiciels ...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...