L’IA fait peser des risques sur la sécurité nationale, la démocratie et notre système de santé… Quelques pistes pour les réduire
Par David Rios Insua, Instituto de Ciencias Matemáticas (ICMAT-CSIC)
L’essor fulgurant de l’intelligence artificielle offre d’immenses opportunités, mais fait également peser des risques majeurs sur la démocratie, l’économie, la santé et la sécurité, que seuls des usages responsables, des systèmes plus sûrs et une régulation internationale ambitieuse pourront contenir.
L’intelligence artificielle (IA) s’invite désormais dans presque tous les aspects de notre vie. Nous profitons de ses avantages, comme l’accélération de la découverte de nouveaux médicaments ou l’avènement d’une médecine plus personnalisée grâce à la combinaison de données et d’expertise humaine, souvent sans même nous en rendre compte. L’IA générative, qui permet de créer rapidement du contenu et d’automatiser la synthèse ou la traduction via des outils comme ChatGPT, DeepSeek ou Claude, en est la forme la plus populaire. Mais l’IA ne se limite pas à cela : ses techniques, issues principalement de l’apprentissage automatique, des statistiques et de la logique, contribuent à produire des décisions et des prédictions en réponse aux demandes d’utilisateurs.
Si elle permet désormais d’accélérer des travaux de recherche qui exigeaient autrefois des années, elle peut aussi être détournée, par exemple pour identifier des composants utiles à la mise au point d’armes biochimiques. Elle ouvre la voie à des technologies comme les véhicules autonomes, mais en leurrant leur système de vision, on peut aussi transformer ces véhicules en armes… Les risques liés à l’IA sont multiples et spécifiques, et doivent être compris comme tels, ne serait-ce que parce que les systèmes d’IA sont complexes et s’adaptent avec le temps, ce qui les rend plus imprévisibles. Au rayon des menaces, on trouve notamment les données utilisées pour entraîner les modèles sous-jacents, puisque des données biaisées produisent des résultats biaisés.
Globalement, des acteurs malveillants peuvent utiliser l’IA pour automatiser des attaques à grande vitesse et le faire à très grande échelle. Lorsque l’intelligence artificielle contrôle des systèmes critiques, toute attaque peut avoir des conséquences considérables. Et comme les outils d’IA sont largement accessibles, il est relativement facile de les utiliser pour causer des dommages.
Menaces pour la démocratie et la santé
Plus tôt cette année, le Forum économique mondial de Davos a mentionné les « conséquences négatives des technologies d’IA » dans son Global Risks Report, en raison de leur capacité à perturber la stabilité géopolitique, la santé publique et la sécurité nationale.
Les risques géopolitiques tournent majoritairement autour des élections. Avec l’IA, les possibilités de désinformer se sont multipliées : en quelques clics, un utilisateur peut créer de faux profils, produire des fake news et en adapter le langage pour manipuler avec une précision inquiétante. L’élection présidentielle roumaine de 2024 a été suspendue en raison d’une ingérence étrangère manifeste via les réseaux sociaux. À mesure que l’IA progresse, ces risques ne feront que s’intensifier.
Les conséquences financières de l’IA ne peuvent pas non plus être ignorées. Des fausses informations générées par ces outils sont désormais utilisées pour manipuler les marchés, influencer les investisseurs et faire varier les cours des actions. En 2023, par exemple, une image générée par IA montrant une explosion près du Pentagone, diffusée juste après l’ouverture des marchés américains, aurait provoqué une baisse de la valeur de certains titres. Par ailleurs, des attaques « par exemples contradictoires » – qui consistent à tromper un modèle d’apprentissage automatique en modifiant les données d’entrée pour provoquer des sorties erronées – ont montré qu’il était possible de manipuler des systèmes de scoring de crédit fondés sur l’IA. Conséquence : des prêts étaient octroyés à des candidats qui n’auraient pas dû en bénéficier.
L’IA menace également les systèmes de santé. On se souvient, lors de la pandémie de Covid-19, de la vitesse avec laquelle les fake news sur les vaccins ou les confinements se sont propagées, alimentant la méfiance dans certaines communautés. Au-delà, des systèmes de santé fondés sur l’IA et entraînés sur des données biaisées peuvent produire des résultats discriminatoires, refusant des soins à des populations sous-représentées. Une étude récente du Cedars Sinai a ainsi montré que plusieurs grands modèles de langage (LLM) « proposaient souvent des traitements inférieurs » lorsqu’un patient en psychiatrie était « explicitement ou implicitement présenté » comme afro-américain. Enfin, l’IA a élargi la surface d’exposition des hôpitaux, qui deviennent des cibles de choix.
Nous devons également rester attentifs aux enjeux de sécurité nationale posés par l’IA. La guerre en Ukraine en offre une illustration claire. Le rôle militaire accru des drones dans ce conflit, dont beaucoup sont alimentés par des outils d’IA, est un exemple parmi tant d’autres. Des attaques sophistiquées utilisant l’IA ont mis hors service des réseaux électriques et perturbé des infrastructures de transport. De la désinformation appuyée sur l’intelligence artificielle a été diffusée pour tromper l’adversaire, manipuler l’opinion publique et façonner le récit de la guerre. Clairement, l’IA est en train de redéfinir les champs traditionnels de la guerre.
Son impact s’étend au domaine sociétal, du fait de la suprématie technologique acquise par certains pays et certaines entreprises, mais aussi au domaine environnemental, en raison de la consommation énergétique de l’IA générative. Ces dynamiques ajoutent de la complexité à un paysage mondial déjà fragile.
Une voie vers une IA plus sûre
Les risques liés à l’IA sont en constante évolution et, s’ils ne sont pas maîtrisés, ils pourraient avoir des conséquences potentiellement catastrophiques. Pourtant, si nous agissons avec urgence et discernement, nous n’avons pas à craindre l’IA. En tant qu’individus, nous pouvons jouer un rôle déterminant en interagissant de manière sûre avec les systèmes d’IA et en adoptant de bonnes pratiques. Cela commence par le choix d’un fournisseur qui respecte les standards de sécurité en vigueur, les réglementations locales propres à l’IA, ainsi que le principe de protection des données.
Le fournisseur doit chercher à limiter les biais et être résilient face aux attaques. Nous devons également toujours nous interroger face aux informations produites par un système d’IA générative : vérifier les sources, rester attentifs aux tentatives de manipulation et signaler les erreurs et les abus quand nous en repérons. Nous devons nous tenir informés, transmettre cette vigilance autour de nous et contribuer activement à ancrer des usages responsables de l’IA.
Les institutions et les entreprises doivent exiger des développeurs d’IA qu’ils conçoivent des systèmes capables de résister aux attaques adversariales. Ces derniers doivent prendre en compte les risques d’attaques adverses, en créant des mécanismes de détection s’appuyant sur des algorithmes et, lorsque cela est nécessaire, en remettant l’humain dans la boucle.
Les grandes organisations doivent également surveiller l’émergence de nouveaux risques et former des équipes réactives, expertes en analyse du « risque adversarial ». Le secteur de l’assurance développe d’ailleurs désormais des couvertures spécifiquement vouées à l’IA, avec de nouveaux produits destinés à répondre à la montée des attaques adverses.
Enfin, les États ont eux aussi un rôle déterminant à jouer. Beaucoup de citoyens manifestent leur souhait que les IA respectent les droits humains et les accords internationaux, ce qui suppose des cadres législatifs solides. Le récent AI Act européen, première réglementation visant à favoriser un développement responsable de l’IA en fonction des niveaux de risque des systèmes, en est un excellent exemple. Certains y voient une charge excessive, mais je considère qu’il devrait être perçu comme un moteur destiné à encourager une innovation responsable.
Les gouvernements devraient également soutenir la recherche et l’investissement dans des domaines comme l’apprentissage automatique sécurisé, et encourager la coopération internationale en matière de partage de données et de renseignement, afin de mieux comprendre les menaces globales. (L’AI Incident Database, une initiative privée, offre un exemple remarquable de partage de données.) La tâche n’est pas simple, compte tenu du caractère stratégique de l’IA. Mais l’histoire montre que la coopération est possible. De la même manière que les nations se sont accordées sur l’énergie nucléaire et les armes biochimiques, nous devons ouvrir la voie à des efforts similaires en matière de supervision de l’IA.
En suivant ces orientations, nous pourrons tirer le meilleur parti du potentiel immense de l’IA tout en réduisant ses risques.
Créé en 2007 pour aider à accélérer et partager les connaissances scientifiques sur des questions sociétales clés, le Fonds Axa pour la recherche – qui fait désormais partie de la Fondation Axa pour le progrès humain – a soutenu plus de 750 projets à travers le monde sur des risques environnementaux, sanitaires et socio-économiques majeurs. Pour en savoir plus, rendez-vous sur le site web du Fonds Axa pour la recherche ou suivez @AXAResearchFund sur LinkedIn.![]()
David Rios Insua, Member of the ICMAT, AXA-ICMAT Chair in Adversarial Risk Analysis and Member of the Spanish Royal Academy of Sciences, Instituto de Ciencias Matemáticas (ICMAT-CSIC)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
