Intelligence artificielle : l’OCDE salue des avancées en matière de transparence de la part des concepteurs
Alors que des ONG réclament à l’ONU des règles contraignantes pour éviter des dérives irréversibles de l’intelligence artificielle, un rapport de l’OCDE révèle que les grands développeurs de la filière renforcent leurs pratiques de gestion des risques et de transparence.
À New York, lors de l’assemblée générale des Nations unies, un collectif d’ONG et de personnalités a lancé un appel sans détour : il est urgent de définir des « lignes rouges » internationales pour encadrer l’intelligence artificielle. Selon ce texte, sans cadre juridique contraignant, l’humanité s’expose à des périls majeurs, allant de pandémies artificielles à la manipulation de masse, en passant par des déstabilisations géopolitiques ou la perte de contrôle sur des systèmes autonomes.
Les signataires s’inspirent des précédents historiques ayant conduit à l’interdiction des armes biologiques ou du clonage humain, et plaident pour l’instauration de limites « claires et vérifiables » à certains usages jugés universellement inacceptables en raison de risques « extrêmes et irréversibles ».
L’OCDE observe des efforts de transparence croissants chez les principaux développeurs de systèmes d’IA
Ce cri d’alarme, relayé au plus haut niveau diplomatique, illustre la montée des inquiétudes autour d’une technologie en déploiement accéléré. Mais en parallèle de ces mises en garde, un rapport publié par l’OCDE apporte un éclairage sur les efforts déjà entrepris par les principaux développeurs d’IA pour limiter ces menaces. L’étude, intitulée How are AI developers managing risks ? Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct (Comment les développeurs d’IA gèrent-ils les risques ? Enseignements tirés des réponses au cadre de reporting du Code de conduite du processus d’IA d’Hiroshima) analyse les rapports de transparence volontaires remis par plusieurs entreprises et institutions, parmi lesquelles Anthropic (Claude), Google (Gemini), Microsoft (Copilot), NTT, OpenAI (ChatGPT), Salesforce et Fujitsu.
Le document met en évidence une sophistication croissante des méthodes de gestion des risques. Les acteurs majeurs recourent de plus en plus à des tests dits « d’équipe rouge », consistant à soumettre les systèmes à des attaques simulées afin d’en déceler les vulnérabilités. Ils mobilisent également des outils automatisés, parfois eux-mêmes fondés sur l’IA, pour analyser le comportement des modèles et renforcer leur fiabilité. Ces pratiques sont particulièrement avancées chez les grandes entreprises technologiques, qui s’efforcent d’intégrer dans leurs processus une évaluation non seulement des risques techniques, mais aussi des impacts systémiques et sociétaux.
Conforter des garde-fous face à la désinformation et aux manipulations
Le rapport note toutefois que certaines dimensions demeurent embryonnaires, notamment l’usage de dispositifs de traçabilité technique comme les tatouages numériques, les signatures cryptographiques ou les métadonnées d’authentification de contenus. Leur adoption reste limitée en dehors d’un cercle restreint d’acteurs, alors même que ces outils pourraient constituer des garde-fous cruciaux face à la désinformation et aux manipulations.
Au-delà des techniques employées, le rapport insiste sur l’importance stratégique de la transparence. Le partage d’informations sur les approches de gestion des risques, explique-t-il, favorise la confiance, stimule l’apprentissage mutuel et crée un environnement plus prévisible pour l’innovation et l’investissement. L’OCDE souligne que le cadre mis en place dans le cadre du Processus d’Hiroshima sur l’IA — initié en 2023 sous présidence japonaise du G7 puis consolidé en 2024 sous présidence italienne — offre une base de référence précieuse. À terme, ce mécanisme pourrait aider les organisations à répondre aux nouvelles obligations réglementaires, dans un contexte de gouvernance mondiale en construction.
Ainsi, entre l’alerte lancée par la société civile et les initiatives menées par les entreprises technologiques, deux dynamiques convergent : l’une plaide pour un verrouillage politique des usages les plus dangereux, l’autre travaille à rendre les systèmes existants plus robustes, sûrs et transparents.