Alors que ChatGPT et d’autres formes d’intelligence artificielle (IA) générative font progressivement leur entrée dans de nombreux aspects de nos vies personnelles et professionnelles, où en est-on de la construction de la gouvernance mondiale de l’IA ?
Aux niveaux national et régional, de nombreux efforts de régulation ont été déployés ces dernières années, avec l’adoption de plusieurs documents notables : l’Acte sur l’IA au niveau européen, l’executive order de la Maison Blanche aux États-Unis, ou encore la nouvelle réglementation sur les contenus générés par l’IA, qui fait suite à d’autres textes visant à encadrer l’IA adoptés en Chine pour ne citer qu’eux.
Ces trois approches de l’IA reflètent des valeurs et priorités qui divergent, entre laisser le champ libre à l’industrie technologique pour innover, et imposer un encadrement plus strict des usages les plus problématiques et risqués, par exemple la reconnaissance faciale. Face à ces divergences, le risque existe de voir émerger un découplage au niveau mondial et une baisse de l’interopérabilité des technologies.
Au niveau international, ces perspectives s’articulent autour de deux questions principales : comment gouverner l’IA et que gouverner exactement ? Au-delà, dans quelle mesure les jeunes générations sont-elles au fait des enjeux, et comment peuvent-elles être intégrées dans cette éventuelle future gouvernance mondiale ?
Gouverner l’IA : oui mais comment ?
Contrairement aux premiers développements de la gouvernance de l’Internet, la gouvernance de l’IA s’élabore dans un contexte géopolitique plus polarisé et incertain avec l’émergence de multinationales technologiques qui concentrent à la fois capacité financière et capacité d’innovation, comme Google, Microsoft ou encore Huawei.
Pour certains États, l’IA est une priorité de sécurité nationale ; dès lors, sa gouvernance doit rester au sein de la diplomatie multilatérale, par exemple l’Union internationale des Télécommunications (UIT). Pour d’autres, il est essentiel d’inclure dans la gouvernance de l’IA les acteurs non étatiques, c’est-à-dire les entreprises technologiques, la société civile et le monde de la science.
De surcroît, il s’agit de décider s’il est nécessaire de créer une nouvelle agence aux compétences globales, comparable à l’Agence internationale de l’énergie atomique (AIEA), ou si sa gouvernance peut être accomplie de manière distribuée au sein des instances internationales actuelles. Cette seconde approche reviendrait à déléguer la responsabilité de la gouvernance en fonction des secteurs. Par exemple, l’Organisation mondiale de la santé (OMS) serait en charge de gouverner l’IA pour le secteur de la santé publique mondiale.
Mais de quoi parle-t-on au juste quand on parle de « gouverner l’IA » ?
La deuxième grande question, tout aussi épineuse, porte sur l’objet de la gouvernance. Que faut-il gouverner ?
Faut-il se focaliser sur l’étape actuelle de l’IA (ce que l’on appelle artificial narrow intelligence ou « weak AI »), ou sur la gouvernance de ses futurs développements (ce que l’on appelle artificial general intelligence et artificial super intelligence) ?
Les enjeux sont très différents. La première option consiste à chercher à réguler l’usage et le déploiement de l’IA dans nos sociétés actuelles afin de limiter les risques et impacts sociétaux (liés au rôle de l’IA dans la production et la distribution de fausses nouvelles et à ses effets sur l’environnement, car l’IA générative est très énergivore).
La seconde tend, elle, à se concentrer sur une approche plus futuriste et « préventive », et tenter de gouverner une Super IA qui serait tellement puissante qu’elle présenterait un risque existentiel pour la survie humaine.
Ce sont précisément ces questions qui vont être abordées à Genève fin mai 2024 lors du Sommet mondial sur la société de l’information (WSIS), de la Journée de la gouvernance de l’IA), et du Sommet mondial sur l’Intelligence artificielle pour le bien commun. Ces trois événements, organisés par les Nations unies et en particulier l’UIT, visent à renforcer la coopération mondiale dans le domaine des technologies numériques en vue de construire des sociétés de l’information et de la connaissance inclusives, durables et centrées sur l’être humain.
Si l’IA demande une approche pluridisciplinaire et sectorielle de par ses usages et impacts aussi variés que nombreux, et pour certains encore en développement, Genève et ses 42 organisations internationales, ses 181 représentations étatiques, ses 42 organisations internationales, ses 750 ONG et ses grandes universités est un lieu privilégié pour gouverner cette technologie et trouver des réponses communes aux défis globaux qu’elle pose.
La question de la participation de la jeunesse
Pour ce qui a trait aux technologies, et en particulier à l’IA, la question de la participation est cruciale. Les acteurs qui participent au développement, au déploiement et à la gouvernance de l’IA ont une influence directe sur un partage plus ou moins équilibré des bénéfices et des risques de cette technologie.
Au regard du nombre de femmes dans l’industrie et la recherche en IA, le développement de cette technologie est fort peu représentatif de la diversité du monde. La question de la participation pose celle de la légitimité de la technologie. Le manque de diversité et de représentativité dans son développement est souvent cité comme un des facteurs principaux pour ses implications sociétales les plus négatives, par exemple le renforcement des discriminations à l’égard de populations marginalisées. De plus, face à la multiplication des sommets et des processus sur la gouvernance de l’IA, participer devient coûteux. Où les pays du sud global et la société civile sont-ils représentés ?
Pour la jeune génération, qui est déjà confrontée à des inégalités en matière de représentation politique, l’imbrication de l’IA et de la politique représente un défi urgent. Les jeunes sont particulièrement vulnérables à la désinformation car ils ont tendance à manquer de littératie numérique malgré leur usage intensif des réseaux sociaux, la littératie numérique étant leur aptitude à non seulement utiliser les outils numériques, mais aussi et surtout à en comprendre les enjeux et à développer une approche critique de leurs usages.
Cela est d’autant plus préoccupant qu’ils utilisent intensivement des plates-formes de médias sociaux incapables d’atténuer la propagation de la désinformation, comme TikTok. Et parmi les jeunes, les premières cibles des campagnes de deepfakes et de désinformation sont souvent les jeunes femmes et les groupes vulnérables tels que les jeunes des communautés LGBTIQ+. De plus, les transformations du marché du travail engendrées par des IA plus ou moins biaisées concernent avant tout les plus jeunes générations ; celles-ci devraient donc d’autant plus avoir droit à la parole sur la gouvernance de cette technologie qui va fortement impacter leur avenir.
Mais comment renforcer leur participation dans la gouvernance mondiale de l’IA, comme à Genève en mai ? Des études ont montré que les jeunes, quand ils sont présents, ce qui reste rare, sont souvent mis à l’écart des prises de décision, et instrumentalisés, victimes de « youthwashing » par les élites économiques et politiques présentes dans les sommets internationaux. Être perçu comme « jeune » ne leur permet pas toujours d’être pris au sérieux dans ces sommets, même sur des thématiques qui mobilisent les jeunes en masse comme la justice climatique.
Il est essentiel, pour que les débats conduits au cours de ces sommets mènent à des conclusions utiles et inclusives, que la voix de jeunes de multiples cultures soit non seulement incluse mais aussi et surtout entendue. Pour une équipe interdisciplinaire basée à l’Institut de Hautes études internationales et du développement (IHEID) travaillant sur le projet « Stories of the Future », soutenu par le Fonds national suisse, cela commence avant tout par la sensibilisation et l’éducation au niveau local. Il s’agit de mettre en lumière le fonctionnement de base de l’IA et ses enjeux afin de permettre aux jeunes de développer une approche critique de cette technologie.
Alors que l’IA devient omniprésente et reste pourtant souvent invisible, et que ses décisions sont souvent opaques et difficilement explicables, il est urgent que les jeunes puissent développer une littératie de l’IA afin de pouvoir contribuer à décider de sa gouvernance au niveau local et international, et bénéficier de ses avancées au lieu de les subir. Une des clés est d’intégrer la littératie de l’IA dans les curriculums.
C’est ce que nous avons pu expérimenter lors des 160 ateliers de prospective narrative que nous avons menés dans des écoles des trois régions linguistiques de Suisse. À cette occasion, nous avons utilisé l’IA générative pour permettre aux jeunes de rédiger un récit du futur sur les implications sociétales de l’IA en se basant sur un des dix principes de l’Unesco pour une approche de l’IA basée sur les droits humains. Cette approche a permis de sensibiliser les jeunes aux enjeux et les aider à développer une compréhension plus critique de cette technologie qui façonnera leur avenir, et dont ils devraient co-construire la gouvernance. La route est longue, mais elle commence dans nos écoles.
Jérôme Duberry, Senior Researcher, Managing Director Tech Hub, Graduate Institute – Institut de hautes études internationales et du développement (IHEID); Christine Lutringer, Senior Researcher and Executive Director, Albert Hirschman Centre on Democracy, Graduate Institute – Institut de hautes études internationales et du développement (IHEID); Laura Bullon-Cassis, Chercheuse post-doctorale, Graduate Institute – Institut de hautes études internationales et du développement (IHEID) et Manuel Hubacher, Postdoctoral collaborator, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.