Par Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies, professeur et coordinateur du programme Droit du Numérique & Propriété Intellectuelle et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD).
Le règlement européen sur l’intelligence artificielle (IA) sera bientôt adopté. L’objectif affiché par les instances européennes est de promouvoir un environnement règlementaire qui favorisera l’épanouissement de l’intelligence artificielle tout en prévenant ses dérives. Cependant, pour la France, ce règlement risque de brider l’innovation des startups européennes. Une alternative plus équilibrée est sans doute possible pour préserver celles-ci tout en rémunérant les auteurs de contenu.
Résultat d’un compromis âprement négocié entre gouvernements, après avoir fait l’objet d’un accord politique début décembre, le texte quasi définitif en version anglaise du règlement européen sur l’IA a circulé la semaine dernière. Entretemps, les groupes de travail ont rédigé les derniers articles. Au grand dam des positions françaises, le texte soumet les fabricants des modèles d’IA à des obligations de transparence sur les sources utilisées pour entraîner les algorithmes.
La nouvelle régulation européenne de l’IA va-t-elle trop loin ? Peut-elle entraver la révolution en mouvement de l’intelligence artificielle ? A cette question, les pouvoirs publics français semblent répondre par l’affirmative.
Le gouvernement français s’inquiète notamment de l’obligation faite aux fabricants de modèles d’IA de « rendre public un résumé suffisamment détaillé » des données utilisées pour entraîner leurs logiciels. Il propose que la communication des données soit réservée au futur bureau européen de l’IA, qui agirait comme un tiers de confiance. Il pourrait renseigner les ayants droit inquiets de savoir si leurs contenus ont été utilisés par des IA, mais il ne partagerait pas ces informations avec les entreprises concurrentes. Les organisations professionnelles du cinéma, de la musique, de l’édition ou de l’audiovisuel se sont émues des positions françaises, craignant qu’elles n'affaiblissent la régulation protectrice du droit d’auteur.
La nécessaire protection face aux dangers que l’IA fait peser sur les droits des citoyens ne doit ni ralentir ni affaiblir l’innovation, tout le monde en convient. Les grands pays de l’UE, essentiellement la France, l’Allemagne et l’Italie, pour peser sur le marché de l’IA face à la concurrence américaine ou chinoise, souhaitent en effet préserver au maximum les marges de manœuvre de leurs entreprises - essentiellement des startups. A l’heure où celles-ci lèvent des centaines de millions d’euros pour accélérer la conception et la commercialisation de leurs produits, on ne peut courir le risque d’entraver leur développement.
C’est dans ce contexte que, quelques semaines avant la décision sur l’IA Act, les ministres concernés de France, d’Italie et d’Allemagne se sont rencontrés et ont insisté sur la nécessité d’instaurer une législation "sans bureaucratie inutile". Ils ont appelé en particulier à la réduction des charges administratives pour les projets impliquant plusieurs États membres, ainsi qu'à la formation d'un solide écosystème européen de capital-risque "qui permettrait aux entreprises innovantes de recevoir le financement dont elles ont tant besoin".
Autre point contesté par la France : le seuil à partir duquel les modèles les plus puissants sont considérés comme « systémiques » et soumis à des obligations renforcées d’évaluation et d’atténuation des risques (biais, désinformation, erreurs…). Paris souhaite baisser le critère de puissance de calcul informatique retenu, soit 10 puissance 25 Flops (l’unité de mesure de la rapidité de calcul d’un système informatique).
Les inquiétudes exprimées par la France quant aux marges de manœuvre de ses entreprises face à des règles contraignantes sont largement partagées par les pays qui souhaitent investir dans l’IA, en Europe notamment mais pas seulement. L’Inde, qui se positionne comme un acteur majeur de l’IA et en fait un accélérateur clé de son développement technologique, exprime le même type de craintes quant aux risques que les géants de l’IA font porter sur sa souveraineté numérique.
Une manière de surmonter ce clivage entre régulation et innovation aurait été effectivement de limiter la divulgation des sources aux seuls fournisseurs de systèmes qui intègrent et commercialisent les modèles IA, laissant à ces fournisseurs de systèmes le soin d’obtenir les informations nécessaires auprès de leurs fabricants. Surtout, on pourrait créer un droit dérivé pour rémunérer les auteurs de contenu dont l’œuvre a été utilisée à des fins d’entraînement des algorithmes, à l’instar du droit voisin institué pour les éditeurs de presse (art 13 de la Directive e-copyright de 2019). Enfin, pour éviter l’écueil d’interminables négociations entre les parties prenantes dans chaque pays de l’Union européenne, le nouveau droit voisin pourrait être rémunéré par un fonds européen d’indemnisation des auteurs de contenu financé par l’ industrie.