Accéder au contenu principal

L’Arcep et l’ADEME créent l’observatoire des impacts environnementaux du numérique

Dans un contexte où la société française prend de plus en plus conscience de son empreinte numérique, l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (ARCEP) et l'Agence de la transition écologique (ADEME) viennent de franchir un pas décisif. Ces deux institutions ont annoncé ce jeudi 12 décembre la création d'un observatoire des impacts environnementaux du numérique, une initiative qui promet de révolutionner notre compréhension des enjeux écologiques liés aux technologies de l'information. Cette plateforme, fruit d'une collaboration initiée en 2020 à la demande des ministères de la Transition écologique et de l'Économie, vise à devenir une référence incontournable en matière de données fiables sur l'empreinte environnementale du numérique. "L'observatoire a vocation à constituer une plateforme de référence en matière de données fiables et sourcées sur les impacts environnementaux du numériqu...

Intelligence Artificielle : demain, les robots « créatifs » toucheront-ils des royalties ?

 robot

L'Intelligence Artificielle Midjourney a conçu cette oeuvre, nommée « Théâtre d'opéra spatial ». Jason M. Allen par Midjourney
Par Arnaud Billion, EM Lyon

Les avancées de la robotique et de l’informatique cognitive permettent d’envisager à très court terme une « autonomie » assez large pour les robots ayant accès à une intelligence artificielle (IA), en particulier une autonomie créative.

En effet, les IA dotées de facultés d’apprentissage contribuent, et vont contribuer toujours plus au monde des créations, y compris dans des domaines traditionnellement qualifiés d’artistiques, littéraires ou inventifs.

Ainsi, les IA se sont mises à générer des lignes de codes, et ceci correspond à une production intellectuelle, et artistique, qu’elle soit littéraire ou musicale. À titre d’exemples, on peut lire ceux donnés par le site Intelligence artificielle (qui pour le reste se complaît dans l’anthropomorphisme) : amélioration d’images à faible résolution, génération de personnages de jeux vidéo, écriture de morceaux de musique.

Il faut néanmoins encadrer de larges guillemets le mot « autonomie » : ces machines spontanément, tombent en panne ; les règles qu’elles se donnent sont purement formelles : ce ne sont que des règles de calcul, et pas des normes conçues, considérées, et admises comme lois par les agents numériques. On est ici bien loin de l’autonomie comme composante de la liberté des modernes. C’est-à-dire celle d’agents qui peuvent eux-mêmes reconfigurer leur règle d’action, parce qu’ils y comprennent quelque chose et cherchent à accomplir leur volonté propre.

Pourtant, l’illusion est tenace.

Les experts qui ont participé à ces avancées peuvent alors, bercés de représentations cybernétiques, s’identifier au docteur Frankenstein, à qui sa créature échappe en se personnifiant. Les robots dotés de fonctions d’autoapprentissage semblent capables de corriger eux-mêmes leurs erreurs et d’inventer de nouvelles solutions, de manière assez imprévisible : on se met alors à parler de créativité autonome.

Les robots corrigent bien leurs paramètres, mais seulement dans la couche haute, « logicielle » du système (autrement dit : un programme d’autoapprentissage qui s’arrête, ne se remettra pas en marche, et ne se reconfigurera pas pour éviter l’écueil à l’avenir). Deuxièmement, s’il y a production automatique de nouveaux algorithmes, cela reste une production semi-aléatoire de code logiciel : on ne disposera d’une « nouvelle solution » que dans la mesure où quelqu’un (un être humain), y trouvera intérêt, et un nouveau moyen de l’implémenter.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd'hui]

Une telle explication technique, anti-anthropomorphique, ne convaincra néanmoins que les informaticiens. Le commun des mortels continuera à se demander si l’on peut parler de créativité et d’œuvre artificielle.

Or le juriste (en particulier celui qui se préoccupe de propriété intellectuelle) peut éclairer cette question de la créativité des IA. Il dispose en effet d’une référence, le droit d’auteur, longuement élaboré et démocratiquement délibéré. Sa première question sera de savoir si les productions artificielles peuvent être qualifiées « d’œuvres de l’esprit ».

Le droit d’auteur en France

Sans remonter aux origines (au moins l’imprimatur papale et les patentes royales), le développement du droit d’auteur en France est fortement lié à l’époque révolutionnaire. La propriété de l’auteur sur son œuvre est alors perçue comme « la plus sacrée, la plus légitime, la plus inattaquable, la plus personnelle de toutes ». La justification est le talent de l’écrivain et sa contribution à l’édification commune : Victor Hugo s’exclamera « l’écrivain propriétaire, c’est l’écrivain libre ! ». Ainsi, l’auteur de l’œuvre se voit reconnaître un monopole sur sa création. C’est en fait comme si les idéologies successives s’étaient emparées du droit d’auteur. L’école de Chicago saura proposer des modèles mathématiques d’optimisation de ses règles en vue de sa plus grande efficience sur le marché.

Les développements techniques et technologiques, à partir du XIXe siècle, ont ouvert la voie à un élargissement du domaine d’application du droit d’auteur : protection de l’aspect immatériel des photographies, des enregistrements audio, des œuvres cinématographiques, etc., jusqu’à trouver une application pour le programme logiciel, dont les lignes de code ne sont rien d’autre qu’un texte écrit dans un certain langage. La propriété de ce code est attribuée à la personne qui l’a écrit, comme le serait un roman, dans la mesure où ce code est original.

La production des IA, une œuvre originale ?

Nous pouvons alors ici passer le cas de la production artificielle au filtre de la notion d’œuvre originale, autour de laquelle s’articule le régime du droit d’auteur. Nous découvrirons s’il est juridiquement correct de parler d’œuvres artificielles, dont il s’agirait ensuite d’attribuer la titularité.

La jurisprudence européenne mobilise plusieurs notions et conditions autour de cette question de l’œuvre originale (l’identification précise et objective, l’absence de trop forte contrainte technique, la règle de l’effet utile, l’absence d’emprise sur les idées, etc.) L’analyse permet d’affirmer qu’elles s’articulent globalement autour d’un schème (qui s’avère être aussi une règle du Code français de la propriété intellectuelle) : celui de la conception réalisée.

Le même juge fait également droit au très central critère d’originalité. Il l’entend souvent comme la « marque de l’apport intellectuel propre à l’auteur. » Comment comprendre juridiquement l’expression ? L’apport intellectuel de l’auteur, c’est celui qu’il a pu concevoir dans son esprit créatif. Il ne fait pas que concevoir l’œuvre, il la réalise (il en fait quelque chose de concret). D’où la possibilité qu’il marque l’œuvre de son apport intellectuel propre.

La notion d’« œuvre originale » appliquée au cas artificiel

Revenons aux créations des agents numériques. Ceux-ci ne « conçoivent » rien : c’est le propre du langage informatique (un langage formel calculable) de ne véhiculer aucune signification.

Les instructions informatiques sont dénuées de sens, et le programme informatique n’est pas une pensée. Il est l’assemblage de toutes les instructions ; au mieux (lorsque le logiciel est stable et bien programmé), il fournit un ou des outputs, dont on ne peut pas dire qu’ils procèdent d’une conception… sauf à exhiber le fameux « algorithme ». Il est vrai que d’un certain point de vue, parler de l’algorithme permet de décrire la logique du code, ce qu’on cherche à faire à travers lui. Mais un programme logiciel est composé de très nombreux algorithmes qui d’ailleurs, doivent être implémentés, autant dire : dégradés en formulations de programmation.

Nous sommes ici bien éloignés du créateur humain qui a l’idée de faire œuvre, décide d’une stratégie créative, et mobilise ses idées en vue d’une création.

Dès lors qu’aucune « conception » n’est présente, la « réalisation » est celle d’autre chose. La réalisation des agents numériques, ou celle des opérateurs humains autour du système d’IA, c’est la production technique d’un output technique, à travers un process technique. Que ce dernier soit purement déterministe, ou partiellement aléatoire, ne change rien à l’affaire. Le travail créatif des programmeurs logiciel par exemple, concerne la machine productive, pas la production. Dès lors, l’output global du système ne peut juridiquement pas être appelé « œuvre de l’esprit ». Si l’on cherche des œuvres, on les trouve éventuellement au cours du processus pré-aléa. Ce sont des œuvres logicielles, autrement dit du programme capable de générer la production artificielle. On les trouve encore comme données d’entrées de tout ce processus. Mais nullement en sortie.

La production artificielle ressemble comme deux gouttes d’eau à la création humaine, mais n’a pas été produite comme une œuvre. D’ailleurs, elle est le plus souvent sérielle (comme les Mille milliards de poèmes de Raymond Queneau) : on a affaire à un très grand nombre de produits artificiels. C’est pire encore : elle est sérielle et continue ; c’est-à-dire que les outputs (dans lesquels nous reconnaissons éventuellement des œuvres) s’accumulent dans des bases de données tant que personne n’a songé à arrêter la machine.

Il n’y aurait dès lors aucun sens, économique ou juridique, à privatiser cette production à travers le droit d’auteur.

Le règne des machines à gouverner

Pourquoi persistons-nous à croire aux « robots créatifs » ? Formulons une hypothèse pour expliquer la puissance de cette illusion. Depuis au moins la période moderne, se déploient ce que l’on appelle des « machines à gouverner ».

Ce sont d’abord les lois, procédures puis tous les programmes logiciels. On peut les assimiler dans une catégorie unique, parce qu’ils contiennent tous des prescriptions formelles opérables logiquement. En effet le commandement juridique, au cours de la modernisation du droit sera toujours plus systématisé (on songe à son organisation dans des codes), formalisé exactement (ce qui fait aujourd’hui l’objet de la science dite légistique) de manière à être très bien exécuté (prépondérance du « syllogisme juridique »). Or un système d’instructions formelles calculables n’est rien d’autre qu’un programme logiciel.

Ainsi, le projet juridique moderne s’accomplit dans l’informatique ; ou encore : l’ordinateur est l’environnement de test de la modernité politique.

Le règne des machines à gouverner c’est donc le déploiement incessant depuis des siècles de ces commandements juridiques (et commandes informatiques). Ces millions de prescriptions, plus ou moins instrumentées pour être obéies, sont toujours plus efficientes dans un système (d’information) et toujours moins efficaces dans la réalité. Cette dégradation, qui est aussi celle du « gouvernement » en « gouvernance » est inévitable.

Donnons quelques raisons (techniques et non idéologiques) de l’échec annoncé des modernes, en tant qu’ils s’appuient sur la prescription légale puis informatique :

  • pour être calculée, l’instruction formelle doit être dénuée de signification ;

  • on ne dispose jamais par avance du modèle gouvernant pertinent, encore moins du modèle complet ;

  • les mécanismes qui président aux reconfigurations du système sont bien plus dépendants de contingences diverses, que d’un pur volontarisme éclairé ;

  • trop nombreuses, les prescriptions vouées à être traitées logiquement paralysent un système pris de contradictions logiques.

Nous sommes donc pris dans un système artificiel, fait de normes, de règles et de procédures, système globalement non signifiant. Sous le règne des machines à gouverner, nous perdons le sens commun, et la charge de la preuve s’est globalement renversée en faveur du modèle, contre la vie. Réduisant le territoire à la carte, le projet moderne nous a enfermé dans un monde absurde… un monde (ou plutôt sa représentation) théoriquement calculable, mais fort peu praticable. La loi, rédigée à l’avance et souvent gravée dans le silicium, ne laisse que peu de place au bien-faire en circonstance : occupé à obéir formellement (à exécuter l’instruction, si je suis un robot) je n’ai aucune opinion sur le caractère souhaitable de cette obéissance. S’il m’arrive de bonnes choses, ce n’est plus du fait d’une mobilisation vertueuse, mais seulement par hasard.

Gageons alors que les juristes trouveront un moyen de consacrer juridiquement (à travers une nouvelle série de prescriptions très formelles) les outputs de la machine.The Conversation

Arnaud Billion, Doctorant, AI/IT ethics and sustainability, EM Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est poss...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance lo...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...