Accéder au contenu principal

Médias : les jeunes ont envie d’une information qui leur ressemble

  Les jeunes ont un rapport à l'information différent de celui de leurs aînés, mais subissent peut-être davantage la fatigue émotionnelle. Pexels/Hasan Zahra , CC BY-NC-ND Par  Arnaud Mercier , Université Paris 2 Panthéon-Assas Beaucoup d’idées simples (quand elles ne sont pas tout bonnement fausses) circulent sur le rapport des adolescents et jeunes adultes à l’information. Ils manqueraient d’appétence pour l’information, seraient frivoles dans leurs centres d’intérêt, délaisseraient la télévision, seraient plus prompts à être bernés par les fake news… Ces idées reçues trahissent une incompréhension des adultes vis-à-vis d’une jeunesse qui n’adoptent pas tous leurs réflexes et usages lorsqu’il s’agit de s’informer. Et un fossé générationnel s’est en effet creusé en la matière qui engendre des incompréhensions et des jugements de valeur hâtifs.Heureusement, de nombreuses données d’enquête permettent de dresser un portrait très différent des jeunes

Intelligence Artificielle : demain, les robots « créatifs » toucheront-ils des royalties ?

 robot

L'Intelligence Artificielle Midjourney a conçu cette oeuvre, nommée « Théâtre d'opéra spatial ». Jason M. Allen par Midjourney
Par Arnaud Billion, EM Lyon

Les avancées de la robotique et de l’informatique cognitive permettent d’envisager à très court terme une « autonomie » assez large pour les robots ayant accès à une intelligence artificielle (IA), en particulier une autonomie créative.

En effet, les IA dotées de facultés d’apprentissage contribuent, et vont contribuer toujours plus au monde des créations, y compris dans des domaines traditionnellement qualifiés d’artistiques, littéraires ou inventifs.

Ainsi, les IA se sont mises à générer des lignes de codes, et ceci correspond à une production intellectuelle, et artistique, qu’elle soit littéraire ou musicale. À titre d’exemples, on peut lire ceux donnés par le site Intelligence artificielle (qui pour le reste se complaît dans l’anthropomorphisme) : amélioration d’images à faible résolution, génération de personnages de jeux vidéo, écriture de morceaux de musique.

Il faut néanmoins encadrer de larges guillemets le mot « autonomie » : ces machines spontanément, tombent en panne ; les règles qu’elles se donnent sont purement formelles : ce ne sont que des règles de calcul, et pas des normes conçues, considérées, et admises comme lois par les agents numériques. On est ici bien loin de l’autonomie comme composante de la liberté des modernes. C’est-à-dire celle d’agents qui peuvent eux-mêmes reconfigurer leur règle d’action, parce qu’ils y comprennent quelque chose et cherchent à accomplir leur volonté propre.

Pourtant, l’illusion est tenace.

Les experts qui ont participé à ces avancées peuvent alors, bercés de représentations cybernétiques, s’identifier au docteur Frankenstein, à qui sa créature échappe en se personnifiant. Les robots dotés de fonctions d’autoapprentissage semblent capables de corriger eux-mêmes leurs erreurs et d’inventer de nouvelles solutions, de manière assez imprévisible : on se met alors à parler de créativité autonome.

Les robots corrigent bien leurs paramètres, mais seulement dans la couche haute, « logicielle » du système (autrement dit : un programme d’autoapprentissage qui s’arrête, ne se remettra pas en marche, et ne se reconfigurera pas pour éviter l’écueil à l’avenir). Deuxièmement, s’il y a production automatique de nouveaux algorithmes, cela reste une production semi-aléatoire de code logiciel : on ne disposera d’une « nouvelle solution » que dans la mesure où quelqu’un (un être humain), y trouvera intérêt, et un nouveau moyen de l’implémenter.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd'hui]

Une telle explication technique, anti-anthropomorphique, ne convaincra néanmoins que les informaticiens. Le commun des mortels continuera à se demander si l’on peut parler de créativité et d’œuvre artificielle.

Or le juriste (en particulier celui qui se préoccupe de propriété intellectuelle) peut éclairer cette question de la créativité des IA. Il dispose en effet d’une référence, le droit d’auteur, longuement élaboré et démocratiquement délibéré. Sa première question sera de savoir si les productions artificielles peuvent être qualifiées « d’œuvres de l’esprit ».

Le droit d’auteur en France

Sans remonter aux origines (au moins l’imprimatur papale et les patentes royales), le développement du droit d’auteur en France est fortement lié à l’époque révolutionnaire. La propriété de l’auteur sur son œuvre est alors perçue comme « la plus sacrée, la plus légitime, la plus inattaquable, la plus personnelle de toutes ». La justification est le talent de l’écrivain et sa contribution à l’édification commune : Victor Hugo s’exclamera « l’écrivain propriétaire, c’est l’écrivain libre ! ». Ainsi, l’auteur de l’œuvre se voit reconnaître un monopole sur sa création. C’est en fait comme si les idéologies successives s’étaient emparées du droit d’auteur. L’école de Chicago saura proposer des modèles mathématiques d’optimisation de ses règles en vue de sa plus grande efficience sur le marché.

Les développements techniques et technologiques, à partir du XIXe siècle, ont ouvert la voie à un élargissement du domaine d’application du droit d’auteur : protection de l’aspect immatériel des photographies, des enregistrements audio, des œuvres cinématographiques, etc., jusqu’à trouver une application pour le programme logiciel, dont les lignes de code ne sont rien d’autre qu’un texte écrit dans un certain langage. La propriété de ce code est attribuée à la personne qui l’a écrit, comme le serait un roman, dans la mesure où ce code est original.

La production des IA, une œuvre originale ?

Nous pouvons alors ici passer le cas de la production artificielle au filtre de la notion d’œuvre originale, autour de laquelle s’articule le régime du droit d’auteur. Nous découvrirons s’il est juridiquement correct de parler d’œuvres artificielles, dont il s’agirait ensuite d’attribuer la titularité.

La jurisprudence européenne mobilise plusieurs notions et conditions autour de cette question de l’œuvre originale (l’identification précise et objective, l’absence de trop forte contrainte technique, la règle de l’effet utile, l’absence d’emprise sur les idées, etc.) L’analyse permet d’affirmer qu’elles s’articulent globalement autour d’un schème (qui s’avère être aussi une règle du Code français de la propriété intellectuelle) : celui de la conception réalisée.

Le même juge fait également droit au très central critère d’originalité. Il l’entend souvent comme la « marque de l’apport intellectuel propre à l’auteur. » Comment comprendre juridiquement l’expression ? L’apport intellectuel de l’auteur, c’est celui qu’il a pu concevoir dans son esprit créatif. Il ne fait pas que concevoir l’œuvre, il la réalise (il en fait quelque chose de concret). D’où la possibilité qu’il marque l’œuvre de son apport intellectuel propre.

La notion d’« œuvre originale » appliquée au cas artificiel

Revenons aux créations des agents numériques. Ceux-ci ne « conçoivent » rien : c’est le propre du langage informatique (un langage formel calculable) de ne véhiculer aucune signification.

Les instructions informatiques sont dénuées de sens, et le programme informatique n’est pas une pensée. Il est l’assemblage de toutes les instructions ; au mieux (lorsque le logiciel est stable et bien programmé), il fournit un ou des outputs, dont on ne peut pas dire qu’ils procèdent d’une conception… sauf à exhiber le fameux « algorithme ». Il est vrai que d’un certain point de vue, parler de l’algorithme permet de décrire la logique du code, ce qu’on cherche à faire à travers lui. Mais un programme logiciel est composé de très nombreux algorithmes qui d’ailleurs, doivent être implémentés, autant dire : dégradés en formulations de programmation.

Nous sommes ici bien éloignés du créateur humain qui a l’idée de faire œuvre, décide d’une stratégie créative, et mobilise ses idées en vue d’une création.

Dès lors qu’aucune « conception » n’est présente, la « réalisation » est celle d’autre chose. La réalisation des agents numériques, ou celle des opérateurs humains autour du système d’IA, c’est la production technique d’un output technique, à travers un process technique. Que ce dernier soit purement déterministe, ou partiellement aléatoire, ne change rien à l’affaire. Le travail créatif des programmeurs logiciel par exemple, concerne la machine productive, pas la production. Dès lors, l’output global du système ne peut juridiquement pas être appelé « œuvre de l’esprit ». Si l’on cherche des œuvres, on les trouve éventuellement au cours du processus pré-aléa. Ce sont des œuvres logicielles, autrement dit du programme capable de générer la production artificielle. On les trouve encore comme données d’entrées de tout ce processus. Mais nullement en sortie.

La production artificielle ressemble comme deux gouttes d’eau à la création humaine, mais n’a pas été produite comme une œuvre. D’ailleurs, elle est le plus souvent sérielle (comme les Mille milliards de poèmes de Raymond Queneau) : on a affaire à un très grand nombre de produits artificiels. C’est pire encore : elle est sérielle et continue ; c’est-à-dire que les outputs (dans lesquels nous reconnaissons éventuellement des œuvres) s’accumulent dans des bases de données tant que personne n’a songé à arrêter la machine.

Il n’y aurait dès lors aucun sens, économique ou juridique, à privatiser cette production à travers le droit d’auteur.

Le règne des machines à gouverner

Pourquoi persistons-nous à croire aux « robots créatifs » ? Formulons une hypothèse pour expliquer la puissance de cette illusion. Depuis au moins la période moderne, se déploient ce que l’on appelle des « machines à gouverner ».

Ce sont d’abord les lois, procédures puis tous les programmes logiciels. On peut les assimiler dans une catégorie unique, parce qu’ils contiennent tous des prescriptions formelles opérables logiquement. En effet le commandement juridique, au cours de la modernisation du droit sera toujours plus systématisé (on songe à son organisation dans des codes), formalisé exactement (ce qui fait aujourd’hui l’objet de la science dite légistique) de manière à être très bien exécuté (prépondérance du « syllogisme juridique »). Or un système d’instructions formelles calculables n’est rien d’autre qu’un programme logiciel.

Ainsi, le projet juridique moderne s’accomplit dans l’informatique ; ou encore : l’ordinateur est l’environnement de test de la modernité politique.

Le règne des machines à gouverner c’est donc le déploiement incessant depuis des siècles de ces commandements juridiques (et commandes informatiques). Ces millions de prescriptions, plus ou moins instrumentées pour être obéies, sont toujours plus efficientes dans un système (d’information) et toujours moins efficaces dans la réalité. Cette dégradation, qui est aussi celle du « gouvernement » en « gouvernance » est inévitable.

Donnons quelques raisons (techniques et non idéologiques) de l’échec annoncé des modernes, en tant qu’ils s’appuient sur la prescription légale puis informatique :

  • pour être calculée, l’instruction formelle doit être dénuée de signification ;

  • on ne dispose jamais par avance du modèle gouvernant pertinent, encore moins du modèle complet ;

  • les mécanismes qui président aux reconfigurations du système sont bien plus dépendants de contingences diverses, que d’un pur volontarisme éclairé ;

  • trop nombreuses, les prescriptions vouées à être traitées logiquement paralysent un système pris de contradictions logiques.

Nous sommes donc pris dans un système artificiel, fait de normes, de règles et de procédures, système globalement non signifiant. Sous le règne des machines à gouverner, nous perdons le sens commun, et la charge de la preuve s’est globalement renversée en faveur du modèle, contre la vie. Réduisant le territoire à la carte, le projet moderne nous a enfermé dans un monde absurde… un monde (ou plutôt sa représentation) théoriquement calculable, mais fort peu praticable. La loi, rédigée à l’avance et souvent gravée dans le silicium, ne laisse que peu de place au bien-faire en circonstance : occupé à obéir formellement (à exécuter l’instruction, si je suis un robot) je n’ai aucune opinion sur le caractère souhaitable de cette obéissance. S’il m’arrive de bonnes choses, ce n’est plus du fait d’une mobilisation vertueuse, mais seulement par hasard.

Gageons alors que les juristes trouveront un moyen de consacrer juridiquement (à travers une nouvelle série de prescriptions très formelles) les outputs de la machine.The Conversation

Arnaud Billion, Doctorant, AI/IT ethics and sustainability, EM Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin des cookies tiers ne répond pas au besoin de contrôle des internautes sur leurs données

Pour le moment, la plupart des solutions alternatives aux cookies privilégient l’objectif commercial aux dépens des attentes des internautes. Piqsels , CC BY-SA Par  Carlos Raúl Sánchez Sánchez , Montpellier Business School – UGEI ; Audrey Portes , Montpellier Business School – UGEI et Steffie Gallin , Montpellier Business School – UGEI Les révélations du Wall Street Journal contenues dans les « Facebook Files » , publiés en septembre dernier, ont une nouvelle fois montré que les utilisateurs s’exposaient à des risques liés à la divulgation des informations personnelles. Les réseaux sociaux ne sont pas les seuls en cause : les nombreux data breach (incidents de sécurité en termes de données confidentielles) rendus publics, illustrent régulièrement la vulnérabilité des individus face à une navigation quotidienne sur les moteurs de recherche, sites de e-commerce et autres ayant recours à des « cookies tiers » , ces fichiers de données envoyés par

Des conseils d'administration inquiets et mal préparés face à la menace cyber

Alors que les Assises de la Sécurité ouvrent leurs portes ce mercredi 11 octobre, pour trois jours de réflexion sur l’état de la cybersécurité en France, la société de cybersécurité Proofpoint f ait le point sur le niveau de préparation des organisations face à l’avancée de la menace.  Cette année encore, les résultats montrent que la menace cyber reste omniprésente en France et de plus en plus sophistiquée. Si les organisations en ont bien conscience,  augmentant leur budget et leurs compétences en interne pour y faire face, la grande majorité d’entre elles ne se sont pour autant, pas suffisamment préparées pour l’affronter réellement, estime Proofpoint. En France, 80 % des membres de conseils d’administration interrogés estiment que leur organisation court un risque de cyberattaque d’envergure, contre 78 % en 2022 – 36 % d’entre eux jugent même ce risque très probable. Et si 92 % d’entre eux pensent que leur budget lié à la cybersécurité augmentera au cours des 12 prochains mois, ces

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor