Accéder au contenu principal

Le leadership visionnaire : l’élément essentiel du succès dans le secteur de l’IT

  Par Antony Derbes, Président d’Open Lake Technology Dans le monde dynamique et en constante évolution de la technologie de l'information, le leadership joue un rôle crucial. Je suis convaincu que le bon leadership est la clé pour naviguer avec succès dans cet environnement complexe. Le secteur de l'IT est caractérisé par son rythme effréné, ses avancées rapides et ses défis sans cesse changeants. Dans un tel contexte, un leadership fort et visionnaire est essentiel pour guider les équipes vers le succès. Mais quels sont les éléments clés d'un bon leadership dans le domaine de la technologie ? Tout d'abord, un leader efficace dans le secteur de l'IT doit posséder une vision claire de l'avenir. Cette vision doit être à la fois ambitieuse et réalisable, guidant l'entreprise vers de nouveaux horizons tout en tenant compte des réalités du marché et des capacités de l'organisation. En tant que leaders, nous devons constamment anticiper les tendances, identif

Intelligence Artificielle : demain, les robots « créatifs » toucheront-ils des royalties ?

 robot

L'Intelligence Artificielle Midjourney a conçu cette oeuvre, nommée « Théâtre d'opéra spatial ». Jason M. Allen par Midjourney
Par Arnaud Billion, EM Lyon

Les avancées de la robotique et de l’informatique cognitive permettent d’envisager à très court terme une « autonomie » assez large pour les robots ayant accès à une intelligence artificielle (IA), en particulier une autonomie créative.

En effet, les IA dotées de facultés d’apprentissage contribuent, et vont contribuer toujours plus au monde des créations, y compris dans des domaines traditionnellement qualifiés d’artistiques, littéraires ou inventifs.

Ainsi, les IA se sont mises à générer des lignes de codes, et ceci correspond à une production intellectuelle, et artistique, qu’elle soit littéraire ou musicale. À titre d’exemples, on peut lire ceux donnés par le site Intelligence artificielle (qui pour le reste se complaît dans l’anthropomorphisme) : amélioration d’images à faible résolution, génération de personnages de jeux vidéo, écriture de morceaux de musique.

Il faut néanmoins encadrer de larges guillemets le mot « autonomie » : ces machines spontanément, tombent en panne ; les règles qu’elles se donnent sont purement formelles : ce ne sont que des règles de calcul, et pas des normes conçues, considérées, et admises comme lois par les agents numériques. On est ici bien loin de l’autonomie comme composante de la liberté des modernes. C’est-à-dire celle d’agents qui peuvent eux-mêmes reconfigurer leur règle d’action, parce qu’ils y comprennent quelque chose et cherchent à accomplir leur volonté propre.

Pourtant, l’illusion est tenace.

Les experts qui ont participé à ces avancées peuvent alors, bercés de représentations cybernétiques, s’identifier au docteur Frankenstein, à qui sa créature échappe en se personnifiant. Les robots dotés de fonctions d’autoapprentissage semblent capables de corriger eux-mêmes leurs erreurs et d’inventer de nouvelles solutions, de manière assez imprévisible : on se met alors à parler de créativité autonome.

Les robots corrigent bien leurs paramètres, mais seulement dans la couche haute, « logicielle » du système (autrement dit : un programme d’autoapprentissage qui s’arrête, ne se remettra pas en marche, et ne se reconfigurera pas pour éviter l’écueil à l’avenir). Deuxièmement, s’il y a production automatique de nouveaux algorithmes, cela reste une production semi-aléatoire de code logiciel : on ne disposera d’une « nouvelle solution » que dans la mesure où quelqu’un (un être humain), y trouvera intérêt, et un nouveau moyen de l’implémenter.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd'hui]

Une telle explication technique, anti-anthropomorphique, ne convaincra néanmoins que les informaticiens. Le commun des mortels continuera à se demander si l’on peut parler de créativité et d’œuvre artificielle.

Or le juriste (en particulier celui qui se préoccupe de propriété intellectuelle) peut éclairer cette question de la créativité des IA. Il dispose en effet d’une référence, le droit d’auteur, longuement élaboré et démocratiquement délibéré. Sa première question sera de savoir si les productions artificielles peuvent être qualifiées « d’œuvres de l’esprit ».

Le droit d’auteur en France

Sans remonter aux origines (au moins l’imprimatur papale et les patentes royales), le développement du droit d’auteur en France est fortement lié à l’époque révolutionnaire. La propriété de l’auteur sur son œuvre est alors perçue comme « la plus sacrée, la plus légitime, la plus inattaquable, la plus personnelle de toutes ». La justification est le talent de l’écrivain et sa contribution à l’édification commune : Victor Hugo s’exclamera « l’écrivain propriétaire, c’est l’écrivain libre ! ». Ainsi, l’auteur de l’œuvre se voit reconnaître un monopole sur sa création. C’est en fait comme si les idéologies successives s’étaient emparées du droit d’auteur. L’école de Chicago saura proposer des modèles mathématiques d’optimisation de ses règles en vue de sa plus grande efficience sur le marché.

Les développements techniques et technologiques, à partir du XIXe siècle, ont ouvert la voie à un élargissement du domaine d’application du droit d’auteur : protection de l’aspect immatériel des photographies, des enregistrements audio, des œuvres cinématographiques, etc., jusqu’à trouver une application pour le programme logiciel, dont les lignes de code ne sont rien d’autre qu’un texte écrit dans un certain langage. La propriété de ce code est attribuée à la personne qui l’a écrit, comme le serait un roman, dans la mesure où ce code est original.

La production des IA, une œuvre originale ?

Nous pouvons alors ici passer le cas de la production artificielle au filtre de la notion d’œuvre originale, autour de laquelle s’articule le régime du droit d’auteur. Nous découvrirons s’il est juridiquement correct de parler d’œuvres artificielles, dont il s’agirait ensuite d’attribuer la titularité.

La jurisprudence européenne mobilise plusieurs notions et conditions autour de cette question de l’œuvre originale (l’identification précise et objective, l’absence de trop forte contrainte technique, la règle de l’effet utile, l’absence d’emprise sur les idées, etc.) L’analyse permet d’affirmer qu’elles s’articulent globalement autour d’un schème (qui s’avère être aussi une règle du Code français de la propriété intellectuelle) : celui de la conception réalisée.

Le même juge fait également droit au très central critère d’originalité. Il l’entend souvent comme la « marque de l’apport intellectuel propre à l’auteur. » Comment comprendre juridiquement l’expression ? L’apport intellectuel de l’auteur, c’est celui qu’il a pu concevoir dans son esprit créatif. Il ne fait pas que concevoir l’œuvre, il la réalise (il en fait quelque chose de concret). D’où la possibilité qu’il marque l’œuvre de son apport intellectuel propre.

La notion d’« œuvre originale » appliquée au cas artificiel

Revenons aux créations des agents numériques. Ceux-ci ne « conçoivent » rien : c’est le propre du langage informatique (un langage formel calculable) de ne véhiculer aucune signification.

Les instructions informatiques sont dénuées de sens, et le programme informatique n’est pas une pensée. Il est l’assemblage de toutes les instructions ; au mieux (lorsque le logiciel est stable et bien programmé), il fournit un ou des outputs, dont on ne peut pas dire qu’ils procèdent d’une conception… sauf à exhiber le fameux « algorithme ». Il est vrai que d’un certain point de vue, parler de l’algorithme permet de décrire la logique du code, ce qu’on cherche à faire à travers lui. Mais un programme logiciel est composé de très nombreux algorithmes qui d’ailleurs, doivent être implémentés, autant dire : dégradés en formulations de programmation.

Nous sommes ici bien éloignés du créateur humain qui a l’idée de faire œuvre, décide d’une stratégie créative, et mobilise ses idées en vue d’une création.

Dès lors qu’aucune « conception » n’est présente, la « réalisation » est celle d’autre chose. La réalisation des agents numériques, ou celle des opérateurs humains autour du système d’IA, c’est la production technique d’un output technique, à travers un process technique. Que ce dernier soit purement déterministe, ou partiellement aléatoire, ne change rien à l’affaire. Le travail créatif des programmeurs logiciel par exemple, concerne la machine productive, pas la production. Dès lors, l’output global du système ne peut juridiquement pas être appelé « œuvre de l’esprit ». Si l’on cherche des œuvres, on les trouve éventuellement au cours du processus pré-aléa. Ce sont des œuvres logicielles, autrement dit du programme capable de générer la production artificielle. On les trouve encore comme données d’entrées de tout ce processus. Mais nullement en sortie.

La production artificielle ressemble comme deux gouttes d’eau à la création humaine, mais n’a pas été produite comme une œuvre. D’ailleurs, elle est le plus souvent sérielle (comme les Mille milliards de poèmes de Raymond Queneau) : on a affaire à un très grand nombre de produits artificiels. C’est pire encore : elle est sérielle et continue ; c’est-à-dire que les outputs (dans lesquels nous reconnaissons éventuellement des œuvres) s’accumulent dans des bases de données tant que personne n’a songé à arrêter la machine.

Il n’y aurait dès lors aucun sens, économique ou juridique, à privatiser cette production à travers le droit d’auteur.

Le règne des machines à gouverner

Pourquoi persistons-nous à croire aux « robots créatifs » ? Formulons une hypothèse pour expliquer la puissance de cette illusion. Depuis au moins la période moderne, se déploient ce que l’on appelle des « machines à gouverner ».

Ce sont d’abord les lois, procédures puis tous les programmes logiciels. On peut les assimiler dans une catégorie unique, parce qu’ils contiennent tous des prescriptions formelles opérables logiquement. En effet le commandement juridique, au cours de la modernisation du droit sera toujours plus systématisé (on songe à son organisation dans des codes), formalisé exactement (ce qui fait aujourd’hui l’objet de la science dite légistique) de manière à être très bien exécuté (prépondérance du « syllogisme juridique »). Or un système d’instructions formelles calculables n’est rien d’autre qu’un programme logiciel.

Ainsi, le projet juridique moderne s’accomplit dans l’informatique ; ou encore : l’ordinateur est l’environnement de test de la modernité politique.

Le règne des machines à gouverner c’est donc le déploiement incessant depuis des siècles de ces commandements juridiques (et commandes informatiques). Ces millions de prescriptions, plus ou moins instrumentées pour être obéies, sont toujours plus efficientes dans un système (d’information) et toujours moins efficaces dans la réalité. Cette dégradation, qui est aussi celle du « gouvernement » en « gouvernance » est inévitable.

Donnons quelques raisons (techniques et non idéologiques) de l’échec annoncé des modernes, en tant qu’ils s’appuient sur la prescription légale puis informatique :

  • pour être calculée, l’instruction formelle doit être dénuée de signification ;

  • on ne dispose jamais par avance du modèle gouvernant pertinent, encore moins du modèle complet ;

  • les mécanismes qui président aux reconfigurations du système sont bien plus dépendants de contingences diverses, que d’un pur volontarisme éclairé ;

  • trop nombreuses, les prescriptions vouées à être traitées logiquement paralysent un système pris de contradictions logiques.

Nous sommes donc pris dans un système artificiel, fait de normes, de règles et de procédures, système globalement non signifiant. Sous le règne des machines à gouverner, nous perdons le sens commun, et la charge de la preuve s’est globalement renversée en faveur du modèle, contre la vie. Réduisant le territoire à la carte, le projet moderne nous a enfermé dans un monde absurde… un monde (ou plutôt sa représentation) théoriquement calculable, mais fort peu praticable. La loi, rédigée à l’avance et souvent gravée dans le silicium, ne laisse que peu de place au bien-faire en circonstance : occupé à obéir formellement (à exécuter l’instruction, si je suis un robot) je n’ai aucune opinion sur le caractère souhaitable de cette obéissance. S’il m’arrive de bonnes choses, ce n’est plus du fait d’une mobilisation vertueuse, mais seulement par hasard.

Gageons alors que les juristes trouveront un moyen de consacrer juridiquement (à travers une nouvelle série de prescriptions très formelles) les outputs de la machine.The Conversation

Arnaud Billion, Doctorant, AI/IT ethics and sustainability, EM Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl