Accéder au contenu principal

Le leadership visionnaire : l’élément essentiel du succès dans le secteur de l’IT

  Par Antony Derbes, Président d’Open Lake Technology Dans le monde dynamique et en constante évolution de la technologie de l'information, le leadership joue un rôle crucial. Je suis convaincu que le bon leadership est la clé pour naviguer avec succès dans cet environnement complexe. Le secteur de l'IT est caractérisé par son rythme effréné, ses avancées rapides et ses défis sans cesse changeants. Dans un tel contexte, un leadership fort et visionnaire est essentiel pour guider les équipes vers le succès. Mais quels sont les éléments clés d'un bon leadership dans le domaine de la technologie ? Tout d'abord, un leader efficace dans le secteur de l'IT doit posséder une vision claire de l'avenir. Cette vision doit être à la fois ambitieuse et réalisable, guidant l'entreprise vers de nouveaux horizons tout en tenant compte des réalités du marché et des capacités de l'organisation. En tant que leaders, nous devons constamment anticiper les tendances, identif

ChatGPT nous rendra-t-il moins crédules ?

ia

Par Erwan Lamy, ESCP Business School

Il y a quelques semaines, le 30 novembre 2022, la société OpenAI a livré au monde une nouvelle intelligence artificielle spectaculaire, ChatGPT. Après DALL·E, qui génère des images à partir d’instructions rédigées en langage courant, ChatGPT est capable de mimer presque à la perfection des discussions entières, ou de répondre à des questions complexes en produisant des textes qui semblent tout droit sortis d’un cerveau humain.

Cette nouvelle avancée ne manque pas d’inquiéter, pour des raisons économiques (avec notamment la possible destruction de certains emplois), éthiques (avec par exemple le risque de voir les modèles de langage comme ChatGPT reprendre des discours racistes), ou « épistémiques », ce type d’IA ne faisant pas, à ce jour, la différence entre les informations fiables et les informations douteuses (le terme « épistémique » renvoie à la production ou l’acquisition de connaissances et d’informations fiables).

Il y a pourtant des raisons de penser que la démocratisation de ChatGPT et confrères pourrait être une bonne nouvelle, du moins pour notre rapport à l’information.

Menaces épistémiques

« L’intelligence artificielle peut être un danger épistémique parce qu’elle peut générer des informations convaincantes mais fausses. Cela pourrait remettre en question notre compréhension du monde ou même mettre en danger la validité de notre savoir. Cela a suscité des inquiétudes quant à la possibilité d’utiliser l’IA pour diffuser de la désinformation ou manipuler les croyances des gens. »

Ce n’est pas moi qui le dis, c’est… ChatGPT lui-même ! Le paragraphe qui précède a été généré par cette IA en lui posant cette question : « En quoi l’intelligence artificielle est-elle un danger épistémique ? » On le voit avec cet exemple, les réponses peuvent être très convaincantes. Et pourtant parfaitement sottes. Parfois la sottise saute aux yeux, parfois elle est moins facile à débusquer.

En l’occurrence, s’il n’y a pas grand-chose à redire à propos de la première phrase, la seconde est un cliché vide de sens : que veut dire au juste « remettre en question notre compréhension du monde » ou « mettre en danger la validité de notre savoir » ? La troisième phrase est une simple idiotie : ces IA ne diffusent rien, et ne sont peut-être pas les plus adaptées pour « manipuler » (car on ne contrôle pas bien ce qu’elles produisent).

Mais c’est bien ça qui pose problème : il faut réfléchir pour découvrir le pot aux roses.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Générateur de « bullshit »

Ce qu’il faut comprendre, c’est que ChatGPT n’est pas programmé pour répondre à des questions, mais pour produire des textes crédibles.

Techniquement, ChatGPT est ce que l’on appelle un « modèle de langage ». Un modèle de langage est un algorithme, basé sur des technologies développées ces dernières décennies (les réseaux de neurones, l’apprentissage profond…), capable de calculer la probabilité d’une séquence de mots à partir de l’analyse d’un corpus de textes préexistants. Il est d’autant plus performant que la quantité de texte qu’il a pu « lire » est grande. Dans le cas de ChatGPT, elle est absolument phénoménale.

Ainsi, étant donnée une certaine séquence de mots, ChatGPT est capable de déterminer la séquence de mots la plus probable qui pourrait venir la compléter. ChatGPT peut ainsi « répondre » à une question, de manière nécessairement crédible, puisqu’il calcule la réponse la plus probable. Mais il n’y a aucune logique ni réflexion dans cette réponse. Il n’y a rien de plus qu’un calcul de probabilités. ChatGPT ne se préoccupe pas le moins du monde de la vérité de ses réponses. Autrement dit, c’est un générateur de « bullshit ».

Le « bullshit », depuis quelques années, n’est plus seulement une interjection anglo-américaine, traduisible en français par « foutaise » ou « fumisterie », mais aussi un concept philosophique, depuis que le philosophe Harry Frankfurt en a fait le sujet d’un article puis d’un livre dans les années 2000.

Aujourd’hui, ce sont des chercheurs très sérieux en psychologie, en philosophie, en neurosciences ou en sciences de gestion qui s’intéressent au bullshit. Le concept s’est complexifié mais on peut en retenir ici sa définition originale : le bullshit, c’est l’indifférence à la vérité. Ce n’est pas le mensonge : le menteur est préoccupé par la vérité, en sorte de mieux la travestir. Le bullshiteur, lui, s’en désintéresse et ne cherche qu’à captiver — ce qu’il dit peut parfois tomber juste, parfois non, peu importe.

C’est exactement le cas du très talentueux ChatGPT : lorsque ça ne tombe pas juste, ça ne se voit pas — ou pas immédiatement. Un super-générateur de bullshit, accessible à tous, très simple d’utilisation ? Il y a bien de quoi être inquiet. On peut imaginer sans trop de peine comment cet instrument pourrait être employé très simplement par des éditeurs de contenu peu scrupuleux pour produire de l’« information », d’autant que ChatGPT semble bien pouvoir tromper même des experts académiques sur leurs propres sujets.

Vices et vertus épistémiques

Ce qui est en jeu, c’est une certaine éthique intellectuelle. Contrairement à une opinion très répandue, la production ou l’acquisition de connaissances (scientifiques ou non) n’est pas seulement une affaire de méthode. C’est aussi une affaire morale. Les philosophes parlent de vices ou de vertus « intellectuelles » (ou « épistémiques »), qui peuvent être définis comme des traits de caractère entravant ou au contraire facilitant l’acquisition et la production d’informations fiables.

L’ouverture d’esprit est un exemple de vertu épistémique, le dogmatisme un exemple de vice. Ces notions sont l’objet d’une littérature philosophique toujours plus abondante depuis le début des années 1990, l’épistémologie des vertus. Au départ essentiellement technique, puisqu’il s’agissait de définir correctement la connaissance, ces travaux concernent aussi aujourd’hui les problèmes épistémiques de notre temps : désinformation, fake news, bullshit notamment, ainsi bien sûr que les dangers soulevés par les intelligences artificielles.

Jusque récemment, les épistémologues des vertus discutant des conséquences épistémiques des IA portaient surtout leur attention aux « deepfakes », ces vidéos entièrement générées par des IA du type de DALL·E, et pouvant mettre en scène des individus bien réels dans des situations scabreuses parfaitement imaginaires mais saisissantes de réalisme. Les enseignements tirés de ces réflexions sur les deepfakes sont utiles pour penser les effets possibles de ChatGPT, et peut-être pour nuancer un pessimisme sans doute excessif.

La production de deepfakes est évidemment un problème, mais il est possible que leur généralisation puisse susciter dans le public l’apparition d’une forme de scepticisme généralisé à l’endroit des images, une forme de « cynisme intellectuel ». L’auteur ayant formulé cette proposition (en 2022) y voit un vice épistémique, car cela conduirait à douter autant des informations faisandées que des informations fondées. Je ne suis pas certain qu’un tel cynisme serait si vicieux : ce serait équivalent à revenir à une époque, pas si lointaine, où l’image n’occupait pas une place si grande pour l’acquisition d’information. Il ne me semble pas que cette époque (avant les années 1930) eut été particulièrement vicieuse épistémiquement.

Quoi qu’il en soit, ce cynisme pourrait à son tour susciter le développement d’une vertu épistémique : une certaine « sensibilité numérique », qui permettrait de correctement discerner le bon grain de l’ivraie dans la masse des images et des vidéos circulant sur Internet.

Une telle sensibilité numérique pourrait également être stimulée par ChatGPT. Les lecteurs des productions de cette IA, échaudés par le torrent de « bullshit » qu’elle risque de déverser, pourraient redoubler d’attention à la lecture d’un texte en ligne de la même manière qu’ils pourraient redoubler d’attention face à une image (de crainte d’être trompés par une deepfake) — sans pour autant tomber dans une forme de scepticisme généralisé.

D’un mal pourrait ainsi naître un bien. Plus généralement encore, la montée en puissance de ces IA pourraient mettre au premier plan la nécessité de cultiver les vertus épistémiques, et de combattre les vices, comme la disposition trop commune à ne pas mettre en doute les théories conspirationnistes circulant sur les réseaux sociaux. Au bout du compte, ces technologies inquiétantes pourraient être une bonne nouvelle pour l’éthique intellectuelle.The Conversation

Erwan Lamy, Associate professor, ESCP Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in