Accéder au contenu principal

Rançongiciel, une plongée dans le monde de la cybercriminalité

  Les cybercriminels agissent en bandes très organisées, et surtout très modulables. Dan Asaki, Unsplash , CC BY Par  Jean-Yves Marion , Université de Lorraine Europol vient d’ annoncer le démantèlement d’un groupe de rançongiciels en Ukraine . Dans leur forme la plus basique, ces cyberattaques bloquent les systèmes informatiques et exfiltrent les données de la victime, promettant de les restituer contre rançon. Ainsi, en août 2022, une cyberattaque attribuée au rançongiciel LockBit a paralysé le centre hospitalier sud-francilien en exfiltrant 11 Gigaoctets de données de patients et d’employés. L’hôpital a dû fonctionner en « mode dégradé » pendant plusieurs mois, avec les dossiers médicaux inaccessibles et des appareils de soin inutilisables. En juillet 2023, c’est le port de Nagoya, l’un des plus importants du Japon, qui a été obligé de s’arrêter pendant deux jours à cause d’un rançongiciel. De l’exfiltration des données à leur revente sur des marc

ChatGPT nous rendra-t-il moins crédules ?

ia

Par Erwan Lamy, ESCP Business School

Il y a quelques semaines, le 30 novembre 2022, la société OpenAI a livré au monde une nouvelle intelligence artificielle spectaculaire, ChatGPT. Après DALL·E, qui génère des images à partir d’instructions rédigées en langage courant, ChatGPT est capable de mimer presque à la perfection des discussions entières, ou de répondre à des questions complexes en produisant des textes qui semblent tout droit sortis d’un cerveau humain.

Cette nouvelle avancée ne manque pas d’inquiéter, pour des raisons économiques (avec notamment la possible destruction de certains emplois), éthiques (avec par exemple le risque de voir les modèles de langage comme ChatGPT reprendre des discours racistes), ou « épistémiques », ce type d’IA ne faisant pas, à ce jour, la différence entre les informations fiables et les informations douteuses (le terme « épistémique » renvoie à la production ou l’acquisition de connaissances et d’informations fiables).

Il y a pourtant des raisons de penser que la démocratisation de ChatGPT et confrères pourrait être une bonne nouvelle, du moins pour notre rapport à l’information.

Menaces épistémiques

« L’intelligence artificielle peut être un danger épistémique parce qu’elle peut générer des informations convaincantes mais fausses. Cela pourrait remettre en question notre compréhension du monde ou même mettre en danger la validité de notre savoir. Cela a suscité des inquiétudes quant à la possibilité d’utiliser l’IA pour diffuser de la désinformation ou manipuler les croyances des gens. »

Ce n’est pas moi qui le dis, c’est… ChatGPT lui-même ! Le paragraphe qui précède a été généré par cette IA en lui posant cette question : « En quoi l’intelligence artificielle est-elle un danger épistémique ? » On le voit avec cet exemple, les réponses peuvent être très convaincantes. Et pourtant parfaitement sottes. Parfois la sottise saute aux yeux, parfois elle est moins facile à débusquer.

En l’occurrence, s’il n’y a pas grand-chose à redire à propos de la première phrase, la seconde est un cliché vide de sens : que veut dire au juste « remettre en question notre compréhension du monde » ou « mettre en danger la validité de notre savoir » ? La troisième phrase est une simple idiotie : ces IA ne diffusent rien, et ne sont peut-être pas les plus adaptées pour « manipuler » (car on ne contrôle pas bien ce qu’elles produisent).

Mais c’est bien ça qui pose problème : il faut réfléchir pour découvrir le pot aux roses.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Générateur de « bullshit »

Ce qu’il faut comprendre, c’est que ChatGPT n’est pas programmé pour répondre à des questions, mais pour produire des textes crédibles.

Techniquement, ChatGPT est ce que l’on appelle un « modèle de langage ». Un modèle de langage est un algorithme, basé sur des technologies développées ces dernières décennies (les réseaux de neurones, l’apprentissage profond…), capable de calculer la probabilité d’une séquence de mots à partir de l’analyse d’un corpus de textes préexistants. Il est d’autant plus performant que la quantité de texte qu’il a pu « lire » est grande. Dans le cas de ChatGPT, elle est absolument phénoménale.

Ainsi, étant donnée une certaine séquence de mots, ChatGPT est capable de déterminer la séquence de mots la plus probable qui pourrait venir la compléter. ChatGPT peut ainsi « répondre » à une question, de manière nécessairement crédible, puisqu’il calcule la réponse la plus probable. Mais il n’y a aucune logique ni réflexion dans cette réponse. Il n’y a rien de plus qu’un calcul de probabilités. ChatGPT ne se préoccupe pas le moins du monde de la vérité de ses réponses. Autrement dit, c’est un générateur de « bullshit ».

Le « bullshit », depuis quelques années, n’est plus seulement une interjection anglo-américaine, traduisible en français par « foutaise » ou « fumisterie », mais aussi un concept philosophique, depuis que le philosophe Harry Frankfurt en a fait le sujet d’un article puis d’un livre dans les années 2000.

Aujourd’hui, ce sont des chercheurs très sérieux en psychologie, en philosophie, en neurosciences ou en sciences de gestion qui s’intéressent au bullshit. Le concept s’est complexifié mais on peut en retenir ici sa définition originale : le bullshit, c’est l’indifférence à la vérité. Ce n’est pas le mensonge : le menteur est préoccupé par la vérité, en sorte de mieux la travestir. Le bullshiteur, lui, s’en désintéresse et ne cherche qu’à captiver — ce qu’il dit peut parfois tomber juste, parfois non, peu importe.

C’est exactement le cas du très talentueux ChatGPT : lorsque ça ne tombe pas juste, ça ne se voit pas — ou pas immédiatement. Un super-générateur de bullshit, accessible à tous, très simple d’utilisation ? Il y a bien de quoi être inquiet. On peut imaginer sans trop de peine comment cet instrument pourrait être employé très simplement par des éditeurs de contenu peu scrupuleux pour produire de l’« information », d’autant que ChatGPT semble bien pouvoir tromper même des experts académiques sur leurs propres sujets.

Vices et vertus épistémiques

Ce qui est en jeu, c’est une certaine éthique intellectuelle. Contrairement à une opinion très répandue, la production ou l’acquisition de connaissances (scientifiques ou non) n’est pas seulement une affaire de méthode. C’est aussi une affaire morale. Les philosophes parlent de vices ou de vertus « intellectuelles » (ou « épistémiques »), qui peuvent être définis comme des traits de caractère entravant ou au contraire facilitant l’acquisition et la production d’informations fiables.

L’ouverture d’esprit est un exemple de vertu épistémique, le dogmatisme un exemple de vice. Ces notions sont l’objet d’une littérature philosophique toujours plus abondante depuis le début des années 1990, l’épistémologie des vertus. Au départ essentiellement technique, puisqu’il s’agissait de définir correctement la connaissance, ces travaux concernent aussi aujourd’hui les problèmes épistémiques de notre temps : désinformation, fake news, bullshit notamment, ainsi bien sûr que les dangers soulevés par les intelligences artificielles.

Jusque récemment, les épistémologues des vertus discutant des conséquences épistémiques des IA portaient surtout leur attention aux « deepfakes », ces vidéos entièrement générées par des IA du type de DALL·E, et pouvant mettre en scène des individus bien réels dans des situations scabreuses parfaitement imaginaires mais saisissantes de réalisme. Les enseignements tirés de ces réflexions sur les deepfakes sont utiles pour penser les effets possibles de ChatGPT, et peut-être pour nuancer un pessimisme sans doute excessif.

La production de deepfakes est évidemment un problème, mais il est possible que leur généralisation puisse susciter dans le public l’apparition d’une forme de scepticisme généralisé à l’endroit des images, une forme de « cynisme intellectuel ». L’auteur ayant formulé cette proposition (en 2022) y voit un vice épistémique, car cela conduirait à douter autant des informations faisandées que des informations fondées. Je ne suis pas certain qu’un tel cynisme serait si vicieux : ce serait équivalent à revenir à une époque, pas si lointaine, où l’image n’occupait pas une place si grande pour l’acquisition d’information. Il ne me semble pas que cette époque (avant les années 1930) eut été particulièrement vicieuse épistémiquement.

Quoi qu’il en soit, ce cynisme pourrait à son tour susciter le développement d’une vertu épistémique : une certaine « sensibilité numérique », qui permettrait de correctement discerner le bon grain de l’ivraie dans la masse des images et des vidéos circulant sur Internet.

Une telle sensibilité numérique pourrait également être stimulée par ChatGPT. Les lecteurs des productions de cette IA, échaudés par le torrent de « bullshit » qu’elle risque de déverser, pourraient redoubler d’attention à la lecture d’un texte en ligne de la même manière qu’ils pourraient redoubler d’attention face à une image (de crainte d’être trompés par une deepfake) — sans pour autant tomber dans une forme de scepticisme généralisé.

D’un mal pourrait ainsi naître un bien. Plus généralement encore, la montée en puissance de ces IA pourraient mettre au premier plan la nécessité de cultiver les vertus épistémiques, et de combattre les vices, comme la disposition trop commune à ne pas mettre en doute les théories conspirationnistes circulant sur les réseaux sociaux. Au bout du compte, ces technologies inquiétantes pourraient être une bonne nouvelle pour l’éthique intellectuelle.The Conversation

Erwan Lamy, Associate professor, ESCP Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin des cookies tiers ne répond pas au besoin de contrôle des internautes sur leurs données

Pour le moment, la plupart des solutions alternatives aux cookies privilégient l’objectif commercial aux dépens des attentes des internautes. Piqsels , CC BY-SA Par  Carlos Raúl Sánchez Sánchez , Montpellier Business School – UGEI ; Audrey Portes , Montpellier Business School – UGEI et Steffie Gallin , Montpellier Business School – UGEI Les révélations du Wall Street Journal contenues dans les « Facebook Files » , publiés en septembre dernier, ont une nouvelle fois montré que les utilisateurs s’exposaient à des risques liés à la divulgation des informations personnelles. Les réseaux sociaux ne sont pas les seuls en cause : les nombreux data breach (incidents de sécurité en termes de données confidentielles) rendus publics, illustrent régulièrement la vulnérabilité des individus face à une navigation quotidienne sur les moteurs de recherche, sites de e-commerce et autres ayant recours à des « cookies tiers » , ces fichiers de données envoyés par

Des conseils d'administration inquiets et mal préparés face à la menace cyber

Alors que les Assises de la Sécurité ouvrent leurs portes ce mercredi 11 octobre, pour trois jours de réflexion sur l’état de la cybersécurité en France, la société de cybersécurité Proofpoint f ait le point sur le niveau de préparation des organisations face à l’avancée de la menace.  Cette année encore, les résultats montrent que la menace cyber reste omniprésente en France et de plus en plus sophistiquée. Si les organisations en ont bien conscience,  augmentant leur budget et leurs compétences en interne pour y faire face, la grande majorité d’entre elles ne se sont pour autant, pas suffisamment préparées pour l’affronter réellement, estime Proofpoint. En France, 80 % des membres de conseils d’administration interrogés estiment que leur organisation court un risque de cyberattaque d’envergure, contre 78 % en 2022 – 36 % d’entre eux jugent même ce risque très probable. Et si 92 % d’entre eux pensent que leur budget lié à la cybersécurité augmentera au cours des 12 prochains mois, ces

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor