Accéder au contenu principal

Les entreprises ne sont pas prêtes à réussir le déploiement de l’IA générative

Une nouvelle étude commandée par Alteryx , la plateforme d'IA pour l'analyse d'entreprise en France, révèle que les organisations ne sont pas prêtes à tirer parti de l'IA générative en raison de leurs données. Le rapport " Data Stack Evolution : Legacy Challenges and AI Opportunities", qui a interrogé 3 100 leaders mondiaux de l'informatique, a mis en évidence des obstacles qui empêchent le déploiement réussi de l'IA générative, notamment la gestion des piles de données, la stratégie technologique et les cultures d'entreprise. Un manque de confiance envers les piles de données L’étude souligne un décalage important entre la confiance que les responsables informatiques mondiaux accordent à leurs données et la réalité de leurs piles de données. En France, alors que 43% des répondants qualifient la maturité de leurs données comme étant "bonne" ou "avancée" et que 68% ont confiance dans leurs données, un cinquième a tout de même évo

Les trois principaux scénarios de deepfake dont il faut se méfier 2023

photo


Analyse de Kaspersky

Le nombre de deepfake publiés en ligne explose de 900 % par an, selon le Forum économique mondial (WEF). De nombreuses actualités liées à des deepfakes ont fait les gros titres, faisant état de récits de vengeance, de harcèlement, d’arnaques à la crypto-monnaie, etc. Aujourd'hui, les chercheurs de Kaspersky mettent en lumière les trois principaux schémas de recours aux deepfakes, face auxquels nous nous devons tous d’être vigilants.

L'utilisation de réseaux de neurones artificiels et du deep learning (d'où est tiré le terme "deep fake") a permis à des internautes du monde entier d’exploiter des images, des vidéos et des sources audio pour créer des vidéos réalistes d'une personne dont le visage ou le corps ont été numériquement modifié, afin de lui faire faire ou dire des choses qui n’ont pas réellement été dites ou faites. Ces vidéos et ces images détournées sont fréquemment utilisées à des fins malveillantes pour propager de fausses informations et pervertir la réalité.

Fraude financière

Les deepfakes peuvent être utilisés comme levier d'ingénierie sociale, les cybercriminels ayant recours à la manipulation d’images afin de se faire passer pour des célébrités et de piéger leurs victimes. L’année dernière, par exemple, une vidéo artificielle d'Elon Musk promettant des rendements élevés dans le cadre d'un plan d'investissement douteux dans les crypto-monnaies est devenue virale, faisant perdre de l'argent aux utilisateurs crédules. Pour créer des deepfakes comme celui-ci, les criminels utilisent des enregistrements où apparaît la célébrité imitée, ou assemblent de vieilles vidéos entre elles pour produire du contenu de  flux diffusé en direct sur les plateformes de réseaux sociaux, dans lequel on leur promet de doubler tout paiement en crypto-monnaie envoyé à l’émetteur de la vidéo. 

Les deepfakes pornographiques

Les deepfakes servent également à porter atteinte à la vie privée d'une personne donnée. De fausses vidéos peuvent être créées en  accolant le visage d'une victime sur une vidéo pornographique préexistante, ce qui peut causer du tort à la personne visée, ainsi que de la détresse émotionnelle. Dans certains cas, il arrive qu’on appose des images de célébrités à des corps d'actrices porno, dans des scènes explicites. Dans de tels cas, les victimes de deepfakes voient leur réputation entachée et leurs droits bafoués.

Les entreprises dans le viseur 

Bien souvent, les deepfakes sont utilisés pour cibler des entreprises à des fins d'extorsion de fonds, de chantage et d'espionnage industriel. Par exemple, dans un cas bien connu des médias, des cybercriminels ont réussi à tromper un directeur de banque aux Émirats arabes unis et à lui voler 35 millions de dollars en utilisant un deepfake vocal. Dans ce cas, un petit enregistrement de la voix du patron d'un employé a suffi pour générer un deepfake convaincant. Dans un autre cas, des escrocs ont tenté de se faire passer pour la plus grande plateforme de crypto-monnaies, Binance. Le directeur exécutif de Binance s’est étonné de recevoir des messages de remerciement au sujet d’une réunion Zoom à laquelle il n'avait jamais assisté. À l'aide des différentes images et vidéos de ce dernier publiées en ligne, accessibles au public, les attaquants ont réussi à générer un deepfake et à le faire participer avec succès lors d'une réunion en ligne, s'exprimant ainsi au nom du dirigeant.
En général, les cybercriminels qui utilisent les deepfakes comme outil ont pour objectif la désinformation et la manipulation de l'opinion publique, le chantage ou même l'espionnage. Selon un communiqué du FBI, les responsables des ressources humaines seraient déjà en alerte concernant l'utilisation de deepfakes par des candidats qui postulent pour un travail à distance. Dans le cas de Binance, les attaquants ont utilisé des images de personnes provenant d'Internet pour créer des deepfakes et ont même pu ajouter les photos de ces personnes à des CV. S'ils parviennent ainsi à tromper les responsables des ressources humaines et qu'ils reçoivent ensuite une offre, ils peuvent récupérer les données de l'employeur. 

Selon le Forum économique mondial (WEF), le nombre de vidéos "deepfake" en ligne augmente de 900 % par an. Cependant, il est également important de prendre en compte le fait que les deepfakes sont un type de fraude très coûteux qui nécessite des investissements importants. Des recherches antérieures menées par Kaspersky ont révélé les types de deepfakes vendus sur le darknet et leurs coûts. Si un utilisateur lambda trouve un logiciel sur internet et tente de créer un deepfake par lui-même, le résultat sera irréaliste, et repérable très facilement à l'œil nu. Peu de gens se laissent berner par des deepfakes de mauvaise qualité : les décalages dans l'expression du visage ou un flou dans la forme du menton sont en effet faciles à remarquer.

Lorsque les cybercriminels préparent une attaque, ils ont besoin d'une grande quantité de données : de photos, de vidéos et d'enregistrements audio de la personne dont ils veulent usurper l'identité. Disposer de contenus les mettant en scène dans différents angles, avec différents niveaux de luminosité, et des expressions faciales variées, joue un rôle important dans la qualité finale de la vidéo produite. Pour que le résultat soit réaliste, il est nécessaire de disposer d'un ordinateur et de logiciels de pointe. Tout cela demande énormément de ressources et n'est accessible qu'à un petit nombre de cybercriminels. Par conséquent, malgré tous les dangers associés au deepfake, il faut bien comprendre qu’il s'agit toujours d'une menace extrêmement rare, que seul un petit nombre d'acheteurs peut s’offrir. En effet, produire une minute de vidéo deepfake peut coûter 20 000 dollars et plus! 

« Parmi tous les risques que les deepfakes peuvent faire courir aux entreprises, le vol de données n’est pas nécessairement le plus grave. Parfois, les atteintes à la réputation peuvent avoir des conséquences bien plus graves. Imaginez qu'une vidéo dans laquelle votre patron fait (en apparence) des déclarations polarisantes sur des questions sensibles soit publiée. Pour les entreprises, cela peut rapidement entraîner une chute du cours des actions. Cependant, bien que les risques associés à ce type de menace soient extrêmement élevés, la probabilité que vous soyez attaqué de cette manière reste extrêmement faible en raison du coût de création des deepfakes et du fait que peu d'attaquants sont capables de créer un deepfake de haute qualité », commente Dmitry Anikin, expert senior en sécurité chez Kaspersky.

« Ce que vous pouvez faire dès aujourd’hui, c'est connaître les principales caractéristiques des deepfakes et garder une attitude sceptique face aux messages vocaux et aux vidéos que vous recevez. Assurez-vous également que vos employés comprennent ce qu'est un deepfake et comment ils peuvent le reconnaître : en scrutant, par exemple, des mouvements saccadés, des changements dans le teint de la peau, des clignements étranges ou l'absence totale de clignements, etc. »

La surveillance continue des ressources du dark web fournit des informations précieuses sur l'industrie du deepfake, permettant aux chercheurs de suivre les dernières tendances et activités des acteurs de la menace dans le web souterrain. En surveillant le darknet, les chercheurs peuvent découvrir de nouveaux outils, services et marchés utilisés pour la création et la distribution de deepfakes. Ce type de surveillance est un élément essentiel de la recherche sur les deepfakes qui contribue à améliorer notre compréhension de l'évolution du paysage des menaces. Le service Digital Footprint Intelligence de Kaspersky intègre ce type de surveillance afin d'aider ses clients à garder une longueur d'avance sur les menaces liées aux deepfakes.

Pour se protéger des menaces liées aux deepfakes, Kaspersky recommande

  • Vérifiez les pratiques de cybersécurité en place dans votre organisation, non seulement en termes de logiciels de sécurité utilisés, mais aussi en termes de compétences informatiques des employés. Utilisez Kaspersky Threat Intelligence pour prendre une longueur d'avance sur le paysage actuel des menaces.
  • Renforcez le « pare-feu humain » de l'entreprise : assurez-vous que les employés comprennent ce que sont les deepfakes, comment ils fonctionnent et les défis qu'ils peuvent poser. Organisez des campagnes de sensibilisation et d'éducation continues pour apprendre aux employés à repérer les deepfakes. Kaspersky Automated Security Awareness Platform aide les employés à se tenir au courant des menaces les plus récentes et améliore leur niveau de culture numérique. 
  • Utilisez des sources d'information de bonne qualité. Le manque de connaissance en matière de fact-checking reste un facteur essentiel permettant la prolifération des deepfakes.
  • Adoptez de bons protocoles, « faites confiance mais vérifiez ». Une attitude sceptique à l'égard des messages vocaux et des vidéos ne garantit pas que les gens ne seront jamais trompés, mais elle permet d'éviter la plupart des pièges les plus courants.
  • Sachez reconnaître les principales caractéristiques des vidéos truquées pour éviter d'en être victime : mouvements saccadés, variations d'éclairage d'une image à l'autre, variations du teint de la peau, clignements étranges ou absence totale de clignements, lèvres mal synchronisées avec la parole, artefacts numériques sur l'image, vidéo intentionnellement encodée en qualité inférieure et mal éclairée.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé