Accéder au contenu principal

Fondation Pierre Fabre : quel rôle pour l'intelligence artificielle dans l'accès aux soins des pays du Sud ?

L’intelligence artificielle touche de plus en plus de domaines de la vie économique et sociale. Son entrée dans le secteur de la santé a déjà bouleversé les pratiques, notamment dans la recherche médicale ou le diagnostic de pathologies, où elle apparaît comme un outil utile et parfois déterminant. Un outil qui pourrait révolutionner la santé dans les pays du Sud. C’est la conviction de la Fondation Pierre Fabre, propriétaire des laboratoires Pierre Fabre, qui organise, jeudi 28 septembre à Lavaur, dans le Tarn, la septième édition de la Conférence annuelle de l’Observatoire de la e-Santé dans les Pays du Sud (ODESS, créé en 2016) autour de l’IA. Avec une conférence intitulée « Améliorer l’accès à la santé dans les pays du Sud : quel rôle pour l’IA ? », la Fondation a convié des experts pour répondre aux questions que soulève le déploiement de l’intelligence artificielle. L’IA peut-elle accélérer le renforcement des systèmes de santé dans les pays du Sud ? Ou, au contraire, le déploiem

Les trois principaux scénarios de deepfake dont il faut se méfier 2023

photo


Analyse de Kaspersky

Le nombre de deepfake publiés en ligne explose de 900 % par an, selon le Forum économique mondial (WEF). De nombreuses actualités liées à des deepfakes ont fait les gros titres, faisant état de récits de vengeance, de harcèlement, d’arnaques à la crypto-monnaie, etc. Aujourd'hui, les chercheurs de Kaspersky mettent en lumière les trois principaux schémas de recours aux deepfakes, face auxquels nous nous devons tous d’être vigilants.

L'utilisation de réseaux de neurones artificiels et du deep learning (d'où est tiré le terme "deep fake") a permis à des internautes du monde entier d’exploiter des images, des vidéos et des sources audio pour créer des vidéos réalistes d'une personne dont le visage ou le corps ont été numériquement modifié, afin de lui faire faire ou dire des choses qui n’ont pas réellement été dites ou faites. Ces vidéos et ces images détournées sont fréquemment utilisées à des fins malveillantes pour propager de fausses informations et pervertir la réalité.

Fraude financière

Les deepfakes peuvent être utilisés comme levier d'ingénierie sociale, les cybercriminels ayant recours à la manipulation d’images afin de se faire passer pour des célébrités et de piéger leurs victimes. L’année dernière, par exemple, une vidéo artificielle d'Elon Musk promettant des rendements élevés dans le cadre d'un plan d'investissement douteux dans les crypto-monnaies est devenue virale, faisant perdre de l'argent aux utilisateurs crédules. Pour créer des deepfakes comme celui-ci, les criminels utilisent des enregistrements où apparaît la célébrité imitée, ou assemblent de vieilles vidéos entre elles pour produire du contenu de  flux diffusé en direct sur les plateformes de réseaux sociaux, dans lequel on leur promet de doubler tout paiement en crypto-monnaie envoyé à l’émetteur de la vidéo. 

Les deepfakes pornographiques

Les deepfakes servent également à porter atteinte à la vie privée d'une personne donnée. De fausses vidéos peuvent être créées en  accolant le visage d'une victime sur une vidéo pornographique préexistante, ce qui peut causer du tort à la personne visée, ainsi que de la détresse émotionnelle. Dans certains cas, il arrive qu’on appose des images de célébrités à des corps d'actrices porno, dans des scènes explicites. Dans de tels cas, les victimes de deepfakes voient leur réputation entachée et leurs droits bafoués.

Les entreprises dans le viseur 

Bien souvent, les deepfakes sont utilisés pour cibler des entreprises à des fins d'extorsion de fonds, de chantage et d'espionnage industriel. Par exemple, dans un cas bien connu des médias, des cybercriminels ont réussi à tromper un directeur de banque aux Émirats arabes unis et à lui voler 35 millions de dollars en utilisant un deepfake vocal. Dans ce cas, un petit enregistrement de la voix du patron d'un employé a suffi pour générer un deepfake convaincant. Dans un autre cas, des escrocs ont tenté de se faire passer pour la plus grande plateforme de crypto-monnaies, Binance. Le directeur exécutif de Binance s’est étonné de recevoir des messages de remerciement au sujet d’une réunion Zoom à laquelle il n'avait jamais assisté. À l'aide des différentes images et vidéos de ce dernier publiées en ligne, accessibles au public, les attaquants ont réussi à générer un deepfake et à le faire participer avec succès lors d'une réunion en ligne, s'exprimant ainsi au nom du dirigeant.
En général, les cybercriminels qui utilisent les deepfakes comme outil ont pour objectif la désinformation et la manipulation de l'opinion publique, le chantage ou même l'espionnage. Selon un communiqué du FBI, les responsables des ressources humaines seraient déjà en alerte concernant l'utilisation de deepfakes par des candidats qui postulent pour un travail à distance. Dans le cas de Binance, les attaquants ont utilisé des images de personnes provenant d'Internet pour créer des deepfakes et ont même pu ajouter les photos de ces personnes à des CV. S'ils parviennent ainsi à tromper les responsables des ressources humaines et qu'ils reçoivent ensuite une offre, ils peuvent récupérer les données de l'employeur. 

Selon le Forum économique mondial (WEF), le nombre de vidéos "deepfake" en ligne augmente de 900 % par an. Cependant, il est également important de prendre en compte le fait que les deepfakes sont un type de fraude très coûteux qui nécessite des investissements importants. Des recherches antérieures menées par Kaspersky ont révélé les types de deepfakes vendus sur le darknet et leurs coûts. Si un utilisateur lambda trouve un logiciel sur internet et tente de créer un deepfake par lui-même, le résultat sera irréaliste, et repérable très facilement à l'œil nu. Peu de gens se laissent berner par des deepfakes de mauvaise qualité : les décalages dans l'expression du visage ou un flou dans la forme du menton sont en effet faciles à remarquer.

Lorsque les cybercriminels préparent une attaque, ils ont besoin d'une grande quantité de données : de photos, de vidéos et d'enregistrements audio de la personne dont ils veulent usurper l'identité. Disposer de contenus les mettant en scène dans différents angles, avec différents niveaux de luminosité, et des expressions faciales variées, joue un rôle important dans la qualité finale de la vidéo produite. Pour que le résultat soit réaliste, il est nécessaire de disposer d'un ordinateur et de logiciels de pointe. Tout cela demande énormément de ressources et n'est accessible qu'à un petit nombre de cybercriminels. Par conséquent, malgré tous les dangers associés au deepfake, il faut bien comprendre qu’il s'agit toujours d'une menace extrêmement rare, que seul un petit nombre d'acheteurs peut s’offrir. En effet, produire une minute de vidéo deepfake peut coûter 20 000 dollars et plus! 

« Parmi tous les risques que les deepfakes peuvent faire courir aux entreprises, le vol de données n’est pas nécessairement le plus grave. Parfois, les atteintes à la réputation peuvent avoir des conséquences bien plus graves. Imaginez qu'une vidéo dans laquelle votre patron fait (en apparence) des déclarations polarisantes sur des questions sensibles soit publiée. Pour les entreprises, cela peut rapidement entraîner une chute du cours des actions. Cependant, bien que les risques associés à ce type de menace soient extrêmement élevés, la probabilité que vous soyez attaqué de cette manière reste extrêmement faible en raison du coût de création des deepfakes et du fait que peu d'attaquants sont capables de créer un deepfake de haute qualité », commente Dmitry Anikin, expert senior en sécurité chez Kaspersky.

« Ce que vous pouvez faire dès aujourd’hui, c'est connaître les principales caractéristiques des deepfakes et garder une attitude sceptique face aux messages vocaux et aux vidéos que vous recevez. Assurez-vous également que vos employés comprennent ce qu'est un deepfake et comment ils peuvent le reconnaître : en scrutant, par exemple, des mouvements saccadés, des changements dans le teint de la peau, des clignements étranges ou l'absence totale de clignements, etc. »

La surveillance continue des ressources du dark web fournit des informations précieuses sur l'industrie du deepfake, permettant aux chercheurs de suivre les dernières tendances et activités des acteurs de la menace dans le web souterrain. En surveillant le darknet, les chercheurs peuvent découvrir de nouveaux outils, services et marchés utilisés pour la création et la distribution de deepfakes. Ce type de surveillance est un élément essentiel de la recherche sur les deepfakes qui contribue à améliorer notre compréhension de l'évolution du paysage des menaces. Le service Digital Footprint Intelligence de Kaspersky intègre ce type de surveillance afin d'aider ses clients à garder une longueur d'avance sur les menaces liées aux deepfakes.

Pour se protéger des menaces liées aux deepfakes, Kaspersky recommande

  • Vérifiez les pratiques de cybersécurité en place dans votre organisation, non seulement en termes de logiciels de sécurité utilisés, mais aussi en termes de compétences informatiques des employés. Utilisez Kaspersky Threat Intelligence pour prendre une longueur d'avance sur le paysage actuel des menaces.
  • Renforcez le « pare-feu humain » de l'entreprise : assurez-vous que les employés comprennent ce que sont les deepfakes, comment ils fonctionnent et les défis qu'ils peuvent poser. Organisez des campagnes de sensibilisation et d'éducation continues pour apprendre aux employés à repérer les deepfakes. Kaspersky Automated Security Awareness Platform aide les employés à se tenir au courant des menaces les plus récentes et améliore leur niveau de culture numérique. 
  • Utilisez des sources d'information de bonne qualité. Le manque de connaissance en matière de fact-checking reste un facteur essentiel permettant la prolifération des deepfakes.
  • Adoptez de bons protocoles, « faites confiance mais vérifiez ». Une attitude sceptique à l'égard des messages vocaux et des vidéos ne garantit pas que les gens ne seront jamais trompés, mais elle permet d'éviter la plupart des pièges les plus courants.
  • Sachez reconnaître les principales caractéristiques des vidéos truquées pour éviter d'en être victime : mouvements saccadés, variations d'éclairage d'une image à l'autre, variations du teint de la peau, clignements étranges ou absence totale de clignements, lèvres mal synchronisées avec la parole, artefacts numériques sur l'image, vidéo intentionnellement encodée en qualité inférieure et mal éclairée.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin des cookies tiers ne répond pas au besoin de contrôle des internautes sur leurs données

Pour le moment, la plupart des solutions alternatives aux cookies privilégient l’objectif commercial aux dépens des attentes des internautes. Piqsels , CC BY-SA Par  Carlos Raúl Sánchez Sánchez , Montpellier Business School – UGEI ; Audrey Portes , Montpellier Business School – UGEI et Steffie Gallin , Montpellier Business School – UGEI Les révélations du Wall Street Journal contenues dans les « Facebook Files » , publiés en septembre dernier, ont une nouvelle fois montré que les utilisateurs s’exposaient à des risques liés à la divulgation des informations personnelles. Les réseaux sociaux ne sont pas les seuls en cause : les nombreux data breach (incidents de sécurité en termes de données confidentielles) rendus publics, illustrent régulièrement la vulnérabilité des individus face à une navigation quotidienne sur les moteurs de recherche, sites de e-commerce et autres ayant recours à des « cookies tiers » , ces fichiers de données envoyés par

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor

Les quatre évolutions de la cybercriminalité en 2023

Par Mathieu Mondino, Presales Manager chez OpenText Cybersecurity Une nouvelle année apporte son lot d’opportunités que les cybercriminels sont prêts à saisir. L'année dernière, l'activité cybercriminelle a connu une évolution majeure, les cybercriminels s'efforcent de tirer parti des tensions géopolitiques et des difficultés économiques dues à l'inflation et à la récession. En 2023, l'incertitude économique continue de peser lourdement sur les entreprises, en particulier sur les petites et moyennes entreprises qui ne disposent pas toujours des budgets et des ressources nécessaires pour se prémunir des attaques. Si l'on ajoute à cela les pressions macroéconomiques, une cybersécurité efficace et abordable semblera presque impossible pour de nombreuses PME. Les acteurs malveillants continuent à faire évoluer leurs tactiques en cherchant à exploiter de nouveaux vecteurs d’attaques. En 2022, le phishing est resté la menace dominante à laquelle sont confrontés partic

Décryptage de l'attaque par ransomware du Centre Hospitalier de Versailles

  Par Cassie Leroux, Directrice Produit chez Mailinblack Après l’hôpital de Corbeilles Essonnes, c’est au tour de l'établissement hospitalier de Versailles, situé au Chesnay-Rocquencourt (Yvelines), d’être visé depuis samedi soir par une cyberattaque. Comment s’est-elle déroulée, quelles conséquences pour ses patients, et aurait-elle pû être évitée ? Décryptage de Cassie Leroux, Directrice Produit chez Mailinblack. Que savons-nous de cette attaque ? Cette cyberattaque vise l’ensemble de l'établissement, dont l'hôpital André-Mignot, la maison de retraite Despagne et l'hôpital Richaud à Versailles. L’hôpital continue de fonctionner, mais au ralenti ce lundi, ce qui perturbe sérieusement son activité. Le parquet de Paris a ouvert une enquête préliminaire pour tentative d'extorsion.  Cette cyberattaque est de type Ransomware, un logiciel malveillant qui bloque l’accès à aux outils informatiques et aux données en les chiffrant. Dans ce type d’attaque, le hacker demande g