Par Thomas Mannierre, Directeur EMEA Sud de BeyondTrust L’IA a fait entrer les braquages dans une nouvelle dimension. Plus besoin d’une cagoule noire désormais. En améliorant les attaques d'ingénierie sociale modernes, l’IA a donné naissance à un autre type de menaces : les deepfakes. Bienvenue dans ce qui pourrait être un épisode de Black Mirror ! Le faux CFO de Hong Kong En début d’année, une entreprise à Hong Kong s’est vue escroquée de 25,6 millions de dollars par un hacker utilisant l’IA et la technologie deepfake pour usurper l’identité d’un directeur financier. Si l'on en croit les rapports d’enquête, l'attaque a simulé un environnement de vidéoconférence complet et utilisé une fausse identité d'un important directeur financier de Hong Kong et d'autres participants à la réunion. La victime ciblée du département financier s'est d'abord méfiée d'un e-mail de phishing prétendant provenir du directeur financier. Cependant, la victime a rejoint une con
2023 aura incontestablement été l’année de l’intelligence artificielle. L’arrivée des intelligences artificielles génératives, c’est-à-dire capables de produire des contenus numériques comme des textes, des vidéos, des images a bouleversé les usages et tous les acteurs du numérique, poussés par la société américaine OpenAI. Méconnue jusqu’alors, celle-ci a lancé il y a un an ChatGPT, un agent conversationnel qui a connu un succès fulgurant au point d’inquiéter les géants du web. Google, Facebook, Amazon, Apple se sont lancés dans l’IA pour avoir eux aussi leurs propres outils. Des outils qui posent des questions éthiques, juridiques et de souveraineté. C’est la raison pour laquelle l’Europe a décidé de légiférer et d’encadrer le développement de l’IA, devenant le premier continent à le faire. L’UE, qui a raté le virage des réseaux sociaux, entend aussi développer ses propres modèles d’intelligence artificielle qui reflètent ses valeurs et sont respectueux des données personnelles. Imag