Une nouvelle étude commandée par Alteryx , la plateforme d'IA pour l'analyse d'entreprise en France, révèle que les organisations ne sont pas prêtes à tirer parti de l'IA générative en raison de leurs données. Le rapport " Data Stack Evolution : Legacy Challenges and AI Opportunities", qui a interrogé 3 100 leaders mondiaux de l'informatique, a mis en évidence des obstacles qui empêchent le déploiement réussi de l'IA générative, notamment la gestion des piles de données, la stratégie technologique et les cultures d'entreprise. Un manque de confiance envers les piles de données L’étude souligne un décalage important entre la confiance que les responsables informatiques mondiaux accordent à leurs données et la réalité de leurs piles de données. En France, alors que 43% des répondants qualifient la maturité de leurs données comme étant "bonne" ou "avancée" et que 68% ont confiance dans leurs données, un cinquième a tout de même évo
Analyse de Kaspersky Le nombre de deepfake publiés en ligne explose de 900 % par an, selon le Forum économique mondial ( WEF ). De nombreuses actualités liées à des deepfakes ont fait les gros titres, faisant état de récits de vengeance, de harcèlement, d’arnaques à la crypto-monnaie, etc. Aujourd'hui, les chercheurs de Kaspersky mettent en lumière les trois principaux schémas de recours aux deepfakes, face auxquels nous nous devons tous d’être vigilants. L'utilisation de réseaux de neurones artificiels et du deep learning (d'où est tiré le terme "deep fake") a permis à des internautes du monde entier d’exploiter des images, des vidéos et des sources audio pour créer des vidéos réalistes d'une personne dont le visage ou le corps ont été numériquement modifié, afin de lui faire faire ou dire des choses qui n’ont pas réellement été dites ou faites. Ces vidéos et ces images détournées sont fréquemment utilisées à des fins malveillantes pour propager de fausses i