Par Cédric Lefebvre, Responsable de la stratégie cybersécurité et IA chez Custocy Les modèles de langage de grande taille (LLM, pour Large Language Models) comme ChatGPT, Claude ou encore Gemini, ont révolutionné l’accès à l’information et à l’assistance technique. Grâce à leur capacité à comprendre le langage naturel et à générer du texte de qualité, ils permettent à chacun, professionnel ou non, de créer, coder, apprendre ou automatiser à une vitesse inégalée. Mais comme toute technologie puissante, leur potentiel ne se limite pas à des usages bienveillants. Phishing, génération de malware, reconnaissance du réseau, contournement des outils de protection, …, tout cela peut être accéléré grâce à l’IA générative. L’accessibilité et la polyvalence des LLM posent donc aujourd’hui une question majeure en cybersécurité : que se passe-t-il réellement lorsque ces outils sont utilisés par un attaquant ? Le LLM, nouveau complice des cybercriminels Les fournisseurs de LLM mettent en place des f...
La cybersécurité est devenue une préoccupation majeure pour les organisations du monde entier. Avec une projection alarmante indiquant une augmentation de 300 % des dommages causés par les cyberattaques d'ici 2025, il est impératif pour les entreprises de renforcer leur posture de cyber-résilience. Face à cette réalité, elles doivent adopter une approche proactive pour anticiper et mieux détecter et répondre aux menaces numériques émergentes. C’est dans ce contexte que Christophe Gaultier, Directeur chez OpenText Cybersecurity s’exprime sur les éléments clés propres à aider les organisations dans le renforcement de leur cyber-résilience. Pourquoi est-il essentiel pour les organisations de se concentrer sur le renforcement de leur cyber-résilience ? Les cyberattaques sont en augmentation et les dommages financiers prévus atteignent des niveaux alarmants ; renforcer la cyber-résilience est devenu crucial pour toutes les organisations. En investissant dans des programmes comme le Cybe...