Par Cédric Lefebvre, Responsable de la stratégie cybersécurité et IA chez Custocy Les modèles de langage de grande taille (LLM, pour Large Language Models) comme ChatGPT, Claude ou encore Gemini, ont révolutionné l’accès à l’information et à l’assistance technique. Grâce à leur capacité à comprendre le langage naturel et à générer du texte de qualité, ils permettent à chacun, professionnel ou non, de créer, coder, apprendre ou automatiser à une vitesse inégalée. Mais comme toute technologie puissante, leur potentiel ne se limite pas à des usages bienveillants. Phishing, génération de malware, reconnaissance du réseau, contournement des outils de protection, …, tout cela peut être accéléré grâce à l’IA générative. L’accessibilité et la polyvalence des LLM posent donc aujourd’hui une question majeure en cybersécurité : que se passe-t-il réellement lorsque ces outils sont utilisés par un attaquant ? Le LLM, nouveau complice des cybercriminels Les fournisseurs de LLM mettent en place des f...
L’IOT Valley, communauté innovante du Sud-Est toulousain spécialisée dans l’Internet des Objets, inaugurera mercredi 3 février 2016, Le Connected Camp, son accélérateur de start-up spécialisé dans ce domaine.
À cette occasion, les noms et les projets des start-ups sélectionnées, pour intégrer pendant 9 mois la Saison 1 de la structure, seront dévoilés. Pour cette 1ère Saison, 110 candidatures ont été reçues et soigneusement étudiées.
