Accéder au contenu principal

Le leadership visionnaire : l’élément essentiel du succès dans le secteur de l’IT

  Par Antony Derbes, Président d’Open Lake Technology Dans le monde dynamique et en constante évolution de la technologie de l'information, le leadership joue un rôle crucial. Je suis convaincu que le bon leadership est la clé pour naviguer avec succès dans cet environnement complexe. Le secteur de l'IT est caractérisé par son rythme effréné, ses avancées rapides et ses défis sans cesse changeants. Dans un tel contexte, un leadership fort et visionnaire est essentiel pour guider les équipes vers le succès. Mais quels sont les éléments clés d'un bon leadership dans le domaine de la technologie ? Tout d'abord, un leader efficace dans le secteur de l'IT doit posséder une vision claire de l'avenir. Cette vision doit être à la fois ambitieuse et réalisable, guidant l'entreprise vers de nouveaux horizons tout en tenant compte des réalités du marché et des capacités de l'organisation. En tant que leaders, nous devons constamment anticiper les tendances, identif

L’identité, le nouveau périmètre de sécurité

identite



Par Arnaud Gallut, Directeur des Ventes Europe du sud, Ping Identity

Un responsable de la sécurité informatique chez un de nos grands clients nous a récemment fait part d’une réflexion qui nous a semblé particulièrement juste.

« Désormais, le Cloud est devenu le data center. Internet est devenu le réseau interne. L’identité est devenue le périmètre de sécurité, et tout terminal est devenu un terminal professionnel. »

Développons chacune de ces quatre affirmations pour en comprendre les implications.

#1 Le Cloud est devenu le data center


Sur ce premier point deux choses sautent immédiatement aux yeux. La première est qu’à moins de devoir satisfaire à des exigences réglementaires spécifiques, ou d’avoir une totale confiance dans la qualité et l’intérêt financier d’une solution matérielle et logicielle hébergée en interne, les offres cloud SaaS, PaaS ou IaaS actuelles sont devenues un choix évident pour les entreprises.

La seconde, encore plus importante, est qu’il n’est plus nécessaire de savoir où les services et applications des entreprises sont hébergées et qui les fait fonctionner. Peu importe que l’accès aux applications s’effectue via une instance MySQL en local ou MariaDB, une instance AWS Aurora MySQL, ou une base de données Azure pour MySQL.

#2 Internet est devenu le réseau


Tout devrait désormais être connecté et accessible. Les utilisateurs ne devraient plus avoir besoin d’être présents physiquement sur un site, ou d’utiliser un VPN pour accéder à des applications réservées à l’interne. Le modèle tripartite : Internet, DMZ, et réseau interne sécurisé protégé ne permet pas un accès n’importe où n’importe quand, et ne fonctionne pas bien lorsqu’il s’agit de connecter ensemble des applications et des services fonctionnant dans des environnements hybrides associant data centers internes et de multiples fournisseurs de services cloud.

Faire une confiance aveugle à toute application ou système installé derrière un firewall est aussi une mauvaise habitude. Dans un tel scénario, si une application est compromise, elle peut être utilisée comme base pour attaquer bien d’autres applications et systèmes. C’est exactement ce qui s’est produit lors de récents piratages majeurs.

Donc si l’on ne dispose pas d’un périmètre de défense capable de protéger des applications et ses données, que faire ? La troisième affirmation citée plus haut apporte la solution.

#3 L’identité est devenue le périmètre de sécurité


L’adoption (implicite) d’un environnement « zero trust » doit aujourd’hui s’imposer. Dans ce type d’environnement, tout a une identité propre : les utilisateurs, les applications, les services et les systèmes.

Il s’agit d’environnements incroyablement sécurisés et flexibles, dans lesquels chaque application et service est potentiellement accessible par tout le monde, quel que soit le lieu où ils sont hébergés : sur site, dans un cloud privé ou public. 

Cependant, cette flexibilité a un prix. Pour garantir un écosystème sécurisé, plusieurs éléments doivent être mis en place :

Les identités, qu’elles concernent des humains ou des applications, doivent être établies ou validées d’une manière sécurisée. Ceci peut être réalisé via une vérification d’identité, la délivrance sécurisée de certificats, le service d’identité d’Istio, etc. L’objectif est d’être sûr que l’individu ou l’objet est bien ce qu’il prétend être.

L’identité doit être authentifiée en toute sécurité solidement lors de l’exécution. Elle peut être réalisée via une authentification multifacteur (MFA), une authentification par certificat, un OAuth client secret, etc. Dans le cas d’une authentification multifacteur, il convient de s’assurer que le canal de récupération n’est pas identique pour les différents facteurs. En cas de fourniture d’identifiants à des services via devops, les identifiants ne doivent pas être stockés en clair, et l’ensemble du processus de livraison doit être sécurisé.

Les identités ne doivent pas risquer d’être volées ou divulguées. Elles sont généralement volées via des attaques dites de ‘credential stuffing’ au cours desquelles des bots utilisent des listes d’identifiants et mots de passe volés pour trouver et voler des identités. Ceci constitue un risque à prendre au sérieux : rn effet, la plupart des études montrent que ces attaques sont entre 2% et 3% efficaces. Ceci veut dire que si une entreprise possède plus de 50 comptes utilisateur, elle est potentiellement vulnérable.

L’authentification multifacteur peut prévenir des attaques de ‘credential stuffing’, mais n’empêchera pas automatiquement les utilisateurs de divulguer leurs identifiants via des attaques de ‘phishing’. Pour prévenir ce type d’attaques, des formations anti-phishing et l’adoption de la solution d’authentification multifacteur FIDO2 sont recommandées. FIDO2 prévient les attaques de ‘phishing’ en obligeant l’utilisateur à enregistrer au préalable tous les sites authentifiés. Elle n’acceptera ensuite que les demandes d’authentification provenant des sites enregistrés, bloquant ainsi tous les faux sites de ‘phishing’ qui tenteraient de récupérer de récolter vos mots de passe et code à usage unique (OTP) puis de prendre le contrôle de votre session utilisateur.

Un processus explicite d’autorisation d’accès doit intervenir entre deux points d’un système, quels qu’ils soient. Ceci s’applique aux utilisateurs, aux applications et aux services. L’autorisation doit être refusée par défaut sauf dans le cas d’une autorisation explicite stipulant que le demandeur, qu’il s’agisse d’un humain ou d’une application, est autorisé à accéder à ces données, à ce service ou à cette application.

Plutôt que s’appuyer uniquement sur des règles rigides et définies de façon statique, il est préférable de se tourner vers une solution alimentée par du machine learning, plus flexible, afin d’améliorer les processus d’authentification et d’autorisation. Ces solutions améliorent l’expérience utilisateur en supprimant des étapes d’authentification inutiles lorsqu’il existe une réelle certitude que l’utilisateur est bien celui qu’il prétend être. Elles peuvent aussi analyser les schémas d’accès pour détecter des botnets ou des piratages de données et ainsi refuser l’accès dans des cas où des règles statiques n’auraient rien bloqué.

#4 Tout terminal est devenu un terminal professionnel


La quatrième affirmation résulte directement des trois autres.

N’autoriser l’accès aux données et aux applications qu’à partir des terminaux de l’entreprise est un cauchemar en termes de management, et réduit la productivité des employés. Dans une économie 24/7, les employés doivent être capables d’accéder aux informations et applications en tous lieux et à partir de n’importe quel terminal.

Ceci ne veut pas dire que chaque terminal ne doit pas être validé pour s’assurer qu’il n’a pas été piraté. Les entreprises peuvent utiliser des solutions MDM ou CASB pour contrôler la diffusion des données. Pour des cas d’usages aussi bien grand public qu’en entreprise, l’analyse des données peut également aider à détecter des anomalies sur la base de facteurs tels que la géolocalisation et les schémas d’accès. L’objectif primordial est d’établir des processus de contrôle qui permettent aux équipes de sécurité de maîtriser tous les usages BYOD à la fois pour des cas d’utilisation professionnels ou grand public.

Des accès de n’importe où, n’importe quand, n’importe comment

En bref, les entreprises doivent inverser leur façon de penser. Au lieu d’essayer d’enfermer les applications et les données dans des coffres forts sécurisés, elles doivent en autoriser l’accès depuis n’importe où.

En adoptant une politique d’accès à n’importe quelles données, en tout lieu et à partir de n’importe quel terminal, ainsi qu’en mettant en place les procédures et les contrôles nécessaires pour en faire une réalité parfaitement sécurisée, les entreprises pourront améliorer le confort de travail de ses employés et accroître leur productivité. Elles pourront aussi disposer d’une infrastructure flexible qui leur permettra de s’adapter facilement à l’évolution rapide de leurs besoins et de leurs choix technologiques sans avoir à reconfigurer leurs systèmes.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in