Accéder au contenu principal

Orange accélère la fermeture du réseau cuivre et de l’internet ADSL : ce que ça va changer

  La fermeture du réseau cuivre s’accélère en France. Après une première vague début 2025, l’arrêt du réseau cuivre d’Orange s’étend à grande échelle. Le 27 janvier 2026, 763 nouvelles communes verront disparaître définitivement l’ADSL. Une bascule technologique majeure, portée par la généralisation de la fibre, mais qui pose encore des questions concrètes dans certains territoires. Le calendrier s’accélère. Après la fermeture technique du réseau cuivre dans 162 communes au 31 janvier 2025, Orange passe un nouveau cap ce mardi 27 janvier avec l’arrêt définitif du cuivre dans 763 communes supplémentaires. Cette étape marque l’entrée du plan national de fermeture dans une phase beaucoup plus perceptible pour les particuliers, avec la disparition effective de l’ADSL et des services associés. Ce mouvement s’inscrit dans un processus engagé de longue date. Propriétaire du réseau cuivre historique, Orange a transmis dès 2022 à Arcep, le gendarme des télécoms, un plan détaillé...

L’identité, le nouveau périmètre de sécurité

identite



Par Arnaud Gallut, Directeur des Ventes Europe du sud, Ping Identity

Un responsable de la sécurité informatique chez un de nos grands clients nous a récemment fait part d’une réflexion qui nous a semblé particulièrement juste.

« Désormais, le Cloud est devenu le data center. Internet est devenu le réseau interne. L’identité est devenue le périmètre de sécurité, et tout terminal est devenu un terminal professionnel. »

Développons chacune de ces quatre affirmations pour en comprendre les implications.

#1 Le Cloud est devenu le data center


Sur ce premier point deux choses sautent immédiatement aux yeux. La première est qu’à moins de devoir satisfaire à des exigences réglementaires spécifiques, ou d’avoir une totale confiance dans la qualité et l’intérêt financier d’une solution matérielle et logicielle hébergée en interne, les offres cloud SaaS, PaaS ou IaaS actuelles sont devenues un choix évident pour les entreprises.

La seconde, encore plus importante, est qu’il n’est plus nécessaire de savoir où les services et applications des entreprises sont hébergées et qui les fait fonctionner. Peu importe que l’accès aux applications s’effectue via une instance MySQL en local ou MariaDB, une instance AWS Aurora MySQL, ou une base de données Azure pour MySQL.

#2 Internet est devenu le réseau


Tout devrait désormais être connecté et accessible. Les utilisateurs ne devraient plus avoir besoin d’être présents physiquement sur un site, ou d’utiliser un VPN pour accéder à des applications réservées à l’interne. Le modèle tripartite : Internet, DMZ, et réseau interne sécurisé protégé ne permet pas un accès n’importe où n’importe quand, et ne fonctionne pas bien lorsqu’il s’agit de connecter ensemble des applications et des services fonctionnant dans des environnements hybrides associant data centers internes et de multiples fournisseurs de services cloud.

Faire une confiance aveugle à toute application ou système installé derrière un firewall est aussi une mauvaise habitude. Dans un tel scénario, si une application est compromise, elle peut être utilisée comme base pour attaquer bien d’autres applications et systèmes. C’est exactement ce qui s’est produit lors de récents piratages majeurs.

Donc si l’on ne dispose pas d’un périmètre de défense capable de protéger des applications et ses données, que faire ? La troisième affirmation citée plus haut apporte la solution.

#3 L’identité est devenue le périmètre de sécurité


L’adoption (implicite) d’un environnement « zero trust » doit aujourd’hui s’imposer. Dans ce type d’environnement, tout a une identité propre : les utilisateurs, les applications, les services et les systèmes.

Il s’agit d’environnements incroyablement sécurisés et flexibles, dans lesquels chaque application et service est potentiellement accessible par tout le monde, quel que soit le lieu où ils sont hébergés : sur site, dans un cloud privé ou public. 

Cependant, cette flexibilité a un prix. Pour garantir un écosystème sécurisé, plusieurs éléments doivent être mis en place :

Les identités, qu’elles concernent des humains ou des applications, doivent être établies ou validées d’une manière sécurisée. Ceci peut être réalisé via une vérification d’identité, la délivrance sécurisée de certificats, le service d’identité d’Istio, etc. L’objectif est d’être sûr que l’individu ou l’objet est bien ce qu’il prétend être.

L’identité doit être authentifiée en toute sécurité solidement lors de l’exécution. Elle peut être réalisée via une authentification multifacteur (MFA), une authentification par certificat, un OAuth client secret, etc. Dans le cas d’une authentification multifacteur, il convient de s’assurer que le canal de récupération n’est pas identique pour les différents facteurs. En cas de fourniture d’identifiants à des services via devops, les identifiants ne doivent pas être stockés en clair, et l’ensemble du processus de livraison doit être sécurisé.

Les identités ne doivent pas risquer d’être volées ou divulguées. Elles sont généralement volées via des attaques dites de ‘credential stuffing’ au cours desquelles des bots utilisent des listes d’identifiants et mots de passe volés pour trouver et voler des identités. Ceci constitue un risque à prendre au sérieux : rn effet, la plupart des études montrent que ces attaques sont entre 2% et 3% efficaces. Ceci veut dire que si une entreprise possède plus de 50 comptes utilisateur, elle est potentiellement vulnérable.

L’authentification multifacteur peut prévenir des attaques de ‘credential stuffing’, mais n’empêchera pas automatiquement les utilisateurs de divulguer leurs identifiants via des attaques de ‘phishing’. Pour prévenir ce type d’attaques, des formations anti-phishing et l’adoption de la solution d’authentification multifacteur FIDO2 sont recommandées. FIDO2 prévient les attaques de ‘phishing’ en obligeant l’utilisateur à enregistrer au préalable tous les sites authentifiés. Elle n’acceptera ensuite que les demandes d’authentification provenant des sites enregistrés, bloquant ainsi tous les faux sites de ‘phishing’ qui tenteraient de récupérer de récolter vos mots de passe et code à usage unique (OTP) puis de prendre le contrôle de votre session utilisateur.

Un processus explicite d’autorisation d’accès doit intervenir entre deux points d’un système, quels qu’ils soient. Ceci s’applique aux utilisateurs, aux applications et aux services. L’autorisation doit être refusée par défaut sauf dans le cas d’une autorisation explicite stipulant que le demandeur, qu’il s’agisse d’un humain ou d’une application, est autorisé à accéder à ces données, à ce service ou à cette application.

Plutôt que s’appuyer uniquement sur des règles rigides et définies de façon statique, il est préférable de se tourner vers une solution alimentée par du machine learning, plus flexible, afin d’améliorer les processus d’authentification et d’autorisation. Ces solutions améliorent l’expérience utilisateur en supprimant des étapes d’authentification inutiles lorsqu’il existe une réelle certitude que l’utilisateur est bien celui qu’il prétend être. Elles peuvent aussi analyser les schémas d’accès pour détecter des botnets ou des piratages de données et ainsi refuser l’accès dans des cas où des règles statiques n’auraient rien bloqué.

#4 Tout terminal est devenu un terminal professionnel


La quatrième affirmation résulte directement des trois autres.

N’autoriser l’accès aux données et aux applications qu’à partir des terminaux de l’entreprise est un cauchemar en termes de management, et réduit la productivité des employés. Dans une économie 24/7, les employés doivent être capables d’accéder aux informations et applications en tous lieux et à partir de n’importe quel terminal.

Ceci ne veut pas dire que chaque terminal ne doit pas être validé pour s’assurer qu’il n’a pas été piraté. Les entreprises peuvent utiliser des solutions MDM ou CASB pour contrôler la diffusion des données. Pour des cas d’usages aussi bien grand public qu’en entreprise, l’analyse des données peut également aider à détecter des anomalies sur la base de facteurs tels que la géolocalisation et les schémas d’accès. L’objectif primordial est d’établir des processus de contrôle qui permettent aux équipes de sécurité de maîtriser tous les usages BYOD à la fois pour des cas d’utilisation professionnels ou grand public.

Des accès de n’importe où, n’importe quand, n’importe comment

En bref, les entreprises doivent inverser leur façon de penser. Au lieu d’essayer d’enfermer les applications et les données dans des coffres forts sécurisés, elles doivent en autoriser l’accès depuis n’importe où.

En adoptant une politique d’accès à n’importe quelles données, en tout lieu et à partir de n’importe quel terminal, ainsi qu’en mettant en place les procédures et les contrôles nécessaires pour en faire une réalité parfaitement sécurisée, les entreprises pourront améliorer le confort de travail de ses employés et accroître leur productivité. Elles pourront aussi disposer d’une infrastructure flexible qui leur permettra de s’adapter facilement à l’évolution rapide de leurs besoins et de leurs choix technologiques sans avoir à reconfigurer leurs systèmes.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

Comment savoir si je suis touché par un logiciel espion ?

Par Allan Camps, Senior Enterprise Account Executive chez Keeper Security Les logiciels espions sont des logiciels malveillants qui, installés à votre insu sur votre appareil, permettent aux cybercriminels de vous espionner et de voler vos informations privées. Ces informations peuvent ensuite être utilisées par des cybercriminels ou vendues sur le dark web pour commettre des fraudes ou des usurpations d'identité. Il est possible de repérer ces logiciels malveillants sur votre appareil en observant des signes particuliers tels que l'épuisement rapide de la batterie, la surchauffe, l'augmentation du nombre de fenêtres pop-up ou de l'utilisation des données, et la présence d'applications inconnues. Comment détecter un logiciel espion sur votre smartphone Android ou votre iPhone ? Recherchez les applications que vous n'avez pas téléchargées. Les applications que vous n'avez pas téléchargées peuvent se cacher dans votre bibliothèque et contenir des logiciels ...

Tribune libre. Maison et objets connectés : une véritable French touch

Alexandre Chaverot est président d' Avidsen et de Smart Home International Réjouissons nous que la France soit précurseur dans le domaine de la maison et des objets connectés. Oui, il existe un vrai savoir faire, une véritable « patte » française. Il n'y a qu'à voir le nombre de start-up qui existent et évoluent dans ce domaine là : Sigfox pour la partie protocole de communication, Netatmo sur l'objet connecté autour de la régulation thermique, MyFox sur la sécurité et, évidemment, Avidsen sur l'univers de la maison intelligente. Sans parler des grands groupes comme Legrand , Schneider , Somfy qui travaillent aussi sur ces sujets là et qui nous challengent. A moins que ce ne soit nous, les petites « boîtes » qui les challengions. En tant qu'entreprises françaises, nous n'avons donc pas à rougir par rapport à ce qu'il se passe en Asie ou aux États-Unis en matière de produits et de développement. Le « faire savoir » devient plus que nécessai...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

Le retour de la pellicule argentique : Kodak investit pour l'avenir

La photographie argentique, longtemps considérée comme une relique du passé, connaît un regain d'intérêt spectaculaire en 2024. Kodak, l'emblématique entreprise américaine, a récemment annoncé des investissements significatifs pour moderniser ses infrastructures et augmenter sa production de pellicules. Cette décision intervient alors que la demande pour les films argentiques explose, portée par une nouvelle génération de passionnés et de créateurs en quête d'authenticité. L'engouement pour l'argentique n'est pas un simple effet de mode. Il s'agit d'un véritable retour aux sources, où la qualité des couleurs, les textures uniques et le processus créatif de la photographie analogique séduisent autant les amateurs que les professionnels. Kodak, conscient de cet engouement, s'engage à produire des films aussi longtemps que la demande existera. Cette modernisation de l'usine de Rochester, où sont fabriqués les films emblématiques de Kodak, représente...