Technomedia

Numérique · médias · sciences · intelligence artificielle

Intelligence artificielle : les risques de cybersécurité de DeepSeek selon Keeper Security

deepseek

Par Darren Guccione, CEO et cofondateur de Keeper Security

L'utilisation de plateformes d'IA telles que DeepSeek peut sembler être un pas en avant, mais les organisations doivent soigneusement considérer les risques - en particulier lorsque ces plateformes opèrent dans des environnements réglementaires où l'accès aux données et la surveillance sont moins transparents. La saisie d'informations sensibles de l'entreprise dans ces systèmes pourrait exposer des données critiques à une surveillance contrôlée par l'État ou à une utilisation abusive, créant ainsi un cheval de Troie au sein d'une organisation et de l'ensemble de ses employés.  Cela a également d'importantes implications en matière de sécurité BYOD (Bring Your Own Device) et au niveau des utilisateurs, puisque les employés peuvent télécharger cette application sur leur appareil personnel, qui peut ensuite être utilisé pour effectuer des transactions sur le site web, les applications et les systèmes de l'organisation. Ce risque pourrait avoir un impact exponentiel sur la confidentialité et la sécurité des données s'il n'est pas correctement géré.

Une approche proactive est essentielle. Les organisations doivent établir des politiques strictes de classification des données pour s'assurer que les informations sensibles ne sont pas partagées avec des plateformes non fiables. L'utilisation de solutions telles que la gestion des accès privilégiés (PAM) peut ajouter une couche supplémentaire de sécurité, en offrant des contrôles d'accès granulaires et une surveillance complète de l'activité privilégiée, garantissant la conformité avec des réglementations telles que les sanctions ou les contrôles à l'exportation. La PAM permet également de réagir rapidement aux incidents de sécurité en autorisant la révocation ou la modification immédiate des identifiants d'accès si nécessaire.

Il est également essentiel d'avoir une visibilité sur la conformité d'un fournisseur. S'assurer que les fournisseurs adhèrent à des certifications de sécurité reconnues, telles que SOC 2 Type 2 et ISO 27001, démontre leur engagement en faveur de pratiques de sécurité robustes et de la conformité aux réglementations. Ces certifications garantissent que les fournisseurs respectent des normes de sécurité élevées, y compris en ce qui concerne les réglementations internationales.

La promotion d'un lieu de travail informé et vigilant peut réduire les risques de manière significative. En sensibilisant les employés aux risques cachés des plateformes étrangères et en mettant l'accent sur les meilleures pratiques en matière de cybersécurité, les organisations peuvent naviguer en toute sécurité dans le paysage évolutif de l'IA.

DeepSeek, l’intelligence artificielle chinoise qui fait trembler la Silicon Valley

IA


Moins chère, aussi performante voire plus rapide et ouverte : l’intelligence artificielle chinoise DeepSeek, annoncée ce week-end, constitue comme un coup de tonnerre pour les sociétés américaines de l’IA – même si DeepSeek est soumise dans ses réponses à la censure chinoise.

La Silicon Valley pensait, en effet, avoir une longueur d’avance indétrônable dans la course mondiale à l’intelligence artificielle. C’était donc sans compter sur l’irruption d’une petite start-up chinoise – appartenant toutefois à High-Flyer, un fonds spéculatif chinois – et son modèle d’IA R1, en tête des téléchargements sur l’App Store, devant le tout-puissant ChatGPT de l’américain OpenAI…

Les Chinois semblent avoir surmonté l’embargo sur les puces américaines

Le plus sidérant est que les Chinois semblent avoir surmonté l’embargo sur les puces américaines de Nvidia dédiées à l’IA et sont parvenus à de spectaculaires résultats avec des moyens annoncés dérisoires : 5,6 millions de dollars d’investissement, quand les géants américains engloutissent des dizaines de milliards dans leurs modèles d’IA.

Le patron d’OpenAI Sam Altman lui-même a dû reconnaître que les performances de R1 étaient « impressionnantes », surtout au regard de son coût de développement. Une réussite qui détonne dans un secteur habitué aux investissements pharaoniques. Le 21 janvier à la Maison Blanche, Donald Trump lançait, avec OpenAI, Oracle et SoftBank, le projet StarGate représentant 500 milliards de dollars d’investissements…

L’onde de choc a été immédiate à Wall Street. Nvidia a vu près de 590 milliards de dollars partir en fumée en une seule séance. Une dégringolade historique qui témoigne de l’anxiété des marchés face à ce nouveau paradigme : et si les colossaux investissements dans l’IA n’étaient pas la clé du succès ? Cette question taraude désormais les investisseurs, habitués à associer performance et moyens financiers.

Un « moment Spoutnik »

Car DeepSeek a réussi l’impensable : développer un modèle rivalisant avec les meilleurs, sans avoir accès aux précieuses puces H100 de Nvidia, fleuron américain interdit d’exportation vers la Chine. Comme le souligne le Financial Times, « la question aujourd’hui n’est plus forcément de savoir qui développe les meilleurs modèles d’IA, mais qui saura mieux les appliquer à des tâches réelles. »

Un changement de paradigme qui bouscule toutes les certitudes. Certains crient à la tricherie, à l’image d’Elon Musk qui soupçonne DeepSeek d’accéder secrètement aux composants interdits. D’autres y voient un « moment Spoutnik », selon l’expression de l’investisseur Marc Andreessen, en référence au choc provoqué par le premier satellite soviétique en 1957. Une comparaison qui en dit long sur l’ampleur de la secousse dans la Silicon Valley.

Le vivier de talents chinois

The Spectator rappelle une réalité qui dérange : « Chaque année, la Chine produit davantage de diplômés universitaires dans les domaines des sciences naturelles, de la technologie, de l’ingénierie et des mathématiques que l’ensemble du reste du monde. » Un vivier de talents qui explique en partie cette percée spectaculaire, couplé à une approche radicalement différente de l’innovation.

Cette irruption de DeepSeek marque un tournant majeur dans l’histoire de l’IA. Elle démontre qu’une approche frugale et innovante peut rivaliser avec les moyens illimités des géants américains. Plus encore, elle rebat les cartes de la géopolitique technologique mondiale. La suprématie occidentale, longtemps considérée comme acquise, vacille face à une Chine qui prouve sa capacité à innover différemment, avec moins de moyens mais plus d’agilité.

Comme l’analyse La Stampa, « il s’agit désormais d’un match, d’un véritable match ». Les États-Unis entendent bien rester leaders. Avec le projet StarGate, comparable au mythique projet Manhattan ; et avec des investissements massifs. Microsoft prévoit 80 milliards d’investissements cette année, quand Meta en promet au moins 60.

Mais personne n’est en mesure de dire quelle sera l’issue de cette course aux armements technologiques qui s’accélère.

Où est l’Europe ?

Face aux avancées américaines et chinoises, l’Europe apparaît comme la grande absente de cette confrontation, et court le risque de se retrouver cantonnée au rôle de simple spectatrice, malgré son expertise en matière de régulation – de nombreux ingénieurs européens spécialistes de l’IA travaillent aux États-Unis. Une position inconfortable qui pourrait la condamner à dépendre technologiquement des deux superpuissances et se contenter de réguler l’IA.

Le débat s’est d’ailleurs installé dans l’Union européenne sur ce thème : des voix s’élèvent pour dénoncer une obsession régulatrice qui se ferait au détriment de l’innovation et de l’investissement dans la recherche. « Pendant que les USA avancent et innovent, nous préférons réguler, taxer et critiquer. Le mépris et la peur nous tuent. Réveillons-nous » a récemment lancé Rafik Smati, entrepreneur du numérique. Gilles Babinet, co-président du Conseil national du numérique est moins pessimiste. « Impressionnant l’effet de DeepSeek sur l’écosystème IA. Il y aura visiblement des répercussions sur l’ensemble de la chaîne de valeur. L’IA pourrait bien être beaucoup plus concurrentielle (ce qui bénéficie mécaniquement à l’Europe) que l’on pourrait le penser », estime-t-il.

Reste à savoir si l’Europe est en capacité de développer des modèles IA ou soutenir massivement ceux qui existent déjà comme le Français Mistral AI.

L’annonce chinoise intervient à quelques jours de la tenue à Paris du Sommet international sur l’IA, du 6 au 11 février, qui doit, selon Emmanuel Macron, permettre de « bâtir une IA de confiance sûre » et de « définir un cadre de gouvernance international inclusif et efficace ».


Journée mondiale de la protection des données : protection de la vie privée et confiance sont indissociables

IA


 Par Mandy Andress, CISO d’Elastic

« La Journée mondiale de la protection des données (Data Privacy Day) nous rappelle que la protection de la vie privée et la confiance sont indissociables, soulignant le lien fondamental entre des pratiques de cybersécurité robustes et la préservation de la confidentialité des données. Les attaques par ransomware ayant atteint le chiffre record de 574 incidents recensés en décembre 2024, soit le nombre mensuel le plus important depuis trois ans, les entreprises doivent rester vigilantes. Ces chiffres soulignent non seulement la sophistication croissante des outils dont disposent les acteurs de la menace, mais aussi l'évolution de leurs tactiques, qui créent de plus en plus de dégâts.

Avec le développement des environnements clouds hybrides, la protection de la confidentialité des données exige une stratégie de sécurité proactive et exhaustive. Il est essentiel de comprendre où les données se trouvent et comment elles sont stockées - sur les différentes plateformes cloud - pour en garder le contrôle et s'assurer qu'elles restent à l'intérieur des limites définies. Des techniques telles que la micro-segmentation ou la conteneurisation virtuelle permettent non seulement d'isoler les charges de travail, mais aussi d'imposer des contrôles stricts sur le trafic réseau, réduisant ainsi l'exposition potentielle aux menaces.

L'adoption d'une politique de « deny all » pour les communications inter-systèmes garantit que seul le trafic essentiel est autorisé, ce qui constitue une couche de défense supplémentaire. Au-delà des mesures techniques, les organisations doivent également se concentrer sur les mesures de cyber-hygiène. Il s'agit notamment d'exploiter les fonctions de sécurité intégrées des systèmes d'exploitation et des plateformes cloud, de maintenir des calendriers d’application des correctifs cohérents et de supprimer les systèmes obsolètes qui pourraient devenir vulnérables dans ces environnements interconnectés.

Négliger les pratiques de sécurité de base ou ignorer les mauvaises configurations peut mettre en péril non seulement les données sensibles, mais aussi la confiance des clients et le respect de la conformité. En renforçant leur posture de sécurité et en s'attaquant de front à ces risques, les organisations protégeront leur atout le plus précieux : la confiance dans leur capacité à sécuriser les informations personnelles et les données d’entreprise les plus critiques. »

Internet, fibre, haut débit, téléphonie mobile : l’Arcep actualise sa stratégie pour mieux connecter la France

 

smartphone

L’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) vient de lever le voile sur sa nouvelle feuille de route stratégique baptisée « Ambition 2030 ». Cette vision à long terme, présentée par sa présidente Laure de La Raudière, vise à « doter le pays des infrastructures numériques pour les décennies à venir et s’assurer qu’internet reste un espace de libertés ». Au cœur de cette stratégie, une triple ambition : des infrastructures numériques disponibles « partout, pour tous et pour longtemps ».

Pour concrétiser cette vision, l’Arcep a défini neuf objectifs stratégiques, articulés autour de trois axes principaux. Le premier vise à garantir une connectivité de qualité partout. L’Arcep entend poursuivre ses efforts pour assurer une couverture très haut débit fixe et mobile sur l’ensemble du territoire. Un accent particulier sera mis sur la qualité de service, notamment pour la fibre optique. « Ce que vous avez construit collectivement, auquel l’argent public a aussi fortement contribué, ne doit pas être à refaire dans dix ans », a insisté la présidente de l’Arcep.

Un numérique ouvert et accessible à tous

Le deuxième axe concerne un numérique ouvert et accessible à tous. Le régulateur souhaite promouvoir une concurrence loyale et effective, tant sur les marchés télécoms traditionnels que sur les nouveaux services numériques comme le cloud. L’Arcep se positionne également en « vigie de la neutralité du net », défendant l’extension de ce principe aux autres maillons de la chaîne numérique tels que les smartphones, les grandes plateformes ou l’IA.

Enfin, le troisième axe vise à construire un numérique durable et résilient. Face aux enjeux environnementaux, l’Autorité intensifiera ses travaux sur l’empreinte écologique du secteur. Elle contribuera aussi aux réflexions sur la pérennité et la résilience des infrastructures numériques, essentielles à notre souveraineté.

Pour atteindre ces objectifs ambitieux, l’Arcep s’appuiera sur trois modes d’action : la régulation par la donnée pour éclairer les choix des utilisateurs et orienter le marché, l’anticipation des évolutions technologiques et leurs impacts, et le renforcement de son influence au niveau européen et international.

Cette « Ambition 2030 » dessine les contours d’un « numérique désirable » selon l’Arcep.

Les 9 objectifs stratégiques

  1. Finaliser la transition vers le très haut débit : généralisation de la fibre optique et des réseaux mobiles de nouvelle génération, accompagnement de la fermeture des réseaux cuivre, 2G et 3G.
  2. Assurer la qualité, la pérennité et la résilience des infrastructures : amélioration de la qualité de service des réseaux fixes et mobiles, réflexions sur la résilience des infrastructures numériques. On notera l’accompagnement d’expérimentations sur le raccordement par les opérateurs d’infrastructures, le suivi des coûts d’exploitation pour l’équilibre des RIP ou encore l’ouverture du code source de "j’alerte l’Arcep" pour faciliter la remontée des problèmes de couverture (fibre mobile cuivre…).
  3. Garantir la connectivité des entreprises : disponibilité d’offres variées répondant aux besoins des entreprises, développement pérenne de la 5G dans les bandes 3,8-4,2 Ghz. La bande des 6 GHz devrait aussi être ouverte pour des usages sans fil.
  4. Favoriser une plus grande liberté de choix de services cloud : amélioration des conditions concurrentielles du marché du cloud grâce à un nouveau cadre tarifaire et technique.
  5. Œuvrer à l’ouverture des marchés numériques et des systèmes d’IA : vigie de l’ouverture de l’internet sur l’ensemble de la chaîne du numérique, valorisation de modèles d’IA évaluables et efficients.
  6. Favoriser la modernisation de la distribution de la presse : accompagnement des réformes du secteur, suivi de la continuité de l’accès à la presse par un outil cartographique.
  7. Agir pour réduire les impacts environnementaux du numérique : intégration de l’impact environnemental dans la régulation européenne, passage à l’échelle de l’écoconception du numérique.
  8. Favoriser le développement de l’économie par la donnée et l’innovation : accompagnement des entreprises pour le partage et l’accès à des données, labellisation des intermédiaires en France et pour l’Europe.
  9. Partager la connaissance des impacts environnementaux du numérique : création d’une plateforme de mesure des impacts environnementaux, caractérisation des impacts de l’IA.
(Article publié dans La Dépêche du Midu du 25 janvier 2025)

 

Les plus grands télescopes du monde menacés par un projet industriel

 

La Voie lactée depuis l’observatoire de Paranal, où se trouve le Very Large Telescope (VLT). La lueur rouge à droite est due au halo de la ville d’Antofagasta, bien visible malgré sa distance 100 kilomètres plus au nord. Bruno Gilli/ESO, CC BY
Par Julien Milli, Université Grenoble Alpes (UGA) et Fabien Malbet, Université Grenoble Alpes (UGA)

Il y a un mois, une annonce a fait l’effet d’un éclair dans le ciel le plus obscur de la planète.

Dans le désert d’Atacama, au nord du Chili, un projet industriel de production d’hydrogène à partir d’énergies renouvelables menace de compromettre la qualité du ciel pour les observatoires astronomiques les plus grands du monde, le Very Large Telescope (VLT) et l’Extremely Large Telescope (ELT, en construction).

Il met en tension la communauté scientifique, souvent en première ligne pour demander la décarbonation de notre société, notamment en astronomie. La question se pose d’arbitrer entre le développement des énergies renouvelables et la préservation du patrimoine culturel que constitue le ciel étoilé.


données satellite
Carte du Chili et de la pollution lumineuse en 2023, d’après les données satellite VIIRS. Satellite VIIRS, 2023

Plantons le décor. Nous sommes sur le mont Paranal, à 2 600 mètres d’altitude, dans le désert chaud le plus sec du monde. L’océan Pacifique est à une dizaine de kilomètres à l’ouest, et la première grande ville, Antofagasta, à 120 kilomètres vers le nord. En tant qu’astronomes professionnels, nous avons eu la chance d’arpenter ce site lors de nuits d’observation, voire d’y travailler plusieurs années. En absence de Lune et après quelques minutes d’adaptation à l’obscurité, la Voie lactée, le centre galactique et des milliers d’étoiles deviennent visibles au-dessus de nos têtes, alors que le paysage nocturne du désert d’Atacama semble éclairé par la seule voûte étoilée.

Cet émerveillement que ressent tout visiteur au VLT se traduit par une qualité de mesures inégalée au monde. Le site a été choisi dans les années 1980 par les astronomes de l’Observatoire européen austral (European Southern Observatory, ou ESO) après une longue campagne de tests. Le mont Paranal et son voisin le mont Armazones, où l’on construit actuellement l’ELT, combinent plusieurs atouts inégalés, les deux premiers étant la faible turbulence de l’atmosphère, qui améliore la résolution angulaire (la capacité à distinguer deux points très proches dans le ciel) ; et la faible hygrométrie, propice aux observations dans l’infrarouge.

En 2004, la première image d’une exoplanète a été obtenue au VLT, le prix Nobel de physique 2011 sur l’accélération de l’expansion de l’univers a été attribué pour des observations faites en partie au VLT, et le prix Nobel de physique 2020 a été attribué pour des recherches menées avec les télescopes du VLT sur le trou noir supermassif au centre de notre voie lactée.

Pourquoi le ciel de Paranal est-il inégalé ?

Ce n’est pas un hasard si les principaux observatoires astronomiques ont été construits sur les façades occidentales des continents (pic du Midi en France, côte Ouest des États-Unis, Chili) ou au sommet d’îles volcaniques de type point chaud (Hawaï, îles Canaries) situées à l’ouest de ces continents.

En effet à une certaine altitude (9-15 kilomètres), le déplacement d’air correspond au système de circulation atmosphérique engendré par la rotation terrestre qui va d’ouest en est. À cause de cette rotation, l’air qui arrive sur les façades occidentales a été très peu perturbé par la convection sur des terres chauffées par le Soleil, et donc l’écoulement est laminaire c’est-à-dire avec moins de turbulence.

[Plus de 120 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

De plus, les observatoires situés à plus de 2 000 mètres d’altitude, comme c’est le cas au Chili, se trouvent au-dessus de la couche d’« inversion thermique », qui bloque les nuages à plus basse altitude. Grâce à leur position haut perchée, ils bénéficient d’un nombre inégalé de nuits claires et peu turbulentes.

Dans le cas de l’Atacama, cette situation exceptionnelle est encore renforcée par la cordillère des Andes, à l’est, un rempart de plus de 6 000 mètres qui bloque les perturbations susceptibles d’entrer par l’est (Argentine) ou par le nord-est (Bolivie), d’où l’aridité de la région.

Des règles strictes limitent les activités humaines autour de l’observatoire

Mais ces atouts seraient réduits à néant sans l’obscurité du ciel, due à l’absence d’installations humaines dans un rayon de plusieurs dizaines de kilomètres.

données catellites, cartes
La localisation des télescopes (Very Large Telescope et Cherenkov Telescope Array à Paranal ; Extremely Large Telescope à Armazones) et les sources de pollution lumineuse actuelles, imagées par le satellite VIIRS en 2023. Fabien Malbet, avec les données VIIRS, CC BY

L’observatoire impose des règles strictes sur les émissions lumineuses aux alentours du site : les quelques véhicules se déplaçant la nuit n’ont le droit d’utiliser que leurs feux de position ou de détresse, et les rideaux doivent être tirés dans les chambres de la résidence et les dortoirs avant d’allumer les lumières.

Aujourd’hui, les observatoires de l’ESO à Paranal et Armazones sont parmi les endroits les plus sombres de la planète, avec une pollution lumineuse bien inférieure à celle des autres observatoires.

histogramme comparant la purete des ciels au dessus des grands observatoires astronomiques dans le monde
Brillance du ciel au zénith, au-dessus des observatoires astronomiques de plus de 3 m, liée à la présence de sources de lumières artificielles. La ligne horizontale noire indique un ciel 1 % plus lumineux que la brillance naturelle du ciel. Julien Milli, avec les données de Falchi et coll., 2023, Fourni par l'auteur

Et pourtant, même dans ce paysage préservé, nous astronomes voyons à l’horizon la signature lumineuse de la ville d’Antofagasta, et même celle de la mine de cuivre à ciel ouvert la plus grande au monde, La Escondida, à une centaine de kilomètres au nord-est. Bien que les télescopes ne pointent généralement pas en dessous de 30º de hauteur en raison d’une absorption atmosphérique élevée et d’une turbulence plus importante, certains phénomènes comme la lumière zodiacale, qui est une faible lueur au-dessus de l’horizon dans le plan de l’écliptique, sont donc déjà impactés par ce halo, limitant les recherches possibles.

L’impact prévu d’un tel projet industriel sur la pollution lumineuse

En décembre 2024, l’entreprise AES Andes a lancé des procédures d’audit environnemental en vue de la construction d’un gigaprojet, nommé INNA, dont l’emprise au sol serait d’environ 3 000 hectares et qui serait situé entre 5 et 12 kilomètres du mont Paranal. Il s’agit de produire de l’hydrogène et de l’ammoniac à partir de l’électrolyse de l’eau de mer (préalablement désalinisée). Ce processus gourmand en énergie serait alimenté par l’électricité produite par des éoliennes et des panneaux photovoltaïques, complémentés par des batteries de stockage, et consommerait 1,7 gigawatt, selon AES Andes. Au total, l’investissement représente environ 10 milliards de dollars et inclut un port industriel pour exporter la production.

carte des installations et du projet industriel
Zoom sur les zones accueillant les télescopes, avec la localisation des infrastructures du projet industriel, dont un port. Les couleurs de rouge à jaune autour des sites indiquent la zone affectée par une augmentation de pollution lumineuse selon l’industriel AES Andes, avec une augmentation de 10% délimitée par les pointillés jaunes. Ces 10% sont gigantesques dans ce cadre, puisqu'actuellement, la brillance du ciel au zénith au dessus du mont Paranal est 0,2% supérieure à la brillance naturelle du ciel. ESO, Fourni par l'auteur

Un nouveau site industriel, certes moins étalé que la ville d’Antofagasta ou que la mine La Escondida, mais dix fois plus proche, aurait nécessairement un impact majeur sur la qualité du ciel au niveau du VLT et de l’ELT. Sur Terre, la contribution majoritaire à la pollution lumineuse est bien souvent due au secteur privé (principalement les entreprises mais parfois les particuliers), l’éclairage public ne représentant qu’une fraction minoritaire, même dans les villes. Une étude menée dans la ville de Tucson, en Arizona, a montré par exemple que l’éclairage public représente moins d’un cinquième de la brillance du ciel — les projecteurs installés dans les sites industriels, les commerces et les jardins des particuliers causant le reste.

Des conséquences désastreuses pour l’astronomie au sol

Avec une augmentation de la pollution lumineuse de deux à trois fois la valeur actuelle, non seulement les observatoires de Paranal et Armazones perdraient leur statut de ciel le plus pur du monde, mais certains objets du ciel nocturne ne seraient tout simplement plus assez visibles depuis la surface terrestre pour pouvoir les étudier, comme des galaxies très éloignées, qui sont seulement visibles actuellement en combinant une centaine d’heures d’observation.

Les poussières et aérosols libérés dans l’atmosphère par l’activité industrielle (pendant la phase de construction, ou sous l’action de brassage des éoliennes) auraient un effet amplificateur de la pollution lumineuse, car ces particules diffusent les lumières artificielles émises depuis le sol.

Mais cela menace aussi le futur réseau de télescopes Cherenkov (CTA) qui a choisi la vallée entre les monts Paranal et Armazones pour détecter les rayons gamma issus des phénomènes astrophysiques les plus énergétiques (explosion de supernovae, trous noirs…). Ce type de télescopes optiques utilise l’atmosphère terrestre comme détecteur, la présence d’aérosols ou toute source de pollution lumineuse sont donc particulièrement préjudiciables pour ces observations.

Peut-on empêcher le développement économique d’une région au nom de la recherche scientifique ?

La question est légitime, mais il n’est pas certain qu’elle soit pertinente ici. L’entreprise AES Andes met en avant que la phase de construction emploiera environ 5000 personnes, mais ce ne seront plus qu’entre 500 et 600 ouvriers qui devraient travailler sur le site dans le fonctionnement normal. Elle annonce souhaiter employer au moins 20 % de travailleuses et travailleurs « locaux » issus des petites villes de Paposo et Taltal, et de la grande ville d’Antofagasta.

On peut néanmoins questionner l’impact réel sur l’économie de la région. L’exemple des innombrables mines du désert d’Atacama montre que les entreprises préfèrent généralement employer des travailleur·se·s qualifié·e·s qui habitent dans le centre du pays, et qui viennent travailler en avion pour des séquences de quelques semaines — plutôt que de devoir former du personnel local.

Surtout, on peut se demander si le vaste désert d’Atacama n’offrirait pas d’autres sites que celui-ci, littéralement collé aux observatoires astronomiques. Qu’une industrie qui se prétend « verte » commence en manifestant son indifférence à la dégradation d’une ressource environnementale précieuse — l’obscurité du ciel nocturne — pose question.The Conversation

Julien Milli, Astronome, Université Grenoble Alpes (UGA) et Fabien Malbet, Directeur de recherche CNRS en Astrophysique, Université Grenoble Alpes (UGA)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

La 5G est-elle plus sûre que la 4G et la 3G ?

 

5G

Par Cristina Onete, Université de Limoges

Deux questions majeures se posent : le contenu des communications entre deux utilisateurs peut-il être intercepté et lu par un tiers ? Les utilisateurs peuvent-ils être tracés ou géolocalisés ?

On fait le point sur la sécurité des télécommunications mobiles, en expliquant les différences entre la 4G et la 5G.


Les réseaux mobiles permettent aux utilisateurs d’échanger n’importe quand, pour peu que l’on se trouve sous la couverture massive de la 4G ou la 5G.

Malheureusement, l’ubiquité des communications mobiles a également des effets indésirables : la possibilité d’accéder au contenu des communications et de tracer les utilisateurs, voire de les identifier. Un problème quand on sait que l’utilisation d’un smartphone devient presque inévitable pour de nombreux aspects de nos vies quotidiennes : authentification à double facteur, confirmation et suivi de commandes, accès aux transports en commun, accès à l’éducation pour les adultes et les enfants, jusqu’à des processus démocratiques comme l’exercice du droit de vote.

Le passage de la technologie 4G à la technologie 5G est une transformation d’architecture permettant l’accès à un nombre très important de services et un renforcement de la sécurité 4G par rapport à certaines attaques connues. Ce passage permet une meilleure résistance au traçage, et aussi une meilleure confidentialité… à condition qu’une méthode de chiffrement soit proposée par l’opérateur — ce qui n’est pas toujours le cas.

Confidentialité et anonymat : deux des grands enjeux de la sécurité des communications mobiles

Dans un réseau mobile, les ondes émises par des équipements utilisateurs (téléphones, tablettes…) sont reçues, traitées et relayées par des éléments d’un réseau d’accès. Si l’utilisateur se trouve dans son propre pays, ses communications passeront par le réseau d’accès de l’opérateur mobile auprès duquel l’utilisateur a un abonnement (c’est le réseau propre ou home network). Si l’utilisateur est à l’étranger, sa communication sera relayée par un opérateur partenaire (réseau de service ou service network).

Disons qu’Alain, un habitant d’une jolie ville française, utilise son téléphone pour envoyer un texto à sa voisine Barbara, en vacances aux Pays-Bas. Le message d’Alain sera pris en charge par son réseau propre, mais pour qu’il arrive à Barbara, il passera par des réseaux de services partenaires (qui permettent à Barbara d’accéder au message d’Alain). Typiquement, si le réseau d’Alain et tous les réseaux partenaires sont fiables, le message arrivera bien à sa destination.

Mais, est-ce que la transmission du message d’Alain est sécurisée ? Est-ce qu’Alain peut être sûr qu’aucun élément de son message ne fuit à aucun attaquant ? Est-ce qu’il peut être sûr, en plus, que toute modification ou transmission partielle sera détectée (et potentiellement rectifiée) ? La confidentialité des données transmises est un premier enjeu des communications mobiles.

De plus, supposons que Barbara a prétendu être aux Pays-Bas pour le travail, mais qu’elle est en fait partie au soleil. Qui peut savoir, grâce à ses communications avec Alain, où elle est ? Est-il légal de la localiser ainsi ? C’est le deuxième grand enjeu de cybersécurité dans les communications mobiles : l’anonymat des utilisateurs.

Le chiffrement des données est prévu… mais il n’est pas toujours obligatoire

Tout d’abord, une bonne nouvelle : les standards techniques pour la 3G, 4G et pour la 5G prévoient bien des mécanismes pour le chiffrement de données, qui permet de garantir un certain niveau de confidentialité.

Ainsi, si le texto envoyé par Alain à Barbara passe par des canaux sécurisés par une forme de chiffrement, la confidentialité des données transmises est (partiellement) garantie. Même en utilisant une antenne capable d’intercepter les signaux émis par Alain, son voisin d’en face, Maurice le Malveillant, ne pourra jamais accéder au contenu des messages d’Alain.

En pratique, le choix d’algorithmes de chiffrement pour la 5G est similaire à celui offert pour la 4G, mais des petites modifications et révisions ont été réalisées pour augmenter le niveau de sécurité, d’une part, et pour rendre certains algorithmes plus rapides, d’autre part.

Mais il y a aussi deux mauvaises nouvelles en ce qui concerne le chiffrement des communications.

Premièrement, alors que des algorithmes de chiffrement sont prévus dans les standards techniques, il n’y a pas d’obligation universelle de les utiliser. Ainsi, dans certains pays, les communications mobiles ne sont pas du tout protégées. Il est donc important de se renseigner lors de voyages, pour savoir quels opérateurs, réseaux et territoires géographiques offrent quels niveaux de garantie — ainsi, un rapport récent signale de potentiels soucis de sécurité par rapport à la Chine, par exemple.

Deuxièmement, le chiffrement de données n’est réalisé qu’en transit, c’est-à-dire que les réseaux de services (propre ou partenaires) qui ont traité les messages y ont accès. Dans le cas hypothétique d’Alain et de Barbara, le message envoyé par Alain est chiffré de son côté, puis déchiffré du côté de son réseau de service, puis rechiffré et envoyé au réseau de service de Barbara, puis finalement déchiffré et rechiffré au niveau du réseau de service de Barbara. Ainsi, les 4 entités ayant accès à ce message sont : Alain, Barbara, et leurs deux réseaux de services.

Selon les législations de chaque pays, les données sont par la suite susceptibles d’être interceptées par des autorités. Ce processus, datant de l’époque des écoutes physiques des appels menés pas des services de renseignement et par la police (la première législation dans ce sens aux États-Unis date de 1968), s’appelle l’« interception légale » : à tout moment, les opérateurs mobiles sont obligés par la loi de ne proposer que des méthodes de chiffrement compatibles avec l’interception légale. C’est ce qui a poussé les opérateurs, notamment les réseaux d’accès, à utiliser un chiffrement de données partiel, qui n’est pas « de bout au bout ».

En effet, pour que le chiffrement soit de bout au bout, il faudrait que seuls l’expéditeur et le destinataire final puissent le déchiffrer. Or, comme on l’a vu, dans les réseaux mobiles, le chiffrement est également déchiffrable par les opérateurs qui fournissent le service mobile (4G, 5G) à l’expéditeur et au destinataire.

Ce mécanisme a plusieurs inconvénients, dont deux très importants : il rend le processus d’interception légale extrêmement facile et parallélisable pour les autorités, et il brise la confidentialité des utilisateurs par rapport aux opérateurs gérant les réseaux de services intermédiaires, alors que cet accès n’est pas demandé spécifiquement par le processus d’interception légale et n’est pas — en théorie — indispensable.

Si des travaux de recherche de plusieurs groupes en France (dont je fais partie), travaillant avec Orange Recherche, suggèrent que l’on peut faire mieux, les méthodes proposées n’ont pas encore été acceptées par des organisations de standardisation.

L’anonymat, un peu meilleur sur la 5G que sur les générations précédentes

Même sans connaître les contenus des communications, en associant celles-ci à un utilisateur donné, un attaquant peut suivre le trajet de celui-ci : c’est le « traçage ». Il est dangereux de trahir notre localisation à des potentiels attaquants : cela indique si notre logement est vide par exemple, mais peut aussi contribuer au profilage d’un utilisateur, voire de l’identifier.

Les réseaux mobiles 3G et 4G permettaient un traçage relativement facile des usagers, par une attaque appelée « IMSI Catcher ». Le terme IMSI est une abréviation de « International Mobile Subscriber Identity », un identifiant permanent et unique par équipement utilisateur qui permet au réseau propre de l’utilisateur de valider son accès aux services. La valeur de l’IMSI de chaque utilisateur est considérée comme sensible justement parce qu’elle permet un traçage direct. Pour la cacher, dans les réseaux 3G et 4G, chaque équipement utilisateur était associé à des identifiants temporaires, appelés TMSI (« Temporary Mobile Subscriber Identity »), qui changeaient de façon imprévisible à chaque communication.

Malheureusement, pour pouvoir garantir un service mobile ubiquitaire sur la 3G et 4G, un mécanisme de repli avait été mis en place, permettant, en cas de perte de TMSI, de retrouver l’IMSI caché derrière. Un attaquant n’avait qu’à exploiter ce système de repli pour tracer un utilisateur par son IMSI. Pire encore, l’attaque était parallélisable : il était relativement facile de retrouver et de tracer un nombre important d’usagers par leurs IMSI à tout moment.

Mais il y a là une bonne nouvelle. Les attaques de type IMSI Catchers ne sont plus aussi faciles à mettre en place dans les réseaux 5G, car, si le mécanisme de repli des générations précédentes existe toujours, l’identifiant permanent n’est plus envoyé en clair sur le réseau : un mécanisme de chiffrement est utilisé.

Mais si ce chiffrement de l’identifiant permanent permet de réduire le traçage à large échelle, le chiffrement utilisé est un chiffrement à clé publique, qui permet à n’importe quelle entité de former des textes chiffrés valides. Ceci ne brise pas la confidentialité d’un message déjà chiffré, mais des travaux existants montrent comment cela peut en revanche permettre à un attaquant de tracer un utilisateur spécifique (dont l’attaquant connaît l’identifiant permanent). L’attaque demande la participation active de l’attaquant et n’est pas parallélisable, mais elle avait déjà été identifiée avant le déploiement des protocoles actuellement en usage dans les réseaux 5G et une solution avait déjà été présentée… sans être adoptée jusqu’à présent.The Conversation

Cristina Onete, Maître de conférence en informatique, Université de Limoges

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

L’exploitation des données froides à l’heure de l’IA

IA

Par Patrick Dufour chez Stordata

L’exploitation des données froides, à des fins d’analyse, de conception de nouveaux services, de compréhension des évolutions de marché et des habitudes de consommation a des allures d’arlésienne. Entre les difficultés de localisation et d’accès aux données archivées et le coût potentiel des infrastructures dédiées aux projets IA, les données froides continuent surtout de dormir profondément. Pourtant, avec la puissance de ses algorithmes, l’IA change vraiment la donne. Plus pertinente, plus performante, la technologie représente un potentiel d’extraction de valeur jamais atteint jusque-là. Le moment de réveiller son patrimoine informationnel est peut-être arrivé.

Une mémoire de l’entreprise en dormance

Les organisations conservent et archivent la donnée pour des raisons principalement réglementaires. Variables selon la nature des documents et les textes applicables, les durées de rétention imposées ont vocation à permettre tout contrôle utile, sur de nombreuses années en arrière parfois.

Avec l’augmentation galopante de la donnée produite en entreprise, l’archivage est un enjeu sans cesse renouvelé, à plusieurs titres : le choix des technologies de stockage, leur coût et leur évolution, leur pérennité, la mise en œuvre d’une gestion documentaire, la gouvernance de la donnée, et bien évidemment, leur potentiel d’exploitation.

S’il est relativement facile de faire travailler la donnée de production avec une gouvernance bien étayée et la présence effective d’un chief data officer (CDO), la donnée froide, stockée sur des supports lointains et parfois déconnectés, échappe généralement à tout traitement. Une fois que les délais réglementaires sont écoulés, dans quelle mesure alors est-il pertinent de conserver encore la donnée ? Au fond, la conscience de l’existence d’un patrimoine informationnel riche inexploré subsiste dans l’entreprise. Sa suppression n’est jamais naturelle. Elle induit le risque de faire disparaître une mémoire que l’on espère toujours pouvoir exploiter. Mais elle s’oppose également à de nouvelles obligations, tout aussi impérieuses, telles que la protection de l’environnement et le combat contre le réchauffement climatique, qui interrogent le sens d’une conservation de lourds volumes de données inexplorées.

L’approche « au cas où » et l’avènement de l’intelligence artificielle

Toutes les organisations font le pari de l’apparition d’un algorithme suffisamment puissant pour monétiser la donnée archivée. Les promoteurs de l’intelligence artificielle sont d’ailleurs convaincus de sa réussite à terme.

Pour l’entreprise, l’exercice repose sur 3 piliers : la démonstration d’une valeur ajoutée, le secteur concerné, l’accessibilité de la donnée. Les demandes d’infrastructures de stockage dédiées à l’IA sont très clairement en augmentation. Nous constatons une sortie des phases de tests auprès des hyperscalers et le lancement d’études pour l’édification d’architectures spécifiques à l’IA on-premise. La problématique principale repose sur le sizing de ces infrastructures, qui ne peut s’appuyer ni sur un besoin clair (que les entreprises ne parviennent pas toujours à définir) ni sur la structure des ressources requises par les algorithmes employés. À ce jour, il serait simple de déclarer que l’IA requiert les plus hautes performances, les meilleurs composants, les réseaux les plus rapides… une analyse qui se heurterait vite au mur de la réalité, fait de budgets serrés et de compétences datascientists rares.

Les IA génératives généralistes, basées sur les grands modèles de langage, n’ont pas d’autre vocation que de devenir des outils de productivité et de bureautique. Seuls les modèles spécialisés peuvent présenter un intérêt concret aux entreprises souhaitant faire travailler leurs données selon leurs activités et leurs secteurs : le BIM dans la construction, la collecte de données de santé des infrastructures en services managés, le legaltech sur les fonds juridiques propres des éditeurs juridiques, la détection précoce de maladies, etc. Les avantages des modèles de petite taille sont par ailleurs nombreux : une empreinte carbone, des coûts opérationnels et une consommation d’énergie plus faibles ainsi qu’une sensibilité moindre au risque hallucinatoire.

L’accessibilité longue durée aux données en question

Reste l’accessibilité de la donnée archivée. Si « l’argent n’est pas un problème », la donnée archivée en ligne est naturellement la promesse d’une ré-exploitation facilitée. Ce n’est généralement le choix de personne compte tenu des coûts associés.

Les volumes sont tels que le coût du stockage doit rester maîtrisé, c’est pourquoi la bande a longtemps eu la préférence, conservée dans un site distant protégé des conditions de dégradation les plus variées. Rejeton de l’archivage papier, la bande continue d’avoir quelques adeptes et d’être régulièrement proposée. Mais sa fragilité et surtout sa ré-exploitation particulièrement délicate (compte tenu de l’absence de technologie de restauration en entreprise) n’en font pas le candidat idéal à la consommation de données froides à des fins de datascience.

Sous format fichier à 99 %, les données froides sont conservées désormais sur du disque. Les deux grands protocoles fichiers (NFS sous Unix et Linux et CIFS/SMV sous Windows) ont peu évolué et autorisent, dans une majorité de cas, une lisibilité pendant de nombreuses années. Toutefois, parce que l’archivage repose sur des durées longues, de l’ordre de 20 ans, il demeure complexe de garantir la lecture de formats très vieillissants. La problématique se pose notamment dans tous les secteurs exploitant des logiciels exotiques mais également pour des versions très anciennes de logiciels aussi courants que Microsoft Office.

Stocker en rythme

En conséquence de quoi, le temps reste le paramètre intangible des données froides. Si l’on a pu lire, ici ou là, que les données perdaient de leur valeur de production de plus en plus vite ces dernières années, ce n’est pas ce que nous remarquons sur le terrain, auprès de nos clients. La constitution des plans de sauvegarde montre que les délais de rétention des données actives n’ont pas particulièrement évolué. En revanche, les entreprises ont tendance à conserver leurs données à portée de main plus longtemps afin d’en faciliter la ré-exploitation.

C’est pourquoi, du strict point de vue de l’architecture de stockage, il devient pertinent de se doter d’une infrastructure composée d’un tiers de stockage de production performant désormais basé sur des technologies Flash de type TLC, d’un tiers de stockage capacitif basé sur des technologies de type disques dur ou Flash de type QLC, stockage orienté objet, et d’un tiers d’archivage sur bandes, disques ou dans le Cloud, associés à des outils d’automatisation du déplacement de la donnée. Si le rôle des CDO est de faire parler les données, l’exercice impose une gymnastique de déplacement des stocks, une réplication nécessaire sur du stockage performant ainsi qu’une gouvernance rigoureuse veillant à détruire cette donnée répliquée une fois son exploitation réalisée. La gestion électronique documentaire et l’archivage électronique des documents sont des solutions métiers qui complètent efficacement le processus, au service de la conformité certes mais aussi de la ré-employabilité de la donnée.


 


Entre progrès des algorithmes et innovations dans les technologies de stockage, les efforts consentis dans la bonne gestion du patrimoine informationnel de l’entreprise porteront à terme leurs fruits.

Et si on apprenait à télétravailler plutôt que d’y renoncer

 

teletravail

Par René Bancarel, EFREI

C’est un tir de feux croisés qui vise le télétravail. Les critiques de certains dirigeants omettent souvent un point : le passage au télétravail a été spontané avec peu de formation ou d’accompagnement. Et si on commençait par le début…


À l’heure où certaines grandes entreprises iconiques notamment de la tech tournent le dos au télétravail, il est sans doute nécessaire d’interroger leurs motivations.

Après l’enthousiasme pour le télétravail des années qui ont suivi le confinement, le vent semble en train de tourner. Elon Musk annonçait brutalement la fin du télétravail dans ses entreprises (Tesla, Twitter), dès 2022. Jeff Bezos vient de faire de même au sein d’Amazon et des mouvements similaires, bien que moins radicaux, ont pu être observés dans d’autres grandes entreprises, telles que Disney ou Ubisoft, et Publicis pour la France, par exemple.

Si les annonces de ce type ont parfois été spectaculaires, les raisons avancées pour justifier ces renoncements ont été plus discrètes, en revanche. On a pu entendre une petite musique sur la perte de productivité, dans l’innovation notamment, sur les risques quant à l’engagement, ou sur l’allongement chez les cadres supérieurs des délais de prise de décision, sans que ces arguments ne soient réellement étayés par des études scientifiques.

Pousser à la démission

On a pu soupçonner, dans la presse, un objectif indirect, celui de réduire le nombre des salariés en poussant à la démission ceux qui n’envisageaient pas de retour en arrière quant au télétravail. Tout récemment, en novembre 2024, Elon Musk et Vivek Ramaswamy ont même ouvertement revendiqué cet objectif pour les fonctionnaires des États-Unis.

D’une manière sans doute moins objective, mais plus répandue chez les dirigeants, la tentation de réduire, sinon d’interdire le télétravail provient au moins en partie du fait qu’il ne correspond pas à la vision de l’engagement que se font certains dirigeants, encore bien souvent basé sur un présentéisme facilement observable.

Un message de défiance ?

N’en déplaise aux patrons de ces grandes entreprises, le télétravail conserve tous les avantages connus de longue date, aux yeux des employés, en termes notamment d’équilibre entre vie privée et vie professionnelle et de gain de temps. Il favorise la montée en autonomie des collaborateurs et peut être interprété comme une marque de confiance. Le retrait de cette possibilité ne manquera pas, en toute logique, de produire l’effet inverse, envoyant un message de défiance de la part de la hiérarchie.

Certains salariés ont organisé leur vie en tenant compte des possibilités de télétravail. Ils se sont installés à la campagne, loin des centres urbains, ils y ont acheté des maisons et y ont scolarisé leurs enfants, encouragés en cela par les politiques de leurs entreprises au sortir du Covid et par les édiles des communes rurales désireuses d’attirer de nouveaux habitants. Si l’objectif n’est pas de « dégraisser » les effectifs, les entreprises renonçant au télétravail risquent de perdre des collaborateurs dont elles n’avaient pourtant pas nécessairement envie de se séparer.

Il représente, enfin, un atout pour les entreprises, afin d’attirer de nouveaux talents ou fidéliser les anciens et même dans la gestion des maladies. Une tendance nouvelle voit ainsi certains collaborateurs légèrement souffrants « poser » des journées de télétravail, plutôt que de consulter un médecin pour obtenir un arrêt ou de venir au bureau au risque de contaminer leurs collègues.

Des formations marginales ou superficielles

La question n’est donc peut-être pas de s’interroger sur le maintien ou l’arrêt du télétravail, mais plutôt d’apprendre à bien télétravailler. On admet facilement que travailler s’apprend, qu’il est nécessaire non seulement d’acquérir les compétences indispensables à l’accomplissement des tâches, mais également les savoir-faire transverses relatifs à la communication interpersonnelle, aux comportements attendus, à l’organisation du travail, à l’autodiscipline, etc.

France24 2024.

Curieusement, on est parti du principe que télétravailler était une évidence pour qui savait travailler, sous-estimant les apprentissages que cela requiert. Si l’on peut comprendre que l’urgence du confinement ait pu reléguer ces considérations au second plan, dans un premier temps, il semble utile de s’y intéresser désormais. La formation des managers a bien sûr été soulignée comme étant nécessaire par la littérature scientifique, mais elle semble être restée marginale ou superficielle.

Nos travaux de recherche dans le cadre de notre thèse en sciences de gestion « Apprendre à télétravailler : une analyse multi-niveaux des processus d’apprentissage et d’autonomisation mobilisés par la déspatialisation » montrent qu’en avoir sous-estimé l’importance n’a pas empêché des apprentissages d’être faits par les acteurs, que ce soit au niveau individuel, managérial ou organisationnel. Les processus d’apprentissages et d’autonomisation n’ont en effet pas été interrompus par le confinement, bien au contraire, ni par la reprise d’un télétravail généralement pendulaire – comprendre alterné – ensuite.

Comment apprend-on à télétravailler ?

Nos données, recueillies sur une période de trois années comprenant les confinements, d’avril 2019 à janvier 2022, tendent à démontrer que le télétravail rend possible l’apprentissage et singulièrement celui de l’autonomie, autant qu’il le rend nécessaire. En effet, parce qu’il est temporairement et de manière récurrente soustrait au regard de son manager et de ses collègues, l’employé dispose de marges de manœuvre supplémentaires en termes d’organisation de son activité et de méthodes de travail. Dans le même temps, la moindre accessibilité du chef et du reste de l’équipe lui impose de réaliser les apprentissages qui lui permettront de gagner en autonomie.


Abonnez-vous dès aujourd’hui !

Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.


L’autonomisation, donc, est un processus permanent, théoriquement favorisé par le télétravail et qui se nourrit d’apprentissages à trois niveaux : individuel, au sein de l’équipe et avec le manager, et, enfin, au sein de l’organisation.

Sentiment d’efficacité professionnelle

Les compétences individuelles requises par le télétravail sont multiples et spécifiques à l’activité et au poste occupé, mais il est possible d’en dégager certaines communes au plus grand nombre. Parmi ces dernières, on trouvera la maitrise des outils bureautiques nécessaires aux échanges à distance, mais également l’autodiscipline, l’organisation, la recherche d’information…

Mais au-delà des compétences, les aptitudes qu’un télétravailleur doit mobiliser inclut son sentiment d’efficacité professionnelle, que Bandura définit comme la croyance qu’un individu à en ses capacités à réussir quelque chose, ici à travailler seul à son domicile, sans se laisser distraire et avec efficacité.

Distance psychologique avec le manager

Au niveau de la relation avec son manager et au sein de l’équipe, le modèle de distance dyadique développé par Napier et Ferris permet d’éclairer ce qui se joue à ce niveau. Ce que ces auteurs nomment distance fonctionnelle au sein de la « dyade manager-managé » conditionne la performance et la satisfaction de l’employé. Cette distance fonctionnelle repose sur deux piliers, la distance psychologique qui décrit la relation, la proximité de valeurs, de culture et même de centres d’intérêt entre le manager et son collaborateur et la distance structurelle, c’est-à-dire la distance physique entre eux.

C’est bien entendu cette dernière qui est agrandie en premier chef par la mise en place de modalités de télétravail. Donc, plus la distance structurelle augmente plus la dyade doit veiller à maintenir, voire à renforcer, une proximité psychologique afin de conserver une distance fonctionnelle acceptable et, partant, la performance et la satisfaction du télétravailleur. Une sensibilisation des deux membres de la dyade à cet enjeu contribuera aux apprentissages nécessaires à la réussite du télétravail.

Discours bienveillant

Enfin le troisième niveau, celui de l’organisation elle-même, de l’entreprise, concerne l’environnement dans lequel l’individu doit réaliser ses apprentissages. Cet environnement doit non seulement permettre les apprentissages, mais, dans la mesure du possible, les faciliter et les encourager. Il s’agit ici de la mise à disposition des outils adéquats, de la formation des collaborateurs à leur utilisation, mais également d’un discours bienveillant à l’égard du télétravail, d’un encouragement à l’innovation en termes de méthodes de travail et d’un soutien apporté aux managers et à leurs équipes. L’apprentissage de l’autonomie nécessite la construction d’un environnement « capacitant ».

Les motivations qui président au renoncement de certaines entreprises au télétravail peuvent trouver l’une de leurs origines dans le souci de contrôler davantage les salariés. L’importance du contrôle en semble renforcée mais celui-ci n’est peut-être qu’illusoire, les individus qui le souhaitent iront chercher ailleurs les marges de manœuvre qui leur permettront de conquérir une autonomie plus grande.

Renoncer au télétravail c’est renoncer à croire à la réussite du processus d’autonomisation. En ce sens, on peut y voir, soit un constat d’échec, qui peut sans doute s’observer ça et là, soit le reflet d’une croyance négative du dirigeant à l’égard des capacités d’apprentissage de ses collaborateurs et de son entreprise.The Conversation

René Bancarel, Docteur en Sciences de Gestion et du Management, directeur des études et enseignant à Efrei Paris Panthéon Assas Université, EFREI

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Face à la cybercriminalité galopante, l’État lance le 17Cyber

 

cyber

La menace est bien réelle et les chiffres font froid dans le dos. Neuf Français sur dix ont déjà été confrontés à une situation de malveillance informatique. L’année dernière, ce sont plus de 278 000 infractions numériques qui ont été enregistrées par les forces de l’ordre, une hausse significative par rapport aux 255 320 cas de 2022. Face à cette déferlante cybercriminelle, le ministère de l’Intérieur contre-attaque avec le lancement d’un nouveau service : le 17Cyber.

L’initiative, qui vient d’être dévoilée ce 17 décembre, se veut être l’équivalent numérique du traditionnel appel d’urgence « 17 ». Une réponse adaptée à notre époque où les malfaiteurs ont troqué le pied de biche contre le clavier d’ordinateur. Le concept ? Un guichet unique accessible 24 heures sur 24 et 7 jours sur 7 via le site 17cyber.gouv.fr, permettant aux victimes d’obtenir rapidement un diagnostic de leur situation et des conseils personnalisés.

Le phénomène touche toutes les strates de la société. Les chiffres sont éloquents : 47 % des victimes de préjudices financiers en ligne ont moins de 44 ans, et les femmes représentent 67 % des victimes d’atteintes numériques à la personne. Plus inquiétant encore, les collectivités territoriales sont devenues les cibles privilégiées des cybercriminels, avec 55 attaques par rançongiciel recensées en 2023, contre 37 l’année précédente.

L’originalité du dispositif réside dans son approche « tout-en-un ». Après un diagnostic rapide basé sur quelques questions, les victimes peuvent être mises en relation par tchat avec un policier ou un gendarme. En cas de besoin, une assistance technique peut être fournie par l’un des 1 200 prestataires référencés par Cybermalveillance.gouv.fr, dont 200 sont labellisés « ExpertCyber ».

Un module 17Cyber intégrable gratuitement

L’ambition ne s’arrête pas là. Le ministère a développé un module 17Cyber intégrable gratuitement sur n’importe quel site web. Une innovation qui a déjà séduit de grands noms du numérique comme Meta, Amazon France, ou encore La Poste Groupe, qui se sont engagés à relayer le service sur leurs plateformes.

Cette initiative s’inscrit dans une stratégie plus large de lutte contre la cybercriminalité, orchestrée par le Commandement du ministère de l’Intérieur dans le cyberespace (COMCYBER-MI). Les résultats sont déjà tangibles : en 2023, l’action coordonnée des forces de sécurité intérieure a permis de déjouer 44 cyberattaques visant des entités françaises.

Avec le 17Cyber, l’État espère créer un nouveau réflexe citoyen face aux menaces numériques. Un pari ambitieux mais nécessaire à l’heure où le cybercrime s’impose comme l’une des principales menaces du XXIe siècle.

 

À Mayotte, François Bayrou déclenche une polémique sur l’usage de Starlink et provoque la colère d’Orange

 

starlink

La visite de François Bayrou à Mayotte, l’île dévastée par un cyclone, était très attendue. Si, en dévoilant son plan « Mayotte debout » de reconstruction en deux ans, le Premier ministre a un peu atténué la colère qu’il avait fait naître en se rendant dès sa nomination à Pau plutôt qu’en réunion de crise à Paris, il n’a toutefois pas évité de nouvelles polémiques.

Elisabeth Borne tourne le dos aux enseignants

La première a été déclenchée par sa ministre de l’Éducation nationale Elisabeth Borne, qui n’a rien trouvé de mieux à faire que tourner le dos à deux enseignants qui l’interpellaient sur l’aide annoncée qu’ils n’avaient pas vue. La séquence, ravageuse, a provoqué la colère des syndicats enseignants.

La seconde polémique, plus discrète, a été déclenchée par François Bayrou lui-même. Au moment de présenter son plan, le Premier ministre annonce « Nous allons déployer 200 Starlinks pour assurer les télécommunications en urgence », en faisant référence aux antennes de communication par satellite de la société Starlink, propriété du milliardaire américain pro-Trump Elon Musk.

Colère chez Orange

Cette annonce a déclenché la colère légitime de Laurentino Lavezzi, directeur des affaires publiques groupe Orange.

Dans un long post sur le réseau X, ce dernier déplore que François Bayrou n’ait pas eu un mot de remerciement pour ses techniciens. « En dix jours, le réseau mobile Orange est passé de 25 % de couverture de la population à 75 %. Nous ne demandons pas de médaille (quoi que, les mérites de nos collaborateurs sur place seraient dignes d’une reconnaissance officielle de la Nation). Mais tous sommes heurtés par une communication du gouvernement qui axe ses annonces sur du wifi provisoire by Starlink, pourtant bien moins couvrant et performant qu’un réseau mobile », rappelle M. Lavezzi, qui dénonce le fait « que les générateurs électriques sont dirigés en priorité vers les hot points wifi Starlink, tandis qu’on refuse des générateurs aux opérateurs… »

« Ces décisions interrogent quant à leur pertinence dans la poursuite du rétablissement des réseaux ; elles interrogent sur leur rationalité économique ; et elles laissent pantois sur le terrain de la souveraineté numérique », estime Laurentino Lavezzi.

Et pour cause. Pourquoi, en effet, recourir à Starlink, alors que des solutions existent pour pallier le rétablissement du réseau mobile classique s’il tardait à se réaliser ? L’ambassade de France au Vanuatu, partiellement détruite lors d’un séisme le 17 décembre, a par exemple eu recours à une antenne satellite d’un prototype mis au point par le français E-Sat et qui intègre une borne wifi…

Le ministre de l’Industrie veut rassurer

Le ministre de l’Industrie Marc Ferracci a rapidement réagi pour rattraper la bourde de François Bayrou. « Dès le début des opérations j’ai tenu à saluer l’investissement des techniciens mobilisés pour rétablir les réseaux électriques et de télécommunications pour reconnecter nos concitoyens et ce dans des conditions difficiles. Beaucoup a déjà été fait, grâce à l’engagement sans faille des salariés présents sur place ou dépêchés depuis d’autres départements : plus de 70 % de la population dispose d’une couverture mobile, des cartes SIM et des forfaits gratuits ont été distribués, des solutions wifi et satellites ont été proposées aux collectivités. Beaucoup reste encore à faire », estime le ministre, qui assure examiner « toutes les options pour accélérer la couverture numérique. »

On l’espère française ou a minima européenne pour que la souveraineté numérique ne soit pas qu’une parole politique en l’air, mais bien des actes concrets sur le terrain.