Technomedia

Numérique · médias · sciences · intelligence artificielle

Journée mondiale de la sauvegarde des données informatiques : 3 questions à Patrick Sena

hdd

Ce 31 mars est la Journée mondiale de la sauvegarde des données informatiques. Patrick Sena, Senior Manager en Solution Engineering chez SailPoint répond à 3 questions sur l'importance de la sauvegarde.

Pourquoi sauvegarder ses données ?

La protection des données est désormais essentielle. Toute personne possédant un ordinateur portable, un smartphone ou un objet connecté n’est plus étranger quant à l’importance et la valeur de la sauvegarde des données et des fichiers. Elle est également vitale pour les entreprises. Une sauvegarde régulière - de préférence quotidienne - préserve les fichiers importants des pertes de données dues à des événements banals tels que les pannes de système, les logiciels malveillants, les bugs ou les pannes de disque dur.

Quels sont les risques pour les sauvegardes ?

Les attaques de cybercriminels sont de plus en plus complexes et difficiles à détecter et peuvent cibler directement les entreprises directement ou les sauvegardes. Les ransomwares, par exemple, peuvent crypter les données de sauvegarde lors de la phase finale de l'attaque, après être passés inaperçus pendant des mois. Cela peut empêcher les entreprises de se débarrasser complètement du virus et donc causer encore plus de dégâts.

Comment protéger ses sauvegardes et ses données ?

La sauvegarde des données est nécessaire, mais elle fait partie d’un pan plus large de protection des données des entreprises qui doit se faire sur plusieurs niveaux. L'authentification à deux facteurs pour toutes les données, y compris celles qui sont sauvegardées, est un indispensable.

Pour répondre à cette problématique, la sécurité et la gestion des identités est essentielle. Grâce à des solutions appropriées, les entreprises peuvent non seulement voir et comprendre qui accède à quels programmes et données, mais aussi attribuer les droits et les rôles d'accès en fonction de la tâche. Grâce à cette visibilité centralisée, les entreprises peuvent en outre réagir rapidement aux comportements suspects, bien avant qu'un incident ne se produise.

Données personnelles : rien à cacher, mais beaucoup à perdre

Nos données personnelles sont partout sur internet, et peuvent être utilisées à très mauvais escient. Дмитрий Хрусталев-Григорьев , Unsplash, CC BY
Par Antoine Boutet, INSA Lyon – Université de Lyon

Nos données personnelles circulent sur Internet : nom, adresses, coordonnées bancaires ou de sécurité sociale, localisation en temps réel… et les affaires qui y sont liées se font une place pérenne dans le débat public, du scandale Facebook-Cambridge Analytica au vol de données à la Croix-Rouge, en passant par les récents blocages d’hôpitaux par des rançongiciels (ou ransomware) et l’interdiction de l’application TikTok pour les fonctionnaires de plusieurs pays.

Mais si l’on sait de plus en plus que nos données personnelles sont « précieuses » et offrent des possibilités sans précédent en matière de commercialisation et d’innovation, il est parfois difficile de saisir ou d’expliquer pourquoi il faudrait les protéger.

Quels sont les risques liés à la divulgation de mes données personnelles ?

Le premier risque concerne la perte du contrôle sur nos propres données. C’est ce qui arrive par exemple quand on autorise le traçage par des sites ou des applications : on autorise l’enregistrement de nos activités sur le Web ou sur notre smartphone (pages visitées, géolocalisation) et l’échange de ces données, et, une fois cet accord donné, nous n’avons plus aucun pouvoir sur la circulation de nos données.

Ces informations sont utilisées le plus souvent pour du profilage qui permet d’alimenter l’économie de la publicité personnalisée régie dorénavant par des plates-formes d’enchères valorisant les données relatives aux profils utilisateurs contre des emplacements publicitaires.

Mais, ces informations peuvent également être utilisées à mauvais escient. La connaissance de votre localisation peut aider le passage à l’acte d’un cambrioleur par exemple, et la connaissance de vos centres d’intérêts ou opinion politique peut vous exposer à des opérations d’influence.

Le scandale Cambridge Analytica en est un exemple, avec l’exploitation de données personnelles de millions d’utilisateurs Facebook pour des campagnes de désinformation ciblées afin d’influencer des intentions de vote. Plus récemment, les révélations du Monde sur les entreprises de désinformation indiquent que cette pratique n’est pas un cas isolé.

Un autre risque concerne l’hameçonnage : si des informations personnelles sont présentes dans un courriel ou SMS frauduleux, il vous paraîtra plus réaliste et abaissera vos barrières de vigilance. L’hameçonnage sert souvent à infecter la cible avec un rançongiciel (ransomware en anglais) : les cybercriminels utilisent des informations personnalisées pour gagner la confiance des destinataires et les inciter à ouvrir des pièces jointes, ou à cliquer sur des liens ou documents malveillants, ce qui permet dans un second temps de verrouiller les données de la victime et d’en interdire l’accès. Une rançon est ensuite réclamée pour les déverrouiller.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Bien que les attaques par rançongiciel les plus médiatisées concernent des organisations, des hôpitaux par exemple, les particuliers sont également touchés.

Dans le cas de l’usurpation d’identité, une personne malveillante utilise des informations personnelles qui permettent de nous identifier (« se logger ») sans notre accord : par exemple, en créant un faux profil sur une plate-forme et en rédigeant des commentaires sous l’identité de la victime afin de nuire à sa réputation.

À un autre niveau, la surveillance de masse exercée par certains États capture les informations personnelles de leurs citoyens afin d’entraver la liberté d’expression ou de ficher les individus par exemple. Une surveillance accrue peut tendre vers un sentiment d’absence de sphère privée et ainsi brider le comportement des individus.

En Europe, le RGPD (règlement général sur la protection des données) limite la récolte des données personnelles, notamment par les gouvernements, qui doivent justifier d’une raison suffisante pour toute surveillance.

Chacun d’entre nous a une empreinte numérique unique

Ces problèmes touchent chacun d’entre nous. En effet, dans un monde de plus en plus numérique où nous générons quotidiennement des données à travers notre navigation sur Internet, nos smartphones, ou nos montres connectées, nous avons tous une « empreinte numérique unique ».

En clair, il est généralement possible de réidentifier quelqu’un juste à partir des « traces » que nous laissons derrière nous sur nos appareils numériques.

une empreinte digitale à la craie
Nos données personnelles permettent de nous identifier, comme une empreinte digitale numérique. Immo Wegmann/Unsplash, CC BY

Par exemple, l’observation aléatoire de quatre lieux visités seulement représente une signature unique pour 98 % des individus. Cette unicité est généralisable dans un grand nombre de comportements humains.

Cacher l’identité du propriétaire de données personnelles uniquement derrière un pseudonyme n’est pas une protection suffisante face au risque de réidentification, il est nécessaire d’anonymiser les données.

Données synthétiques, apprentissage fédéré : les nouvelles méthodes pour protéger les données personnelles

Tels les membres d’un « black bloc » essayant d’être indistinguables entre eux en s’habillant de manière identique dans une manifestation houleuse, l’anonymisation de données a pour but d’éviter qu’une personne ne se démarque du reste de la population considérée, afin de limiter l’information qu’un cyberattaquant pourrait extraire.

Dans le cas de données de géolocalisation, on pourrait par exemple modifier les données afin que plusieurs utilisateurs partagent les mêmes lieux visités, ou alors introduire du bruit pour ajouter une incertitude sur les lieux réellement visités.

Mais cette anonymisation a un coût car elle « déforme » les données et diminue leur valeur : une trop grande modification des données brutes dénature l’information véhiculée dans les données anonymisées. De plus, pour s’assurer de l’absence d’une empreinte réidentifiante, les modifications nécessaires sont très importantes et souvent incompatibles avec nombre d’applications.

Trouver le bon compromis entre protection et utilité des informations anonymisées reste un challenge. À l’heure où certains voient les données comme le nouveau pétrole du XXIe siècle, l’enjeu est de taille car une donnée anonyme n’est plus considérée comme une donnée personnelle et échappe au RGPD, ce qui veut dire qu’elle peut être partagée sans consentement du propriétaire.

Cette difficulté de trouver un compromis acceptable entre protection et utilité des données au travers de mécanismes d’anonymisation a fait évoluer les pratiques. De nouveaux paradigmes de protection des données personnelles ont vu le jour.

Une première tendance consiste à générer des données synthétiques reproduisant les mêmes propriétés statistiques que les vraies données.

Ces données générées de manière artificielle ne sont par conséquent pas liées à une personne et ne seraient plus encadrées par le RGPD. Un grand nombre d’entreprises voient en cette solution des promesses de partage d’information moins limitées. En pratique, les risques résiduels des modèles de génération synthétique ne sont pas négligeables et sont encore à l’étude.

Une autre solution limitant le risque de partage de données personnelles est l’apprentissage fédéré. Dans l’apprentissage machine conventionnel, les données sont centralisées par une entité pour entraîner un modèle.

Dans l’apprentissage fédéré, chaque utilisateur se voit attribuer un modèle qu’il entraîne localement sur ses propres données. Il envoie ensuite le résultat à une entité qui s’occupe d’agréger l’ensemble des modèles locaux. De manière itérative, cet apprentissage décentralisé permet de créer un modèle d’apprentissage sans divulguer de données personnelles.

Ce nouveau paradigme de protection des données personnelles suscite beaucoup d’engouement. Cependant, plusieurs limitations subsistent, notamment sur la robustesse face aux acteurs malveillants qui souhaiteraient influencer le processus d’entraînement. Un participant pourrait par exemple modifier ses propres données pour que le modèle se trompe lors d’une tâche de classification particulière.The Conversation

Antoine Boutet, Maitre de conférence, Privacy, IA, au laboratoire CITI, Inria, INSA Lyon – Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Inquiétude de voir des criminels utiliser ChatGPT

chatgpt

Alors qu'Europol vient de publier un rapport sur les dangers de ChatGPT et s'inquiète de son utilisation par des criminels,  Kunal Anand, CTO d’Imperva, spécialiste de la sécurité, réagit face à la situation actuelle

Les chatbots posent-ils un problème de protection de la vie privée plus important que les moteurs de recherche, et pourquoi ?

"Le problème des chatbots par rapport aux moteurs de recherche n'est pas seulement lié aux conditions générales ou à la manière dont ils utilisent les données, mais aussi à la manière dont nous interagissons avec eux. Par rapport à une recherche Google ou Bing, les LLM comme Bard deviennent plus utiles à mesure que nous leur donnons plus d'informations (en informatique, cela s'appelle l'apprentissage par renforcement). Et surtout avec un chatbot, il est facile de traiter les interactions comme une conversation et de laisser échapper plus d'informations que nous ne le ferions normalement en tapant simplement dans une boîte de recherche.

"Même si les informations que vous partagez sont stockées en toute sécurité dans le centre de données d'une entreprise, elles sont toujours utilisées pour former les chatbots et pourraient être divulguées dans les réponses qu'ils donnent à d'autres personnes. Et comme nous l'avons vu cette semaine avec la divulgation par OpenAI d'une énorme faille de confidentialité dans ChatGPT, il est également possible que ces chatbots soient ciblés par des pirates informatiques cherchant à accéder à ces données sensibles.

"Comme pour tout ce qui se passe en ligne, la règle d'or est de faire attention aux informations que l'on partage. Si vous ne souhaitez pas que des informations entrent dans le domaine public ou si vous ne les partageriez pas avec un étranger au téléphone, elles ne devraient probablement pas être transmises à un chatbot".

À mesure que ces robots s'intègrent dans l'internet et les médias sociaux, les risques d'être confronté à des chatbots convaincants et malveillants, gérés par des pirates, des fraudeurs, etc. Comment puis-je repérer les logiciels malveillants, les courriels, les robots, etc. générés par des acteurs malveillants ou par l'IA ? Quels sont les autres risques ?

"Un chatbot malveillant fonctionne essentiellement selon les mêmes principes qu'un courriel d'hameçonnage ou un appel téléphonique frauduleux, c'est-à-dire qu'il tente de vous faire partager des informations sensibles ou de vous faire faire quelque chose de nuisible afin de commettre une fraude ou un vol d'identité, de voler de l'argent ou de commettre d'autres cybercrimes.

"Comme dans tous ces cas, le principe est le même : si l'apparence ou la sensation n'est pas bonne, ne vous engagez pas. Par exemple, le site web du chatbot a-t-il une URL inhabituelle ? Utilise-t-il un langage étrange ? Demande-t-il des informations non pertinentes ou trop privées, comme des coordonnées bancaires ou votre emploi du temps quotidien ? Si c'est le cas, mettez fin à la conversation et quittez le site immédiatement. Si vous avez le moindre doute, il est toujours plus prudent de vous rendre sur le site de l'organisation dont le chatbot se réclame, d'y trouver un numéro de téléphone et de l'appeler directement. Tout comme pour le phishing et les escroqueries téléphoniques, il y aura une période d'apprentissage, au cours de laquelle les gens apprendront comment se comporte un chatbot "légitime", afin de pouvoir repérer plus facilement les faux.

"En ce qui concerne les autres risques, il y a aussi le danger de la désinformation. En raison du mode de fonctionnement des IA comme ChatGPT, les criminels pourraient tenter d'empoisonner le puits en partageant des données fausses ou inexactes que l'IA pourrait capter et inclure dans ses réponses. Par exemple, si vous utilisez ces services pour vous aider à programmer, des acteurs malveillants pourraient introduire des codes contenant des failles de sécurité ou d'autres problèmes, puis attendre qu'ils soient pris en compte et utilisés. Pour éviter cela, il faut toujours faire preuve d'un certain scepticisme. Ne considérez pas tout ce qui vient de ces outils comme parole d'évangile, mais exercez un contrôle de qualité et vérifiez les faits à deux reprises."

Le .FR continue de prendre des parts de marché au .com

computer

L’Afnic, l’association en charge des noms de domaine en .FR, publie son observatoire annuel concernant l’activité du .FR et analyse les tendances du marché. "Après deux années spectaculaires (2020 et 2021), le « retour à la normale » observé en 2022 se poursuit. Toutefois, ce bilan met en lumière une croissance réelle et marquée : le .FR bénéficie toujours d’une place à part sur le marché des noms de domaine et il continue de prendre des parts de marché à son concurrent historique", explique l'Afnic.

Pérennisation de la transformation numérique et ancrage territorial

Le cap des 4 millions de noms de domaine en .FR a été franchi en décembre 2022, avant de retomber et de s’établir à 3 996 245 noms en stock au 31/12/22, contre 3 882 488 au 31/12/21. Le stock est repassé au-dessus des 4 millions dès le mois de Janvier 2023.

Les créations de noms de domaine en .FR s’élèvent à 753 412 en 2022 (vs 776 514 en 2021), et restent largement supérieures à l’année de référence 2019, de 9 %, confirmant ainsi la pérennisation de la transformation numérique des entreprises. Après avoir oscillé entre 600 et 700 000 par an jusqu’en 2019, les créations ont dépassé les 700 000 en 2020 et se maintiennent, depuis, au-dessus de ce seuil.

Surtout, avec une croissance de 2,9 % (contre 5,8 % en 2021), le .FR signe une belle performance au regard du marché local, qui s’établit à +1,3 % toutes extensions confondues, mais également en comparaison du marché européen, où la croissance des ccTLD (hors .UK) est de +2 % et du marché mondial qui ne dépasse pas les 2 % de croissance (+1,9 %).

« Nous sommes particulièrement fiers des performances du .FR cette année encore, dans un contexte général qui montre un certain ralentissement. Celui-ci est tout à fait légitime, les entreprises n’ayant pas de sites internet se faisant plus rares. La sensibilisation doit se poursuivre en allant à leur rencontre. C’est un travail que nous menons à l’Afnic, à travers différents dispositifs, notamment Réussiren.fr » commente Pierre Bonis, Directeur général de l’Afnic.

afnic

Conclusions et perspectives 2023

Il reste de nombreux défis à relever en 2023. L’un des enjeux majeurs consiste à continuer la sensibilisation des PME/TPE et artisans les plus éloignés du numérique. Par ailleurs, la transformation numérique amorcée pendant la crise sanitaire a besoin d’être soutenue et accompagnée pour qu’elle gagne en maturité. « Toutes les entreprises n’ont pas un égal besoin des outils numériques et d’une présence internet, mais il en est peu qui n’aient pas un bénéfice à en retirer. » conclut Pierre Bonis.

Le sharenting : partager des photos de ses enfants en ligne n’est pas sans conséquence

 

parents

Avis d'expert d'ESET France

Selon différentes études, un enfant voit en moyenne sa photo partagée en ligne 1 300 fois avant l'âge de 13 ans, et ce avant même qu'il puisse légalement créer son propre profil sur des médias sociaux comme Facebook ou Instagram. Alors qu’une proposition de loi contre le "sharenting" est actuellement débattue à l'Assemblée nationale française, Benoit Grunemwald, expert en cybersécurité chez ESET France, rappelle que publier des photos de ses enfants n'est pas sans conséquence et partage quelques conseils pour protéger sa famille en ligne.

En partageant des photos mettant en scène des enfants, les parents créent non seulement leur empreinte numérique mais également un profil numérique.

Nos informations personnelles publiées en ligne ont la faculté d’y rester en ad vitam aeternam, formant ainsi notre empreinte ainsi qu’un profil numérique. Réalisons aujourd’hui à quel point nous influençons l’empreinte numérique future de nos enfants et prenons non seulement les bons réflexes pour les protéger du cyber-harcèlement et d’autres problèmes de cyber-violences, mais également d’agir sur leur futur profil social, en tant que citoyens numériques.

Surveiller les paramètres de confidentialité

Si certains parents ne peuvent s’abstenir de publier des photos, il est important de surveiller les paramètres de confidentialité de tous les contenus partagés. Il faut se poser la question de la propriété et des accès aux données partagées. Les plateformes améliorent régulièrement les possibilités de personnaliser ses paramètres de confidentialité, les passer en revue prend peu de temps et permet de s’assurer que le niveau de confidentialité choisi n’a pas évolué.

Éviter le partage de photos explicites

Il faut éviter de partager des photos explicites des enfants, par exemple lorsqu’ils se baignent. Ces photos peuvent faire l’objet de captures d’écran ou être téléchargées et envoyées à n’importe qui

Ne pas tout attendre du cadre légal

Même le RGPD et son droit à l’oubli ne peuvent éliminer le risque qu’une photo embarrassante soit conservée sur le disque dur de quelqu’un qui a fait une capture d’écran. Même si elle a été effacée à sa source, l’information peut réapparaître sur Internet dans le futur et devenir un fardeau, compliquant, par exemple, des futures demandes d’emploi ou des futures relations.

Applications récréatives au sein de la fonction publique : quels sont les risques en matière de sécurité des données ?

tiktok

Après la Communication Européenne qui avait pris, en février dernier, la décision d’interdire les applications telle que Tiktok sur les téléphones professionnels de ses parlementaires, c’est maintenant le ministère français de la Fonction Publique qui a annoncé, vendredi 24 mars, une interdiction similaire, d’après un article du Figaro. Les applications dites “récréatives” telles que TikTok mais aussi Netflix et Candy Crush sont désormais interdites sur les téléphones professionnels des fonctionnaires français. “Ces applications présentent des « risques en matière de cybersécurité et de protection des données” a déclaré le ministère de la Fonction publique. Si des doutes planaient déjà autour de la sécurité des données de TikTok, c’est la première fois qu’un Etat interdit ou restreint l’utilisation de l’ensemble des applications récréatives, peu importe l’origine.

« Lorsqu’une application est installée sur un smartphone. Elle demande un certain nombre d’autorisations. L’autorisation d’accès au stockage, aux photos, à la géolocalisation, aux contacts ou encore aux messages. Si la plupart de ses demandes sont légitimes et servent au fonctionnement des applications, elles permettent à des tiers d’avoir une vue sur nos usages et nos données. Nos recherches sur les cyber menaces mobiles et le cyber espionnage montrent à quel point le détournement d’applications est courant. Si le ROI financier est le premier objectif des applications récréatives, les fuites de données et l’espionnage peuvent survenir. Ainsi, afin d’en limiter le risque il est prudent de dissocier usages privés et usages personnels », explique  Benoit Grunemwald, expert en cybersécurité chez ESET France.

L'UNIFAB, l'ALPA et Meta lancent sur internet une campagne de sensibilisation du grand public à la contrefaçon et au piratage

facebook

Meta lance aujourd’hui en France une nouvelle campagne d’information pour sensibiliser les consommateurs aux risques associés aux produits de contrefaçon et au piratage, et contribuer à protéger les droits de propriété intellectuelle des créateurs et des entreprises. En France, cette campagne est soutenue par l’Union des Fabricants (UNIFAB)* et l’Association de lutte contre la piraterie audiovisuelle (ALPA)*.

 La contrefaçon et le piratage nuisent aux activités des responsables des entreprises et des créateurs qui utilisent les plateformes en ligne comme sources de revenus. En effet le piratage des œuvres audiovisuelles et cinématographiques fragilise l’équilibre de l’industrie de la création et sa diversité, tandis que les produits de contrefaçon ont également des conséquences sur l’environnement, la sécurité et la santé. Ces types d’atteintes aux droits créent également des risques importants pour les utilisateurs en accentuant les risques de fraude et d'usurpation d'identité.

 L'objectif de cette campagne est de renforcer la vigilance à l'égard des délinquants opérant sur Internet, et des promoteurs de produits contrefaits et de contenus piratés. Elle s'inscrit dans la dynamique actuelle de responsabilisation de tous les acteurs, y compris les influenceurs. Cette campagne redirigera les utilisateurs vers des informations les mettant en garde contre les dangers de la contrefaçon et du piratage.

 Cette série de vidéos, qui sera diffusées sur Facebook et Instagram, relayée par l’UNIFAB et l’ALPA, rappelle aux utilisateurs des plateformes en ligne de toujours s’assurer que les comptes avec lesquels ils interagissent proposent des produits authentiques, avant de procéder à un achat, et de vérifier que les œuvres auxquelles ils accèdent sont proposées de manière légale. 

Pour Delphine Sarfati-Sobreira, Directrice générale de l’Unifab, “L’offre de contrefaçons en ligne, via les réseaux sociaux ou les marketplaces, est encore trop présente puisque, d’après l’IFOP, 37% des consommateurs qui ont déjà acheté des contrefaçons via Internet pensaient acheter des produits authentiques !  L’Unifab est donc ravie de collaborer avec META et l’ALPA pour mieux sensibiliser les citoyens français. Protéger la santé des consommateurs est fondamentale, et préserver la créativité et l’innovation, moteurs de l’économie, est essentiel.”

Pour Frédéric Delacroix, Délégué Général de l’ALPA, “Selon Médiamétrie, près de 7 millions d’internautes français se livrent au piratage d’œuvres audiovisuelles et cinématographiques tous les mois. Même si ce chiffre est en baisse ces dernières années grâce aux offres légales, aux actions en justice menées par les ayants droit avec l’ALPA et les mesures prises par la plupart des grands acteurs de l’internet, ce chiffre reste considérable et impacte cette industrie culturelle. La collaboration avec META est l’occasion pour l’ALPA de faire prendre conscience aux internautes se livrant au piratage qu’en accédant à des contenus illégaux, ils participent au financement de réseaux délinquants internationaux, donc l’activité est basée sur la diffusion d’œuvres contrefaites, mais surtout que le respect des droits des créateurs est essentiel pour que des œuvres puissent continuer à être produites.” 

Pour Anton Maria Battesti, Directeur des Affaires publiques de Meta France, “Garantir que l’ensemble de nos utilisateurs aient des expériences authentiques sur nos plateformes est une priorité de notre entreprise. Des millions de créateurs et d’entreprises à travers nos plateformes font de leur propriété intellectuelle une source de revenus. Nos investissements massifs ont permis le développement de technologies comme Rights Manager ou de ressources éducatives, permettant de détecter et de supprimer toujours plus de contenus violant les droits en la matière. Cette collaboration étroite avec l’UNIFAB et l’ALPA au travers de cette campagne est une étape supplémentaire dans notre action pour aider à protéger à la fois nos utilisateurs, les entreprises et les créateurs .”

Enquête : derrière l’IA, les travailleurs précaires des pays du Sud

 

Dessin des locaux d'une entreprise d'annotation de données réalisé avec l'IA Midjourney. Généré par MidJourney CC-BY-4.0, CC BY-NC
Par Clément Le Ludec, Télécom Paris – Institut Mines-Télécom et Maxime Cornet, Télécom Paris – Institut Mines-Télécom

Il n’y a pas que des robots derrière l’intelligence artificielle (IA) : en bout de chaîne, on trouve souvent des travailleurs des pays du sud. Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire.

Les modèles d’IA ont en effet besoin d’être entraînés, en mobilisant une masse de données extrêmement importante, pour leur apprendre à reconnaître leur environnement et à interagir avec celui-ci. Ces données doivent être collectées, triées, vérifiées et mises en forme. Ces tâches chronophages et peu valorisées sont généralement externalisées par les entreprises technologiques à une foule de travailleurs précaires, généralement situés dans les pays des suds.

Ce travail de la donnée prend plusieurs formes, en fonction des cas d’usage de l’algorithme final, mais il peut s’agir par exemple d’entourer les personnes présentes sur les images capturées par une caméra de vidéosurveillance, pour apprendre à l’algorithme à reconnaître un humain. Ou encore corriger manuellement les erreurs produites par un modèle de traitement automatique de factures.

Nous proposons, à travers une enquête menée entre Paris et Antananarivo, capitale de Madagascar, de nous pencher sur l’identité de ces travailleurs de la donnée, leurs rôles et leurs conditions de travail, et de proposer des pistes pour enrichir les discussions autour de la régulation des systèmes d’IA.

L’intelligence artificielle, une production mondialisée

Nos recherches appuient l’hypothèse que le développement de l’intelligence artificielle ne signifie pas la fin de travail due à l’automation, comme certains auteurs l’avancent, mais plutôt son déplacement dans les pays en voie de développement.

Notre étude montre aussi la réalité de « l’IA à la française » : d’un côté, les entreprises technologiques françaises s’appuient sur les services des GAFAM pour accéder à des services d’hébergement de données et de puissance de calcul ; d’un autre côté les activités liées aux données sont réalisées par des travailleurs situés dans les ex-colonies françaises, notamment Madagascar, confirmant alors des logiques déjà anciennes en matière de chaînes d’externalisation. La littérature compare d’ailleurs ce type d’industrie avec le secteur textile et minier.

Un constat initial a guidé notre travail d’enquête : les conditions de production de l’IA restent mal connues. En nous appuyant sur des recherches antérieures sur le « travail numérique » (digital labour), nous avons cherché à comprendre où et comment sont façonnés les algorithmes et les jeux de données nécessaires à leurs entraînements ?

Intégrés au sein du groupe de recherche Digital Platform Labor, notre travail consiste à analyser les relations d’externalisation entre entreprises d’intelligence artificielle françaises et leurs sous-traitants basés dans les pays d’Afrique francophone et à dévoiler les conditions de travail de ces « travailleurs de la donnée » malgaches, devenus essentiels au fonctionnement des systèmes intelligents.

Notre enquête a débuté à Paris en mars 2021. Dans un premier temps, nous avons cherché à comprendre le regard que les entreprises françaises productrices d’IA entretenaient sur ces activités liées au travail de la donnée, et quels étaient les processus mis en œuvre pour assurer la production de jeux de données de qualité suffisante pour entraîner les modèles.

Le lac Anosy Central à Antananarivo, capital de Madagascar. Sascha Grabow/Wikipedia, CC BY

Nous nous sommes ainsi entretenus avec 30 fondateurs et employés opérant dans 22 entreprises parisiennes du secteur. Un résultat a rapidement émergé de ce premier travail de terrain : le travail des données est dans sa majorité externalisé auprès de prestataires situés à Madagascar.

Les raisons de cette concentration des flux d’externalisation vers Madagascar sont multiples et complexes. On peut toutefois mettre en avant le faible coût du travail qualifié, la présence historique du secteur des services aux entreprises sur l’île, et le nombre élevé d’organisations proposant ces services.

Lors d’une seconde partie de l’enquête d’abord menée à distance, puis sur place à Antananarivo, nous nous sommes entretenus avec 147 travailleurs, managers, et dirigeants de 10 entreprises malgaches. Nous avons dans le même temps diffusé un questionnaire auprès de 296 travailleurs des données situés à Madagascar.

Les emplois du numérique : solution précaire pour jeunes urbains éduqués

Dans un premier temps, le terrain révèle que ces travailleurs des données sont intégrés à un secteur plus large de production de service aux entreprises, allant des centres d’appels à la modération de contenu web en passant par les services de rédaction pour l’optimisation de la visibilité des sites sur les moteurs de recherche.

Les données du questionnaire révèlent que ce secteur emploie majoritairement des hommes (68 %), jeunes (87 % ont moins de 34 ans), urbains et éduqués (75 % ont effectué un passage dans l’enseignement supérieur).

Quand ils évoluent au sein de l’économie formelle, ils occupent généralement un poste en CDI. La moindre protection offerte par le droit du travail malgache comparée au droit du travail français, la méconnaissance des textes par les travailleurs, et la faiblesse des corps intermédiaires (syndicats, collectifs) et de la représentation en entreprise accentuent néanmoins la précarité de leur position. Ils gagnent en majorité entre 96 et 126 euros par mois, avec des écarts de salaires significatifs, jusqu’à 8 à 10 fois plus élevés pour les postes de supervision d’équipe, également occupés par des travailleurs malgaches situés sur place.

Ces travailleurs sont situés à l’extrémité d’une longue chaîne d’externalisation, ce qui explique en partie la faiblesse des salaires de ces travailleurs qualifiés, même au regard du contexte malgache.

La production de l’IA implique en effet trois types d’acteurs : les services d’hébergement de données et de puissance de calcul proposés par les GAFAM, les entreprises françaises qui vendent des modèles d’IA et les entreprises qui proposent des services d’annotations de données depuis Madagascar, chaque intermédiaire captant une partie de la valeur produite.

Ces dernières sont de plus généralement très dépendantes de leurs clients français, qui gèrent cette force de travail externalisée de manière quasi directe, avec des postes de management intermédiaire dédiés au sein des start-up parisiennes.

L’occupation de ces postes de direction par des étrangers, soit employés par les entreprises clientes en France, soit par des expatriés sur place, représente un frein important aux possibilités d’évolution de carrière offertes à ces travailleurs, qui restent bloqués dans les échelons inférieurs de la chaîne de valeur.

Des entreprises qui profitent des liens postcoloniaux

Cette industrie profite d’un régime spécifique, les « zones franches », institué en 1989 pour le secteur textile. Dès le début des années 1990, des entreprises françaises s’installent à Madagascar, notamment pour des tâches de numérisation liées au secteur de l’édition. Ces zones, présentes dans de nombreux pays en voie de développement, facilitent l’installation d’investisseurs en prévoyant des exemptions d’impôts et de très faibles taux d’imposition.

Aujourd’hui, sur les 48 entreprises proposant des services numériques dans des zones franches, seulement 9 sont tenues par des Malgaches, contre 26 par des Français. En plus de ces entreprises formelles, le secteur s’est développé autour d’un mécanisme de « sous-traitance en cascade », avec, à la fin de la chaîne des entreprises et entrepreneurs individuels informels, moins bien traités que dans les entreprises formelles, et mobilisés en cas de manque de main-d’œuvre par les entreprises du secteur.

En plus du coût du travail, l’industrie de l’externalisation profite de travailleurs bien formés : la plupart sont allés à l’université et parlent couramment le français, appris à l’école, par Internet et à travers le réseau des Alliances françaises. Cette institution d’apprentissage du français a été initialement créé en 1883 afin de renforcer la colonisation à travers l’extension de l’utilisation de la langue du colonisateur par les populations colonisées.

Ce schéma rappelle ce que le chercheur Jan Padios désigne comme le « colonial recall ». Les anciens pays colonisés disposent de compétences linguistiques et d’une proximité culturelle avec les pays donneurs d’ordres dont bénéficient les entreprises de services.

Rendre visibles les travailleurs de l’intelligence artificielle

Derrière l’explosion récente des projets d’IA commercialisés dans les pays du nord, on retrouve un nombre croissant de travailleurs de la donnée. Alors que la récente controverse autour des « caméras intelligentes », prévues par le projet de loi relatif aux Jeux olympiques de Paris, s’est principalement focalisée sur les risques matière de surveillance généralisée, il nous semble nécessaire de mieux prendre en compte le travail humain indispensable à l’entraînement des modèles, tant il soulève de nouvelles questions relatives aux conditions de travail et au respect de la vie privée.

Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques.

C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.The Conversation

Clément Le Ludec, Sociologie du numérique, Télécom Paris – Institut Mines-Télécom et Maxime Cornet, Doctorant en sociologie de l'IA, Télécom Paris – Institut Mines-Télécom

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

34e semaine de la presse et des médias à l’École : apprendre à bien s’informer

presse

En janvier dernier, la Fondation Reboot et la Fondation Jean-Jaurès avaient commandé à l’Ifop une enquête auprès des jeunes visant à mesurer leur porosité aux contre-vérités scientifiques, notamment en regard de leur usage des réseaux sociaux, qui sont l’une – sinon la seule – porte d’entrée de beaucoup de jeunes pour s’informer. Alors que la crise sanitaire a été un terreau propice à l’essor des théories complotistes dans un contexte de défiance généralisée envers les autorités, l’enquête montrait combien les adeptes des thèses conspirationnistes et plus généralement des croyances irrationnelles étaient particulièrement nombreux chez les jeunes.

On mesure dès lors toute l’importance de l’éducation aux médias dès l’école. « Comprendre le système des médias, former le jugement critique des élèves, développer leur goût pour l’actualité et forger leur identité de citoyen » sont des notions essentielles que la Semaine de la presse et des médias dans l’école contribue à construire. De ce lundi 27 mars au 1er avril prochain, le Centre pour l’éducation aux médias et à l’information (Clemi) organise cette semaine dans les écoles, collèges et lycées autour du thème « L’info sur tous les fronts », qui permet d’aborder le journalisme de guerre, particulièrement à l’honneur depuis le déclenchement de la guerre en Ukraine.

Des pistes pour affronter la désinformation

« Il s’agit aussi de proposer des pistes pour affronter la désinformation et pour mesurer la bataille à laquelle se livrent les plateformes pour capter notre attention. Ce thème est également l’occasion d’aborder les difficultés que peuvent rencontrer les journalistes dans un contexte de concentration des médias d’information », précise le ministère de l’Éducation nationale.

Face à l’infobésité, aux fake news, à l’info-divertissement qui ne cherche que le buzz au détriment de la réflexion et parfois de la réalité des faits, et, depuis ces dernières semaines, face aux intelligences artificielles génératives comme ChatGPT qui peuvent brouiller la frontière entre fait et fiction, les annonces de Pap Ndiaye sont les bienvenues.

Que l’éducation aux médias devienne une Grande Cause nationale serait également un signal fort qu’Elisabeth Borne pourrait envoyer. Car s’il n’y a pas de démocratie sans presse libre – « Un journal, c’est la conscience d’une nation » disait Albert Camus – il n’en existe pas non plus sans citoyens éclairés et critiques et donc sans des élèves formés à bien s’informer.

Qu’est-ce qui freine l’adoption de la blockchain en entreprise ?

L’année 2023 pourrait marquer un coup d’accélérateur dans le lancement de projets liés à la blockchain dans les entreprises aux États-Unis, au Royaume-Uni ou en Chine. Kai Stachowiak / Publicdomainpictures.net
Par Marroi Laaraj, Université de Montpellier; Samuel Fosso Wamba, TBS Education et Walid A. Nakara, Montpellier Business School

Certains chercheurs affirment que l’état d’adoption de la technologie blockchain est aujourd’hui comparable à celui d’Internet dans les années 1990. La diffusion devrait à présent connaître un coup d’accélérateur. Par exemple, le Boston Consulting Group annonce un milliard d’utilisateurs pour les cryptomonnaies d’ici 2030, ce qui correspondrait à une augmentation de 4 % à 12,7 % d’utilisateurs au niveau mondial, en moins d’une décennie.

La blockchain est une technologie de stockage et de transmission d’informations qui permet à des personnes ou des organisations de partager une base de données commune et vérifiable en temps réel, sans qu’il y ait besoin d’un tiers de confiance pour garantir l’authenticité et l’intégrité des données. La blockchain fonctionne comme une sorte de registre ou de livre de comptes distribué et décentralisé, où chaque transaction est enregistrée de manière chronologique et vérifiable grâce à une série de codes cryptographiques. Cette technologie peut être utilisée dans de nombreux domaines, tels que les paiements, les contrats intelligents, la traçabilité des produits, la gestion des identités numériques, etc.

Davantage d’entreprises envisagent ainsi de passer à cette technologie pour transformer leurs opérations et gagner un avantage concurrentiel. Une étude réalisée par CasperLabs et Zogby Analytics auprès de 603 décideurs en entreprises, localisées aux États-Unis, au Royaume-Uni et en Chine, indique que 90 % ont d’ores et déjà implémenté la blockchain. La courbe d’adoption s’annonce positive pour 2023 puisque l’étude précise également que 87 % des entreprises sondées prévoient un investissement dans cette technologie dans le courant de l’année.

Une utilisation encore timide

À l’instar des travaux cités plus haut, les résultats de notre étude parue en 2022 dans la revue Planning Production & Control montrent que les blockchains suscitent un fort intérêt, mais l’intention d’adoption reste nettement supérieure au taux d’adoption effectif. Cette recherche avait pour objectif de comprendre les facteurs qui ont un impact sur la diffusion de la blockchain, notamment en examinant le rôle des agents dits « du changement ».

L’étude a examiné les réponses de quatorze experts travaillant dans des cabinets de conseil tels que BCG, PWC, Accenture, Deloitte et Wavestone ainsi que les experts travaillant dans des entreprises spécialisées dans le développement de solutions blockchain (SmartB, Consensys, Kapalt, ChainHero et Ticket 721).

Ces experts ont identifié la présence de plusieurs leviers impactant la diffusion de cette technologie. Parmi les barrières à l’adoption, les aspects dits non technologiques jouent un rôle prépondérant. Ainsi, l’éthique, les aspects environnementaux ou encore le manque de connaissances et d’expertise ralentissent la diffusion. L’un des experts interviewés le souligne :

« Aujourd’hui, on se demande encore ce qu’est une blockchain. C’est ce qu’on appelle l’actualisation des technologies, cela va venir au fur et à mesure. Là nous sommes dans la construction des schémas mentaux autour des blockchains. »

Par ailleurs, les experts s’accordent à dire qu’à ce stade une adoption se fera de manière transparente (soit inconsciente) ou imposée par un contexte de crise tel qu’une crise politique ou économique. Un expert rappelle ainsi les précédents sud-américains :

« Dans certains pays d’Amérique du Sud où la monnaie est défaillante, comme le Venezuela, les habitants ont pris leur destin en main sans compter sur leur gouvernement et s’appuient énormément sur la cryptomonnaies. Non pas parce qu’ils sont en quête d’innovation et de nouveaux business model, mais plutôt pour sauver leur famille et protéger leur épargne. »

Une compréhension essentielle

Quant à la question de la responsabilité éthique, elle est complexe et controversée. Certains experts interrogés considèrent que la technologie est neutre d’un point de vue éthique, tandis que d’autres ont une vision plus tranchée, positive ou négative.

Les principaux points ciblés sont la transparence et la gouvernance. Un haut niveau de transparence implique un risque élevé d’exposition des données privées. Ainsi, lors du développement d’un projet blockchain, il est essentiel de prendre en considération le mode de gouvernance, en déterminant les acteurs qui ont accès au registre, ainsi que la responsabilité et l’autorité de chacun. Si la technologie est utilisée à mauvais escient, qui en est responsable ?

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

La question de l’impact environnemental de la blockchain est également un sujet de débat important, notamment en raison de l’utilisation du protocole de consensus de preuve de travail (PoW). La PoW nécessite que les mineurs résolvent des problèmes mathématiques complexes pour créer un nouveau bloc. Cela requiert une importante puissance de calcul. En revanche, des protocoles de consensus moins énergivores ont été développés depuis. L’utilisation de preuves d’autorité (PoA) est l’une des solutions envisageables. La PoA suit un mécanisme de consensus dans lequel un petit nombre d’entités de confiance sont responsables de la validation des transactions et de l’ajout de nouveaux blocs. Ce processus est plus rapide et moins énergivore (cependant aucun chiffre comparatif n’a été officiellement communiqué).

SmartB est un exemple d’entreprise développant une blockchain basée sur la PoA. Selon les experts techniques de l’entreprise, une transaction Ethereum de type PoW serait 1500 fois plus énergivore qu’une transaction réalisée sur la blockchain SmartB de type PoA. L’entreprise souhaite s’inscrire dans une perspective de développement durable, permettant ainsi de réduire considérablement l’impact énergétique tout en garantissant l’authenticité et la sécurité des transactions effectuées sur sa plate-forme.

Enfin, la compréhension de ce qu’est et de ce que peut faire une blockchain est essentielle pour une diffusion plus large. En effet, une innovation, aussi disruptive soit-elle, doit être comprise pour susciter un intérêt suffisamment important, afin d’être acceptée et de provoquer les phases d’adoption, d’implémentation et de routinisation. Sans cela, l’adoption se fera de manière transparente (une utilisation inconsciente de la blockchain à travers un cas focalisé sur l’utilisateur) ou de manière forcée (une situation de crise). Pour une adoption plus « choisie », une sensibilisation est donc nécessaire, principalement assurée par les agents du changement que sont aujourd’hui, entre autres, les cabinets de conseil et start-up expertes.The Conversation

Marroi Laaraj, Doctorante, Université de Montpellier; Samuel Fosso Wamba, Professeur en systèmes d’information et data science et Directeur de la recherche, TBS Education et Walid A. Nakara, Professeur, Directeur de la Chaire Entrepreneuriat Social et Inclusion, Montpellier Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Rapport du Giec sur le climat : des solutions existent pour lutter contre le réchauffement

eolienne

La lutte contre le réchauffement climatique passe bien sûr par une prise de conscience – collective et individuelle – sur la façon dont notre mode de vie influe sur le réchauffement. Mais elle impose aussi d’agir et d’investir massivement notamment dans des technologies nouvelles. Tel est le sens du dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) publié lundi.

Sa nouvelle synthèse « dit dans des termes très, très clairs où nous en sommes, mais elle signale aussi qu’il y a toujours une possibilité, avec un effort mondial significatif, d’atteindre l’objectif de 1,5 degré », a affirmé Simon Stiell, le secrétaire exécutif de l’ONU Climat, poursuivant : « La fenêtre d’action se rétrécit, mais elle existe encore »

« Plusieurs solutions réalistes et efficaces »

« Nous disposons de plusieurs solutions réalistes et efficaces pour réduire les émissions de gaz à effet de serre et pour nous adapter au changement climatique d’origine humaine – et ces solutions sont aujourd’hui à portée de main » assurent les experts. « Une action climatique équitable et efficace portée à l’échelle planétaire réduira non seulement les pertes et les dommages infligés à la nature et aux populations, mais nous apportera aussi d’autres avantages », a déclaré Hoesung Lee, président du Giec.

giec

L’accès à des énergies et technologies propres (éolien, solaire), favorables à la santé, en particulier pour les femmes et les enfants, l’électrification à faible émission de carbone, la captation et le stockage de CO2 (même si son potentiel reste limité) , etc. Tout cela contribue « à l’instauration d’un développement résilient ».

Et si « l’innovation technologique peut entraîner des contreparties telles que des impacts environnementaux nouveaux et plus importants, des inégalités sociales, une dépendance excessive à l’égard de connaissances et fournisseurs étrangers », le Giec estime qu’il faut investir davantage.

« Un guide de survie pour l’humanité »

« Si nous mettons en commun nos technologies, notre savoir-faire et nos mesures politiques les plus pertinentes, si nous dégageons suffisamment de ressources dès à présent, toutes les populations pourront réduire ou supprimer leur consommation à forte intensité de carbone. Parallèlement, si nous investissons suffisamment de ressources dans les mesures d’adaptation, nous pourrons prévenir l’escalade des risques, en particulier pour les groupes et les régions vulnérables », assure l’ONU.

La synthèse publiée lundi par le Giec, qui mêle adaptation au changement climatique et réduction des émissions, est « un guide de survie pour l’humanité », selon le secrétaire général de l’Organisation des Nations unies, António Guterres. Un guide qui servira de base aux tractations politiques et économiques des prochaines années, à commencer en décembre par la COP28 de Dubaï.

______________________________________

Les solution du forum "Le monde nouveau"

La 4e édition du Forum de la transition environnementale et sociétale « Le monde nouveau » organisée par le Groupe la Dépêche à Planet Ocean Montpellier les 14, 15 et 16 septembre prochains, abordera les solutions pour mieux lutter contre le réchauffement climatique et pour la préservation de la biodiversité.« Des solutions existent. Elles ont déjà été imaginées, pensées, expliquées, défendues, concrétisées. Nous avons eu l’occasion de les exposer au cours des éditions précédentes. Mais elles ne sont pas encore assez prises en compte. Ces solutions, nous les connaissons, que nous soyons scientifiques, inventeurs, entrepreneurs, artisans du développement local ou citoyens engagés. Nous sommes nombreux à pouvoir agir pour leur mise en œuvre, à condition de le faire ensemble, avec détermination », explique Marie-France Marchand-Baylet, vice-présidente du Groupe La Dépêche et initiatrice du Forum.En 2021, l’explorateur Bertrand Picard avait présenté sa plateforme « 1 000 solutions » pour protéger l’environnement de façon rentable.

A l'Assemblée, dépôt d’un amendement rédigé... par une intelligence artificielle

chatGPT

Les députés du groupe Liot (Libertés, Indépendants, Outre-mer et Territoires) - désormais bien connu des Français depuis qu’il a déposé la motion de censure transpartisane lundi dernier - sont-ils des pratiquants du judo ? En tout cas, quatorze députés de ce groupe en ont manié l’un des préceptes à savoir utiliser la force de son adversaire pour la retourner contre lui.

Cette « prise » parlementaire s’est déroulée le 14 mars dernier avec le dépôt d’un amendement (N° 101) au Projet de loi relatif aux jeux Olympiques et Paralympiques de 2024, actuellement en discussion. Les députés Liot souhaitaient modifier l’article 7 du projet de loi portant sur « l’expérimentation de l’usage de traitements algorithmiques couplés à des dispositifs de vidéoprotection et de captation d’images par voie aéroportée », autrement dit des caméras de vidéosurveillance dotées de capacités de reconnaissance faciale. Cette possibilité inquiète au plus haut point les associations de défense des libertés comme la Quadrature du Net, qui craignent que l’expérimentation ne s’installe définitivement pour identifier des personnes comme des activistes, des militants, etc.

Garantir une prise de décision humaine

Les députés demandaient de rajouter la précision « sous réserve du respect des droits et libertés fondamentaux des personnes concernées et de l’obligation de garantir une prise de décision humaine à chaque étape du traitement. »

Pour l’exposé des motifs de leur amendement qui voulait éviter que des décisions ne soient prises que par une intelligence artificielle, les députés Liot ont décidé de faire appel… à une intelligence artificielle générative. « Ceci est le premier amendement parlementaire généré par une intelligence artificielle. Face au développement de services en ligne fondés sur l’IA, comme ChatGPT, il est nécessaire d’alerter sur les risques que peut emporter ce type de nouvelles technologies », expliquaient les parlementaires. Suivait un paragraphe de 931 signes parfaitement rédigé dont on n’imagine pas qu’il a été écrit par une IA.

« Cet exposé des motifs pourrait sembler rassurant, cependant l’intelligence artificielle peut permettre le meilleur comme le pire », rajoutent ensuite les députés. « Les questions de droits fondamentaux, de libertés publiques, de justice, de sécurité, en raison de leurs enjeux éthiques et parce qu’elles traitent des hommes et des femmes ne devraient donc jamais être laissées sous le contrôle de la seule intelligence artificielle », concluaient-ils.

Examiné ce mercredi, cet amendement a été rejeté par l’Assemblée. Et le controversé article 7 a été adopté jeudi avec 59 voix pour (majorité présidentielle, Les Républicains, Rassemblement national) et 14 contre (Nupes).

Les questions que pose l'Interdiction de TikTok aux fonctionnaires français

tiktok

 

Avis de Constantin Pavléas, avocat spécialisé en droit des technologies, fondateur et dirigeant du cabinet Pavléas Avocats et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD).

Le gouvernement français vient d’emboiter le pas à d’autres pays occidentaux (Etats-Unis, Canada, Royaume-Uni..) et organisations internationales (Commission européenne) et interdit à ses fonctionnaires l’installation et l’utilisation de certaines applications « récréatives » sur leurs téléphones professionnels, tels que TikTok, de streaming (telles que Netflix) ou de jeux (tels que Candy Crush),. Les raisons de cette interdiction invoquées par le gouvernement sont les « risques en matière de cybersécurité et de protection des données des agents publics et de l’administration. »  

Depuis quelques mois déjà, TikTok était sur la sellette aux Etats-Unis qui soupçonnent le réseau social chinois d’être un cheval de Troie des autorités chinoises. L’interdiction de TikTok sur les terminaux professionnels des agents de l’Etat français n’est donc pas une surprise, mais celle de Netflix ou des jeux vidéos l’est davantage. Il apparaît que cette décision fait suite à une analyse de risques effectuée par l’agence nationale de la sécurité des systèmes d’information (Anssi) et la direction interministérielle du numérique (Dinum). A terme, toutes les applications récréatives seraient bannies. Mais quid de Twitter qui ne l’est pas, ou des autres réseaux et systèmes de messagerie instantanée (WhatsApp…) ?

Cette interdiction pose la question en termes de sécurité, de la compatibilité des applications grand public, quelles qu’elles soient, avec les terminaux professionnels qui ont accès aux serveurs de l’Etat, et aux informations sensibles d’un pays. Au delà de cette décision qui montre que TikTok n’est pas le seul problème en matière de sécurité, il conviendrait de réfléchir à doter les terminaux de nos fonctionnaires d’une enclave de sécurité, bâtie sur des technologies européennes et souveraines, permettant de stocker les données et de réaliser les connexions aux serveurs de l’Etat. Et par delà cette problématique de sécurité nationale, de se poser la même question pour la protection des données de nos concitoyens.

Les GreenTech ont-elles rendu le changement d’heure obsolète ?

heure


"Ce dimanche 25 mars, le changement d'heure va nous faire perdre 1h de sommeil mais surtout, nous fera-t-il réellement économiser de l'énergie ? " s'interroge Eficia, une GreenTech (start-up spécialisée dans les nouvelles technologies dédiées à la protection de l'environnement) qui optimise la performance énergétique des bâtiments. La société plaide pour le développement de son secteur en France.

En France, le changement d'heure tel qu'on le connaît aujourd'hui a été mis en place en 1976, trois ans après un premier choc pétrolier qui aura eu des conséquences économiques et environnementales importantes pour les pays occidentaux. Cette période marque le démarrage embryonnaire des premières actions européennes en faveur de l’environnement. Pour l'anecdote, cette mesure fut d’abord une idée, celle de Benjamin Franklin, finalement mise en oeuvre durant la Première Guerre Mondiale, pour "participer à l’effort de guerre", avant d’être abandonnée en 1945. 

Vingt-cinq ans après avoir été harmonisée à l'échelle de l'UE, la question se pose aujourd’hui de savoir s’il est encore pertinent d’entretenir cette politique qui produit de moins en moins de bénéfices. Question qui mérite d’autant plus d’être posée que les économies d’énergie produites par les technologies développées par les GreenTech de l’écosystème génèrent beaucoup plus de résultats. 

L'objectif du changement d'heure était de synchroniser l'ensoleillement naturel avec nos activités humaines afin de limiter l'utilisation de l'éclairage artificiel, source de consommations importantes notamment au sein les collectivités. 

Le changement d’heure produit des résultats de plus en plus anecdotiques depuis le début des années 2000, compensés par le développement massif d’innovations en matière d’environnement favorisant des réductions importantes de nos usages énergétiques. En 1996, le changement d'heure produisait une économie de 1200 GWh par an pour tomber à 351 GWh en 2016 selon les chiffres du ministère de l'Industrie, d'EDF et de l'ADEME. 

Comment les technologies sont-elles devenues plus performantes que le changement d’heure ?

La baisse des économies produites par le changement d’heure s’explique notamment par la généralisation de systèmes d’éclairage plus performants comme les ampoules basse consommation et systèmes LED. Les résultats sont aussi compensés par une augmentation de la consommation liée à la climatisation, au chauffage et aux appareils électriques, dont l’usage augmente au fil des années.   

Selon l’ADEME, la baisse se prolongerait dans les prochaines années si le changement d’heure était conservé.  

Aujourd’hui les économies produites par certaines GreenTech dépassent largement celles générées par le changement d’heure. Les résultats produits par l’écosystème est aujourd’hui dopé par des technologies qui progressent en continu, un contexte de marché difficile et une réglementation en France qui s’est largement durcie sous l’impulsion du décret tertiaire. 

Au-delà de l’obsolescence d’une politique de moins en moins réaliste, ne pourrait-on pas faire du développement des GreenTech et de leurs technologie un enjeu national ? 

Le label national Territoires, Ville et Villages Internet fête ses 25 ans

villeinternet


Le Label national Territoires, Ville et Villages Internet organise le 6 avril un webinaire pour permettre aux collectivités pour comprendre le règlement, les grandes dates et les critères du jury qui chaque année décerne les labels. Ce webinaire sera présenté par Michaël Bideault, ingénieur des connaissances et Antonin Hofer, responsable de la vie associative avec la participation de maires et agents emblématiques des Villes internet.
Ce rendez-vous intervient à mi-mandat des maires mais aussi pour les 25 ans de l'association. 

Mathieu Vidal, universitaire et élu, président de l’association Villes Internet, invite d'ores et déjà les villes françaises "à exposer leurs projets numériques locaux pour faire face aux crises actuelles. Les collectivités françaises volontaires bénéficieront d’une communication exceptionnelle tout au long de l’année 2023 pour la 25e édition de ce Label national."

Les initiatives des villes s’inscrivent ensuite dans la cartographie dynamique de l’ATLAAS, qui référence les actions et les acteurs qui les portent. 

2200 villes labellisées 

"En 1998, 40 villes sont pour la première fois en France labellisées « ville internet ». 25 ans après, elles sont plus de 2200 à afficher cette marque territoriale unique en Europe soutenue par l’État", se félicite l'association.

"De 350 à plus de 500 000 habitants, les Territoires, Villes et Villages Internet contribuent notamment à l’égalité d’accès aux services publics numériques, au numérique éducatif et à la sobriété numérique. Elles sont  visibles par l’affichage de panneaux d’entrée de ville et par la reconnaissance nationale et internationale de leur pairs", assure l'association.

La France est le seul pays à proposer un label pour reconnaître les collectivités locales qui développent les usages citoyens d’internet et du numérique. 

L’ADN synthétique, une révolution à venir pour le stockage de données

ADN


Par Patrick Dufour, Directeur Stratégie et alliances

Le PEPR (programme et équipement prioritaire de recherche) exploratoire MoleculArXiv, piloté par le CNRS, développe de nouveaux dispositifs de stockage de données sur ADN. Son aboutissement marquera une sensationnelle innovation, répondant à de multiples points de blocage déjà pressants. Ce programme et équipement prioritaire de recherche est certainement un des plus importants à soutenir à ce jour.

Une perspective prometteuse

Personne n’est passé à côté des travaux de recherche scientifique sur les possibilités qu’offre l’ADN synthétique en matière de stockage de l’information. Le CNRS publie ses avancées régulièrement et il y a de quoi chanter tel le coq au petit matin si l’on en juge par les progrès manifestes des chercheurs en la matière. Il sera passionnant de suivre les résultats des très prochaines applications concrètes. Des partenariats avec des instituts français comme l’INA, la BNF ou des institutions européennes permettront de s’extraire des essais en laboratoire et de travailler avec la matière pour laquelle l’ADN synthétique est conçu, c’est-à-dire de véritables et massifs volumes de données.

Parce qu’il est très prometteur, l’ADN en tant que solution de stockage mérite à lui seul ce coup de cœur. Il devrait contribuer à résoudre un grand nombre de casse-têtes qui se présentent déjà : la saturation du Cloud, la trop grande consommation de foncier notamment urbain des datacenters, leur contribution à l’épuisement des ressources énergétiques, mais également la problématique de la durée de vie des supports de stockage.

Si les grands fournisseurs de Cloud s’efforcent d’atteindre une forme de neutralité carbone en achetant notamment suffisamment d’énergie verte et les entreprises, en privilégiant la mutualisation des ressources, la balance écologique restera déséquilibrée compte tenu de la croissance perpétuelle des données à stocker.

Les promesses de l’ADN synthétique reposent sur la promesse d’une potentielle réduction de la consommation énergétique 2500 fois inférieure à un SSD, jusqu’à ne rien consommer en mode archive froide sans accès. Il nécessite 4 fois moins d’espace nécessaire que les disques ou les bandes et sa pérennité, à l’échelle humaine, est illimitée.

De quoi conserver toute la mémoire de l’humanité à venir.

Couvrir le besoin de stockage froid à long terme

Nous n’y sommes toutefois pas. Le brin d’ADN n’est pas encore à la portée de l’entreprise et de ses archivistes, les scientifiques cherchant pour l’heure à accélérer les vitesses d’écriture et obtenir des codes suffisamment robustes pour empêcher le temps et ses aléas d’altérer la donnée.

En l’état actuel de la technologie, le respect de l’intégrité de la donnée n’est pas garanti, qu’il s’agisse de la donnée lue telle qu’elle a été écrite comme de la donnée écrite telle qu’on souhaite qu’elle le soit. Les baies de stockage disposent depuis toujours de mécanismes de cette nature, ce que les algorithmes ADN doivent offrir également pour être vraiment exploitables.

Par ailleurs, le stockage ADN n’est pas pensé pour la donnée en production. La donnée transactionnelle n’est pas sa finalité (en tout cas immédiate). La longue durée de conservation qu’il promet le destine au stockage froid. La durée de vie d’un SSD à base de mémoire flash est estimée à 10 ans en moyenne, dans des conditions de stockage idéales, sachant qu’une mémoire flash en outre doit être régulièrement rafraîchie. Même « punition » avec les bandes magnétiques, que la robotique de bande doit lire régulièrement (tous les 2 ou 3 ans) pour en conserver le magnétisme. C’est un processus qui reste coûteux, en temps et en énergie.

La promesse de l’ADN est bien de s’affranchir de ce risque de perte de données sur de très longues périodes. Si cette perspective n’est pas encore pleinement confirmée, tous les travaux reposent aujourd’hui sur la réussite initiale du séquençage du génome de mammouths découverts dans le permafrost sibérien, vieux de 4 000 ans.

En attendant l’ADN de stockage

Pressées de toutes parts d’accélérer la prise d’initiatives environnementales, tout en étant encouragées à collecter et exploiter leurs données, à mieux les partager, à apprendre à les monétiser, les entreprises sont prises en étau entre des injonctions contradictoires.

Aujourd’hui, seules 2 entreprises sur 10 sont considérées comme datacentrics, c’est-à-dire ayant véritablement modifié leur façon de travailler et d’innover par le prisme d’une donnée vivante traversant tout leur écosystème. Pour une grande majorité n’ayant pas atteint cet état encore, tout l’enjeu est de conserver en attendant de savoir traiter. Or le stockage finit toujours par peser lourd financièrement, conduisant à des arbitrages qui pourraient se révéler fâcheux. C’est bien pourquoi le disque dur (via le stockage objet) et la bande n’ont pas dit leur dernier mot, ces deux médias affichant toujours la facture la moins élevée, malgré tout.

La mémoire flash, certes plus chère à l’achat, permet une nette diminution des besoins énergétiques, consomme moins d’espace physique et minimise le dégagement calorifique. Compte tenu de son prix, tous les vendeurs de baies de stockage dignes de ce nom ont en outre introduit plusieurs dispositifs d’efficacité de la donnée par réduction de la volumétrie consommée (compression, déduplication, recherche de similarité, etc.), minimisant le besoin d’espace de stockage et d’énergie, d’autant plus dopés par la puissance des nouveaux processeurs.

En revanche, d’autres dispositifs de stockage, étudiés depuis longtemps, restent moins prometteurs. On songera notamment à la MRAM (des charges magnétiques en lieu et place des charges électriques) qui n’aboutit pas réellement.

Qu’on le veuille ou non, volumétrie et performance restent aujourd’hui les mots clé du stockage. Les entreprises vivent une forme d’urgence que ne connaît pas la recherche exploratoire. Nous ne pouvons que soutenir les travaux entamés et appeler de nos vœux plus de coordination et de structuration autour de ce projet au niveau européen. Rappelons que d’autres alliances existent, notamment nord-américaines, très avancées également avec d’autres techniques ADN, et susceptibles de damer le pion à la recherche française, quand bien même les deux approches seraient complémentaires.

Sauvegarde ou archivage ? Pourquoi faut-il envisager les deux options

hdd

Par Alexandra Lemarigny, Channel Sales Director, Europe du sud chez OpenText Cybersecurity

Les entreprises s’interrogent toujours sur la différence entre sauvegarde et archivage et se demandent quelle est la meilleure solution. Il existe une subtilité entre ces solutions car l’une est conçue pour la récupération et l’autre pour la « recherche ».

Décryptage des deux solutions

Les avantages de la sauvegarde sont de protéger les entreprises des attaques malveillantes ou des suppressions accidentelles du fait d’une consultation trop fréquente de certains fichiers. La sauvegarde va fournir une copie des données, permettre la récupération des contacts, des tâches ou encore des calendriers, de documents et enfin protéger les données contre les catastrophes ou les suppressions accidentelles.

L'archivage, quant à lui, est une excellente solution pour conserver les communications importantes qui doivent être indexées et recherchées à des fins juridiques ou de conformité. L’archivage fournit un référentiel des communications, accélère le processus d'eDiscovery en analysant rapidement les médias sociaux, les textes, les emails et autres messages de collaboration. Enfin, cette option préserve la sécurité des communications lorsqu'elles doivent être stockées dans le temps.

Bien qu'il y ait un certain chevauchement, chaque solution est optimisée pour permettre d’obtenir rapidement les données nécessaires et répondre à des besoins ad hoc. Ces deux solutions s’avèrent complémentaires dès lors qu’il s’agit de garantir la meilleure protection possible contre les risques internes et externes des entreprises.

Les 3 questions qui définissent les besoins

Si les solutions de sauvegarde et d'archivage stockent toutes deux une copie immuable de vos données avec une conservation illimitée, chaque solution est conçue et optimisée pour des objectifs différents.

  • Qui doit accéder aux données et pourquoi ?

Par exemple, un collaborateur doit récupérer rapidement des documents de travail, des notes de réunions et des contacts critiques pour l'entreprise ou dans le cadre d’une panne ou d'une attaque. Le besoin consiste à restaurer les données dans leurs structures d'origine et ce à partir d'une sauvegarde.

Autre exemple, rechercher un courriel dont la pièce jointe pourrait mentionner le mot "santé", dans ce cas, une solution d'archivage convient pour analyser et trouver les communications et les pièces jointes.

  • Où les données doivent-elles être stockées ?

L’activité de l’entreprise serait-elle perturbée si les collaborateurs étaient incapables d'accéder aux données ou de les restaurer ? Par exemple, l’entreprise a besoin de partager des communications avec des conseillers juridiques, comme des messages Teams ou des communications par courriel ; dans ce cas une solution d'archivage est idéale. Si l’objectif est la récupération de l’ensemble des données relatives à un sujet, il vaut mieux opter pour une sauvegarde.

  • Combien de temps pour la conservation des données ?

L’entreprise a besoin de récupérer une copie des données d'une semaine, un mois ou sept ans ou de stocker une version non modifiée des données, dans ces situations les solutions de sauvegarde et d’archivage permettent de conserver des données pendant une longue période. C’est lorsque les demandes sont affinées avec un besoin très spécifique, tels qu’une date déterminée ou un format particulier que va se poser la question d’une solution par rapport à une autre.

Aujourd’hui, de nombreux actifs travaillent à distance, de fait les entreprises s'appuient davantage sur les applications de collaboration et de partage de fichiers. Dans ce cadre, il est essentiel de réexaminer régulièrement les plans de sauvegarde, de reprise et d’archivage après sinistre, pour s’assurer qu'il n'y a pas de lacune dans la protection des données.