Accéder au contenu principal

L’Arcep et l’ADEME créent l’observatoire des impacts environnementaux du numérique

Dans un contexte où la société française prend de plus en plus conscience de son empreinte numérique, l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (ARCEP) et l'Agence de la transition écologique (ADEME) viennent de franchir un pas décisif. Ces deux institutions ont annoncé ce jeudi 12 décembre la création d'un observatoire des impacts environnementaux du numérique, une initiative qui promet de révolutionner notre compréhension des enjeux écologiques liés aux technologies de l'information. Cette plateforme, fruit d'une collaboration initiée en 2020 à la demande des ministères de la Transition écologique et de l'Économie, vise à devenir une référence incontournable en matière de données fiables sur l'empreinte environnementale du numérique. "L'observatoire a vocation à constituer une plateforme de référence en matière de données fiables et sourcées sur les impacts environnementaux du numériqu...

Exploiter la donnée, mais pour quoi faire ?



Par Fabrice Haccoun, CEO d'Advanced Schema 

Nombreux sont ceux qui affirment, comme s'il s'agissait d'un dogme, qu'il faut exploiter la donnée. Oui, mais laquelle ? Et, surtout, comment et pourquoi ? Il ne suffit pas de monter une cellule Big Data, de créer un Data Lake ou de travailler sur quelques cas d'usage pour devenir une entreprise « data-driven ». Si, technologiquement, tout est désormais possible, exploiter le plein potentiel de la donnée nécessite de faire le lien avec la stratégie d'entreprise et les objectifs business. Force est de constater que, pour la plupart des grands groupes, ce challenge est loin d'être relevé !

Genèse d'une révolution
En moins de 10 ans, les grandes entreprises se sont retrouvées confrontées à une augmentation exponentielle du volume de leurs données, mais aussi à la nécessité de réduire leur « time-to-market ». Or, les moyens traditionnels n'étaient plus adaptés ou, plus exactement, ils rendaient très incertain le retour sur investissement. Stocker à des coûts très élevés des pétaoctets de données dont on ne sait même pas encore ce qu'on va en faire de surcroît dans un contexte général de réduction des budget alloués à l'IT n'avait pas de sens. On comprend aisément les raisons pour lesquelles le point de rupture a été atteint.
Mais, plutôt que de freiner l'innovation, ce dernier en a été, au contraire, un formidable accélérateur ! Au cœur de cette rupture : les technologies Big Data et leur cortège de solutions (Intelligence Artificielle, IoT, Machine Learning, Search Engines, bases NoSQL…).

Exploiter la donnée pour la donnée ne sert à rien
Là où, auparavant, les contraintes s'avéraient immenses, tout devient possible. En plus de continuer à tirer de la valeur de données « classiques » structurées (financières, commerciales, RH ou marketing), nous avons désormais la possibilité d'en générer à partir de celles qui n'en n'ont pas intrinsèquement (logs de navigation Web, commentaires sur les réseaux sociaux, données générées par les dispositifs connectés…). La valeur s'obtient alors plutôt par la corrélation entre ces data et d'autres, structurées ou non.

Reste qu'il ne suffit pas d'exploiter la data parce que c'est dans l'air du temps. Pour profiter de ces technologies, les organisations doivent tout d'abord se poser une question très simple : pourquoi veulent-elles exploiter leurs données ? Une fois la réponse trouvée, la réflexion est encore loin d'être terminée. Il leur reste à décider quels cas d'usage doivent être éprouvés, quel casting de solutions et quels choix d'architecture doivent être faits pour atteindre les objectifs.

Quand le Big Data fait chambre à part
Au sein de l'écosystème du Big Data des composants voient régulièrement le jour, portés pour la plupart par des start-up, dont la pérennité est proportionnelle à leur capacité à lever des fonds. Or, les grands groupes attendent de la prédictibilité et une certaine forme de stabilité. Résultat : peu d'entre eux veulent prendre le risque de construire leur système data sur ces bases mouvantes.

Face à cette nécessité, leur réponse a souvent été de créer leurs propres pôles internes d'innovation, censés fonctionner en mode agile. Mais, comment se fait-il que ces derniers soient encore, 3 ou 4 ans après leur lancement, en phase de PoC, tandis que des PME innovantes, disposant pourtant de moyens beaucoup plus limités, aient déjà amorcé l'industrialisation de leurs solutions ?

La raison est simple : beaucoup de grands groupes font avec le Big Data ce qu'ils ont toujours fait, à savoir, travailler en silos et essayer de faire entrer des carrés dans des ronds. Le digital est lui-même un silo et le lien avec les autres fonctions de l'entreprise se fait généralement grâce à la bonne volonté ou à la conviction d'individus isolés. Or, l'esprit d'innovation doit, au contraire, être omniprésent, distribué et surtout pas cantonné ou centralisé.


Être ou ne pas être une entreprise « data-driven » : telle est la question
Le secret pour profiter pleinement des avancées offertes par ces technologies ? Il réside dans la capacité de l'entreprise à les diffuser à tous les niveaux et donc à se décloisonner, à sortir de son organisation matricielle, mais aussi à réunir l'ensemble des expertises autour de la table : data scientists, managers, experts métiers, partenaires, direction générale, responsables financiers, DSI…

Tant que les grands groupes n'auront pas intégré cette nécessité, ils ne deviendront jamais complètement « data-driven », même s'ils en ont l'illusion. Le risque ? Qu'ils se fassent doubler sur leurs marchés par des sociétés innovantes nativement agiles. C'est déjà le cas pour certains d'entre eux, qui voient des start-up envoyer des fusées dans l'espace, des voitures parcourir la ville sans chauffeurs ou des banques en ligne se créer ex nihilo…

Ils doivent donc opérer sans attendre leur transformation culturelle, structurelle et organisationnelle. Ce que l'on appelle communément la révolution numérique a déjà profondément changé la société. Reste aux grandes compagnies à choisir si elles veulent la subir ou en faire une opportunité.
Il est communément admis que les entreprises doivent exploiter les données pour se transformer, je crois qu'il faut changer de paradigme car c'est le contraire : les entreprises doivent d'abord se transformer pour se mettre en situation de profiter pleinement de la révolution digitale.


Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est poss...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance lo...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...