Accéder au contenu principal

X, Meta, Amazon et Google : le moment de bascule pro-Trump

  Par  Dominique Boullier , Sciences Po La puissance des plates-formes américaines telles que X, Amazon, Google ou Meta, désormais capables d’imposer leurs diktats aux États, est inédite à l’échelle de l’histoire. Récit d’une conquête fulgurante fondée sur une prédation généralisée. La remise en cause des grands réseaux sociaux atteint aujourd’hui un niveau jamais rencontré, souligné par les appels massifs à quitter X. Elle fait suite à l’expression par leurs leaders, lors la prise de fonctions de Donald Trump, de positions politiques extrémistes. Mais la confusion règne et il est difficile de comprendre les logiques à l’œuvre dans une telle effervescence, où certaines postures se contredisent elles-mêmes (par exemple, interdire TikTok puis l’autoriser). Essayons d’y voir clair autour de mises en perspective. Un enjeu de corruption du pouvoir politique comme point de départ Les grandes firmes de la tech se sont bousculées pour financer la campagne de Trump pu...

L’exploitation des données froides à l’heure de l’IA

IA

Par Patrick Dufour chez Stordata

L’exploitation des données froides, à des fins d’analyse, de conception de nouveaux services, de compréhension des évolutions de marché et des habitudes de consommation a des allures d’arlésienne. Entre les difficultés de localisation et d’accès aux données archivées et le coût potentiel des infrastructures dédiées aux projets IA, les données froides continuent surtout de dormir profondément. Pourtant, avec la puissance de ses algorithmes, l’IA change vraiment la donne. Plus pertinente, plus performante, la technologie représente un potentiel d’extraction de valeur jamais atteint jusque-là. Le moment de réveiller son patrimoine informationnel est peut-être arrivé.

Une mémoire de l’entreprise en dormance

Les organisations conservent et archivent la donnée pour des raisons principalement réglementaires. Variables selon la nature des documents et les textes applicables, les durées de rétention imposées ont vocation à permettre tout contrôle utile, sur de nombreuses années en arrière parfois.

Avec l’augmentation galopante de la donnée produite en entreprise, l’archivage est un enjeu sans cesse renouvelé, à plusieurs titres : le choix des technologies de stockage, leur coût et leur évolution, leur pérennité, la mise en œuvre d’une gestion documentaire, la gouvernance de la donnée, et bien évidemment, leur potentiel d’exploitation.

S’il est relativement facile de faire travailler la donnée de production avec une gouvernance bien étayée et la présence effective d’un chief data officer (CDO), la donnée froide, stockée sur des supports lointains et parfois déconnectés, échappe généralement à tout traitement. Une fois que les délais réglementaires sont écoulés, dans quelle mesure alors est-il pertinent de conserver encore la donnée ? Au fond, la conscience de l’existence d’un patrimoine informationnel riche inexploré subsiste dans l’entreprise. Sa suppression n’est jamais naturelle. Elle induit le risque de faire disparaître une mémoire que l’on espère toujours pouvoir exploiter. Mais elle s’oppose également à de nouvelles obligations, tout aussi impérieuses, telles que la protection de l’environnement et le combat contre le réchauffement climatique, qui interrogent le sens d’une conservation de lourds volumes de données inexplorées.

L’approche « au cas où » et l’avènement de l’intelligence artificielle

Toutes les organisations font le pari de l’apparition d’un algorithme suffisamment puissant pour monétiser la donnée archivée. Les promoteurs de l’intelligence artificielle sont d’ailleurs convaincus de sa réussite à terme.

Pour l’entreprise, l’exercice repose sur 3 piliers : la démonstration d’une valeur ajoutée, le secteur concerné, l’accessibilité de la donnée. Les demandes d’infrastructures de stockage dédiées à l’IA sont très clairement en augmentation. Nous constatons une sortie des phases de tests auprès des hyperscalers et le lancement d’études pour l’édification d’architectures spécifiques à l’IA on-premise. La problématique principale repose sur le sizing de ces infrastructures, qui ne peut s’appuyer ni sur un besoin clair (que les entreprises ne parviennent pas toujours à définir) ni sur la structure des ressources requises par les algorithmes employés. À ce jour, il serait simple de déclarer que l’IA requiert les plus hautes performances, les meilleurs composants, les réseaux les plus rapides… une analyse qui se heurterait vite au mur de la réalité, fait de budgets serrés et de compétences datascientists rares.

Les IA génératives généralistes, basées sur les grands modèles de langage, n’ont pas d’autre vocation que de devenir des outils de productivité et de bureautique. Seuls les modèles spécialisés peuvent présenter un intérêt concret aux entreprises souhaitant faire travailler leurs données selon leurs activités et leurs secteurs : le BIM dans la construction, la collecte de données de santé des infrastructures en services managés, le legaltech sur les fonds juridiques propres des éditeurs juridiques, la détection précoce de maladies, etc. Les avantages des modèles de petite taille sont par ailleurs nombreux : une empreinte carbone, des coûts opérationnels et une consommation d’énergie plus faibles ainsi qu’une sensibilité moindre au risque hallucinatoire.

L’accessibilité longue durée aux données en question

Reste l’accessibilité de la donnée archivée. Si « l’argent n’est pas un problème », la donnée archivée en ligne est naturellement la promesse d’une ré-exploitation facilitée. Ce n’est généralement le choix de personne compte tenu des coûts associés.

Les volumes sont tels que le coût du stockage doit rester maîtrisé, c’est pourquoi la bande a longtemps eu la préférence, conservée dans un site distant protégé des conditions de dégradation les plus variées. Rejeton de l’archivage papier, la bande continue d’avoir quelques adeptes et d’être régulièrement proposée. Mais sa fragilité et surtout sa ré-exploitation particulièrement délicate (compte tenu de l’absence de technologie de restauration en entreprise) n’en font pas le candidat idéal à la consommation de données froides à des fins de datascience.

Sous format fichier à 99 %, les données froides sont conservées désormais sur du disque. Les deux grands protocoles fichiers (NFS sous Unix et Linux et CIFS/SMV sous Windows) ont peu évolué et autorisent, dans une majorité de cas, une lisibilité pendant de nombreuses années. Toutefois, parce que l’archivage repose sur des durées longues, de l’ordre de 20 ans, il demeure complexe de garantir la lecture de formats très vieillissants. La problématique se pose notamment dans tous les secteurs exploitant des logiciels exotiques mais également pour des versions très anciennes de logiciels aussi courants que Microsoft Office.

Stocker en rythme

En conséquence de quoi, le temps reste le paramètre intangible des données froides. Si l’on a pu lire, ici ou là, que les données perdaient de leur valeur de production de plus en plus vite ces dernières années, ce n’est pas ce que nous remarquons sur le terrain, auprès de nos clients. La constitution des plans de sauvegarde montre que les délais de rétention des données actives n’ont pas particulièrement évolué. En revanche, les entreprises ont tendance à conserver leurs données à portée de main plus longtemps afin d’en faciliter la ré-exploitation.

C’est pourquoi, du strict point de vue de l’architecture de stockage, il devient pertinent de se doter d’une infrastructure composée d’un tiers de stockage de production performant désormais basé sur des technologies Flash de type TLC, d’un tiers de stockage capacitif basé sur des technologies de type disques dur ou Flash de type QLC, stockage orienté objet, et d’un tiers d’archivage sur bandes, disques ou dans le Cloud, associés à des outils d’automatisation du déplacement de la donnée. Si le rôle des CDO est de faire parler les données, l’exercice impose une gymnastique de déplacement des stocks, une réplication nécessaire sur du stockage performant ainsi qu’une gouvernance rigoureuse veillant à détruire cette donnée répliquée une fois son exploitation réalisée. La gestion électronique documentaire et l’archivage électronique des documents sont des solutions métiers qui complètent efficacement le processus, au service de la conformité certes mais aussi de la ré-employabilité de la donnée.


 


Entre progrès des algorithmes et innovations dans les technologies de stockage, les efforts consentis dans la bonne gestion du patrimoine informationnel de l’entreprise porteront à terme leurs fruits.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est poss...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance lo...