Accéder au contenu principal

L’exploitation des données froides à l’heure de l’IA

Par Patrick Dufour chez Stordata L’exploitation des données froides, à des fins d’analyse, de conception de nouveaux services, de compréhension des évolutions de marché et des habitudes de consommation a des allures d’arlésienne. Entre les difficultés de localisation et d’accès aux données archivées et le coût potentiel des infrastructures dédiées aux projets IA, les données froides continuent surtout de dormir profondément. Pourtant, avec la puissance de ses algorithmes, l’IA change vraiment la donne. Plus pertinente, plus performante, la technologie représente un potentiel d’extraction de valeur jamais atteint jusque-là. Le moment de réveiller son patrimoine informationnel est peut-être arrivé. Une mémoire de l’entreprise en dormance Les organisations conservent et archivent la donnée pour des raisons principalement réglementaires. Variables selon la nature des documents et les textes applicables, les durées de rétention imposées ont vocation à permettre tout contrôle utile, sur de n...

Ce que votre direction ignore sur le cloud

cloud


Par Thomas Leconte, Directeur technique chez MTI France

On ne présente plus le cloud, ses aspects techniques, son modèle économique et les avantages que les entreprises y voient, en matière de scalabilité par exemple. Son succès ne se dément pas et désormais, même les systèmes les plus critiques y sont installés. Dans les faits, le choix est plus complexe qu'il n'y paraît et il n'existe pas de formule toute faite pour chaque entreprise.

La direction est souvent convaincue que le cloud, notamment public, est incontournable pour le système d'information de leur organisation, de par un accès illimité à des ressources ou des prix adaptés à l'usage... d'où une pression sur la DSI de faire basculer une partie ou la totalité du système d'information dans le Cloud public, tout en respectant de nombreuses contraintes.

Infrastructure IT : le choix du roi

Mais le Cloud, s'il est aujourd'hui essentiel dans la transformation IT d'une entreprise, promettant flexibilité et prix attractifs, ne peut à lui seul répondre à tous les enjeux de la DSI. Pour faire un choix avisé entre Cloud public, infrastructure traditionnelle ou hébergée, les responsables informatiques doivent tenir compte de plusieurs facteurs. Ils doivent notamment prendre en considération les spécificités de chaque workload et de chaque typologie de données traitées dans l'organisation, afin de concevoir le système le plus judicieux, tant sur le plan technique, que financier ou de la sécurité.

Chaque solution d'infrastructure possède en effet sa valeur ajoutée, en contrepartie d'une certaine inadaptation à certains cas d'usages spécifiques. De même, le cloud public ne convient pas à tous les environnements et son coût peut - contre toute attente - rapidement dépasser le budget initialement prévu et même largement dépasser le coût d'une infrastructure on premise. Le prix à l'usage peut paraître attractif dans un cloud public sur une courte durée, mais il est toujours plus élevé sur une période de 3 à 5 ans. C'est particulièrement le cas pour les prix du stockage : le prix du teraoctet stocké est prévisible, mais le nombre d'opérations de lecture, suppression ou déplacement peut faire varier la facture.

L'infrastructure traditionnelle, quant à elle, offre une grande souplesse dans les solutions utilisées par les métiers. Pour autant, cela ne répond pas aux attentes des utilisateurs en termes d'agilité : ces derniers souhaitent en effet davantage avoir accès à des offres packagées pour simplifier et accélérer leurs cycles de décision ainsi que le "time-to-market" de l'entreprise. Le sur-mesure, souvent perçu comme une force, devient alors une faiblesse par l'absence de standardisation. Côté budget, ce modèle implique une capacité prévisionnelle des ressources qui seront consommées dans les années à venir.

Enfin, les services hébergés, s'ils permettent d'accéder à des solutions avancées comme PCI-DSS ou HADS sans en acquérir les compétences, ne sont pas généralisables à l'ensemble de l'IT au risque de pénaliser fortement le budget.

Une Iaas sur-mesure, la maîtrise en plus

Pour les DSI, difficile donc d'opérer un choix franc tant chaque formule répond à des besoins et des contraintes spécifiques des entreprises. De la même façon, les avantages proposés par chaque typologie d'infrastructure sont nombreux et capillaires.

Une Infrastructure-as-a-Service on premise, mixant judicieusement les avantages de toutes les formules selon le principe du multi-cloud (ou cloud hybride), constitue aujourd'hui la meilleure solution. Une condition cependant : être en mesure d'inventorier et de qualifier précisément ses workloads, et de savoir identifier clairement les atouts et faiblesse de chaque approche, afin de déterminer les types d'infrastructures les plus appropriés à chaque usage.

Concrètement adaptée à la structure de l'organisation, l'IaaS on premise conserve les avantages propres au cloud public, (notamment le paiement à l'usage), tout en y ajoutant ceux de l'infrastructure on premise : une meilleure prédictibilité des coûts et des performances, mais également une maîtrise de la disponibilité et de la sécurité des données. Cela tout en permettant de choisir le bon support pour le bon workload.

Construire une véritable solution d'IaaS on premise implique une transformation profonde de l'IT et donc une maîtrise complète des environnements et des workloads de l'entreprise. Comme tout projet de transformation, pour que ce nouveau modèle soit couronné de succès, mieux vaut ne pas s'engager « à tâtons » et s'appuyer sur une expertise franche en matière d'infrastructure informatique, gage d'une transformation IT réussie !

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est poss...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance lo...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...