Accéder au contenu principal

Et si on apprenait enfin à bien utiliser son smartphone pour faire des photos ?

  L’appareil photo n’est pas mort, il a changé de forme. Longtemps compagnon de voyage ou de moments familiaux, le boîtier numérique classique s’est effacé sans bruit devant un rival inattendu : le téléphone portable. En une décennie, les usages se sont inversés et selon les dernières données de Photutorial, plus de 92 % des photographies prises en 2025 le sont avec un smartphone, contre à peine 7 % pour les appareils dédiés. Autrefois emblème de la maîtrise technique, l’appareil photo grand public n’est plus que l’ombre de lui-même et les ventes s’effondrent. Mais la photographie, elle, reste. C’est dans ce paysage transformé que s’inscrit l’ouvrage " Smart Photos " de Jo Bradford, publié aux éditions Eyrolles. Photographe de formation, militante de l’image populaire, l’autrice britannique entend répondre à un besoin clair : redonner du sens et de la méthode à ce geste devenu universel — prendre une photo avec son téléphone. La photographe entend expliquer ...

Le réseau est-il plus important que les datacenters ?

reseau


 Par Scott Brindamour, Senior Director, Platform Enablement chez Lumen Technologies.

Les relations commerciales se créent en de nombreux endroits et à diverses occasions.  Mais qu’elles prennent naissance dans une tour à la Défense entre équipes commerciales, dans un magasin entre un vendeur et un client ou dans une usine aux confins d’une zone industrielle, ces interactions de visu se raréfient au vu du contexte actuel. Aujourd’hui, les collègues se contactent via des outils de visioconférence et les consommateurs effectuent leurs achats directement depuis leur téléphone. Même si les conditions changent, tous souhaitent une expérience aussi fluide et rapide qu’auparavant.

Les entreprises modernes doivent s’appuyer sur des réseaux offrant une large bande passante et une faible latence. Ils doivent être capables de traiter les nombreuses données au plus près de l’endroit où elles ont été créées. Pour répondre à cette problématique de décentralisation, de plus en plus d'entreprises adoptent aujourd’hui des stratégies d’Edge Computing et investissent dans leur infrastructure réseau pour déplacer les charges de travail des datacenters vers la périphérie.

Qu’est-ce que l’Edge Computing ?

L'essor de l’Edge Computing a modifié la façon dont les données sont créées, utilisées et stockées, ainsi que le lieu où elles le sont. L’Edge Computing décrit une architecture informatique distribuée destinée à rapprocher les systèmes de calculs et de stockage au plus près du point de création des données et des utilisateurs finaux. Cette infrastructure est généralement alimentée en données par de nombreux dispositifs tels que les appareils mobiles, les dispositifs IoT, les capteurs, les systèmes autonomes, etc. Bien qu’avantageuse, cette décentralisation des données soulève une problématique majeure : assurer la puissance et la fiabilité du réseau. En effet, la croissance exponentielle du nombre d’appareils, de sources de données et d’utilisateurs connectés pèsent toujours plus sur le réseau. On estime par ailleurs que chaque individu sur terre disposera en moyenne de 3,6 appareils connectés à un réseau d’ici à 2023. Pour adresser cette pression, il est nécessaire de mettre  en place un réseau plus distribué afin de libérer de la bande passante, de réduire le temps de latence et de fluidifier les accès aux données tout en repensant leur sécurité.

Objectif : améliorer l'expérience des utilisateurs

Les datacenters centralisés ont autrefois permis d'offrir une expérience optimale aux utilisateurs en proposant une haute disponibilité, de la connectivité et une gestion simplifiée. A l’époque, ces datacenters se trouvaient au plus près des utilisateurs et de leurs PC puisqu’ils étaient généralement installés dans les locaux des entreprises. Mais maintenant que la puissance de calcul et de stockage s’est davantage orientée vers la périphérie et que l’utilisateur peut désormais en disposer depuis le dispositif qu’il a dans sa poche, il devient nécessaire de revoir l’approche de l’expérience des utilisateurs dans son ensemble : ils ont toujours besoin de disponibilité et d’une bonne connectivité et les administrateurs informatiques recherchent toujours de la simplicité de gestion.

Comment assurer une expérience utilisateur optimale alors que l’infrastructure réseau est décentralisée ?

Premièrement, en misant sur des réseaux dits adaptatifs. Ils permettent aux entreprises d’ajuster leurs capacités en fonction de la demande. Elles peuvent ainsi faire preuve de souplesse et d’agilité pour répondre aux exigences du marché et des utilisateurs en matière de débit et de latence. L’expérience utilisateur est ainsi améliorée au point même d’interaction utilisateur/machine.

Ensuite, assurer une meilleure portée géographique du réseau améliore sa disponibilité et la connectivité des utilisateurs tandis qu’une mise en réseau « software-defined networking » (SDN) offre une gestion dynamique, centralisée et automatisée et donc simplifiée. Les entreprises peuvent, grâce à l’automatisation, offrir une meilleure expérience à l'utilisateur via l’amélioration du débit et de la stabilité du réseau.

Enfin, des connexions dynamiques permettent de faire le lien entre les différents sites d’une entreprise tout en assurant une mise à l’échelle automatique. Les entreprises peuvent ainsi ajouter ou supprimer plus facilement des connexions dès qu’elles l’estiment nécessaire. Cette capacité d’adaptation aide les entreprises à répondre à la demande en temps réel et à proposer la meilleure expérience possible à l’utilisateur final.

Investir dans le réseau

Le réseau et le datacenter sont tous deux importants mais ils assument deux rôles différents pour s’adapter à la nouvelle réalité de l’Edge Computing. Dans un tel contexte, il est évident que des investissements plus importants dédiés au développement des capacités et de l’architecture sont indispensables. En effet, il est indispensable pour les entreprises de proposer des réseaux de grande portée ainsi qu’une capacité de trafic évolutive si elles souhaitent pouvoir adresser les principaux besoins des utilisateurs. 3 pans de développement sont alors à prendre en considération :

La connectivité : Elle repose sur la capacité des différentes parties du réseau de l’entreprise à communiquer. Concrètement, elle permet de se connecter facilement à de nouveaux sites, de se relier à des datacenters dispersés et d’accéder aisément à des applications ou à des données stockées dans le cloud. Une connectivité établie dans le cloud est essentielle compte tenu des environnements hybrides et multicloud d’aujourd’hui.

La redondance : À mesure que les réseaux se décentralisent, la redondance est un élément critique pour assurer la continuité des activités– et donc d’éviter les pertes, en cas de panne. Les entreprises doivent mettre en place des routes alternatives dans leur réseau, afin de prévenir les défaillances et permettre la sauvegarde pour la récupération des données. Elles peuvent le faire en s’appuyant sur un réseau redondant et global.

L’équilibrage de la charge : L'équilibrage de charge décrit la capacité à répartir uniformément et efficacement le trafic sur un réseau. Les réseaux qui en disposent utilisent au mieux les ressources disponibles, améliorent la disponibilité des applications et réduisent au minimum les temps de latence tout en contournant les goulets d'étranglement potentiels.

Les utilisateurs exigent un accès aux données et aux applications fiable et rapide, et investir dans le réseau permettra aux entreprises de fournir aux utilisateurs la meilleure expérience possible.

S'éloigner du datacenter et miser davantage sur l’infrastructure Edge

L’Edge Computing a rendu obsolète le concept de datacenter traditionnel avec ses infrastructures physiques et ses dépôts de données centralisés.  Évidemment, ils peuvent toujours faire partie des infrastructures réseaux mais ils n’en sont plus la pièce maitresse. Plutôt que de s'appuyer sur une infrastructure centralisée, les entreprises se retrouvent maintenant à en construire une davantage basée sur le modèle du réseau mobile/cellulaire : une architecture maillée qui a la capacité de s’étendre ou de réduire son envergure en fonction des besoins et des utilisations.

Les entreprises sont plus que jamais concernées par l’Edge Computing. Effectivement, il est devenu indispensable pour les entreprises de pouvoir gérer les montées en charge, toujours plus gourmandes en bande passante, tout en assurant une latence minimale, pour notamment favoriser une expérience utilisateur optimale.  Votre infrastructure réseau est-elle prête ?

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...

Écrans et santé oculaire : comment protéger nos yeux à l’ère du numérique ?

Par le Dr Camille Rambaud, co-fondateur de l’Institut Voltaire L’omniprésence des écrans dans nos vies transforme notre manière de travailler, de communiquer et même de nous divertir. Mais ce mode de vie connecté à un coût pour notre santé visuelle. Fatigue oculaire, sécheresse, maux de tête, troubles du sommeil : les symptômes de ce que l’on appelle désormais le syndrome de vision artificielle touchent de plus en plus de personnes, et ce, dès le plus jeune âge. Alors, comment protéger nos yeux sans renoncer aux technologies numériques ? Comprendre les risques : l’impact des écrans sur nos yeux La lumière bleue émise par les écrans numériques est l’un des principaux facteurs incriminés. Bien qu’elle soit essentielle pour réguler notre rythme circadien, une surexposition peut perturber le sommeil et provoquer des lésions oculaires à long terme. De plus, le clignement naturel des yeux diminue significativement devant un écran, ce qui entraîne une sécheresse oculaire accrue. Enfin, la pos...