data


Par Edouard Beaucourt, Directeur Europe du Sud de Tableau

Quel est le point commun entre la lutte contre les maladies ou la mesure des catastrophes naturelles ? Toutes ces démarches sont fondées sur la donnée. C'est grâce à une exploitation efficace de la donnée que l'on peut aboutir à une prise de décision déterminante. Car il ne suffit pas de disposer d'une base de données riche et fournie ; encore faut-il établir des liens entre ces informations pour déceler les causes et solutions éventuelles. La Business Intelligence, fondée sur l'analyse visuelle, permet de mettre les données en récit afin de suivre l'évolution des évènements et de réfléchir à leur résolution.


Du rock art au datastorytelling : miser sur la connaissance pour comprendre les données

Les représentations de l'information, visuelles ou auditives, ont constamment évolué. Qu'il s'agisse des peintures pariétales, du cinéma ou de l'analyse visuelle de données, nous avons de tout temps raconté des histoires pour relier les faits entre eux et les comprendre. Le principe des histoires, ou de son pendant en entreprise – le storytelling – est de déterminer les liens de causalité, lesquels sont moins visibles lorsque l'information est présentée sans mise en récits.
C'est ce rôle que vient jouer la Business Intelligence, en présentant les données de façon à ce que chaque membre de l'entreprise, notamment l'équipe dirigeante, puisse s'appuyer sur l'information visible pour prendre des décisions stratégiques. La Business Intelligence, ou BI, s'appuie sur l'analyse visuelle de données.

Explorer les données pour comprendre les éléments sous-jacents

L'analyse visuelle s'appuie sur le système cognitif, siège de la compréhension d'une histoire, pour présenter les données de la façon la plus intelligible pour le cerveau. Les formes et les couleurs ont donc la part belle, ainsi que les chiffres mis en valeur via une couleur ou une représentation (chiffre, camembert, points, etc).
L'analyse visuelle doit également reposer sur une organisation séquentielle de l'information : celle-ci a pour rôle de permettre de dégager une situation initiale, un déroulé et une fin possible. Les différents rebondissements d'une campagne marketing, par exemple, sont davantage compréhensibles lorsqu'ils sont imbriqués dans un décor global et vivant. En s'appuyant sur les données pour élaborer le scénario d'une campagne qui a échoué, on décèle plus rapidement et plus aisément l'élément défaillant. On peut également analyser le parcours, forcément multiplateformes, d'un internaute ou des personnes sur une carte interactive, et détecter des régularités ou des tendances générales. Si la technique n'est pas nouvelle, elle s'est perfectionnée avec le temps et permet de prendre des décisions rapides dans des domaines aussi vitaux (séismes, catastrophes naturelles, santé) qu'entrepreneuriaux (performances, scénarios stratégiques). On est alors en mesure de prendre les décisions adéquates.

Rendre les données interactives

Lorsqu'il s'agit de surveiller l'évolution quotidienne de données, un tableau de bord interactif est très utile. Si vous décelez un changement ou un problème dans vos données, vous pouvez utiliser un tableau de bord pour tenter d'en déterminer la cause. Mais lorsqu'il s'agit de communiquer vos résultats ou de convaincre d'autres personnes de prendre des mesures, vous devez leur montrer sur quoi vous basez votre opinion. En disposant les données de manière séquentielle, vous pouvez aider votre public à comprendre le contexte et à déterminer les liens utiles entre chaque point. Le processus de réflexion prend alors une dimension plus conviviale, plus collective également, et aboutit plus aisément à une prise de décision commune.

Changer la donne grâce aux données 

En mettant en récit vos données, vous pouvez rendre lisible les millions de lignes de votre tableau Excel dans une simple narration.  Cette histoire, vous permettra plus facilement d'en comprendre les éléments sous-jacents. Les données permettent de décrire les éléments qui se produisent, mais une histoire permet d'en déterminer la cause. Ainsi, dans notre monde débordant d'informations, il nous est indispensable de trier les informations de façon rapide et d'augmenter la rapidité de nos prises de décision.
news


Le chemin vers une évolution importante des droits d'auteur en Europe a franchi ce mardi 26 février une nouvelle étape importante dans sa mise en oeuvre.La commission des affaires juridiques a, en effet, approuvé la réforme des règles du droit d’auteur numérique ayant fait l’objet d’un accord provisoire avec les ministres de l’Union européenne (UE).
"L’accord conclu entre les négociateurs de l’UE vise à garantir que les droits et obligations de la législation sur le droit d’auteur s’appliquent aussi en ligne. Les co-législateurs se sont également efforcés de garantir qu’internet demeure un espace de liberté d’expression. Les extraits d’articles d’actualité pourront ainsi continuer d’être partagés, tout comme les GIF et les mèmes", précise le Parlement européen qui répond là aux principales critiques des GAFA (Google, Apple, Facebook, Amazon).

C'est quoi le "droit voisin" ?

Depuis plusieurs mois, ces géants du net sont engagés dans d'intenses opérations de lobbying contre les articles 11 et 13 de la directive, votée le 12 décembre dernier par le Parlement. Pour rappel, l'article 11, a introduit un "droit voisin" qui permettra aux journaux, aux magazines et aux agences de presse, d'être rémunérés lorsque leurs articles sont republiés en ligne, notamment par les géants du numérique comme Google et son service d'agrégation d'articles Google News.
L'article 13, quant à lui, prévoit d'obliger les plateformes (YouTube, etc.) à filtrer automatiquement les contenus mis en ligne a priori, c'est-à-dire avant même qu'ils ne soient visibles par les autres internautes. Actuellement, la suppression des contenus qui enfreignent les droits des ayants droit se fait a posteriori après signalement ; une jurisprudence qui date de 2000.
"YouTube et Google mènent une campagne de désinformation et de manipulation, les députés européens ont reçu des dizaines de milliers de messages en provenance des Etats-Unis pour annoncer la mort d’Internet si nous votions ce texte" racontait fin janvier l'eurodéputée (Les Radicaux de gauche) Virginie Rozière.

Wikipédia préservé

"Les mesures convenues accroissent les chances des titulaires de droits, notamment les musiciens, les interprètes et les auteurs de scénarios, ainsi que les éditeurs de presse, de négocier de meilleurs accords de rémunération pour l’utilisation de leurs œuvres présentes sur les plateformes internet", a estimé ce mardi le Parlement européen.
"Le texte précise également que ces règles ne s’appliqueront pas au téléchargement d’oeuvres dans des encyclopédies en ligne dans un but non commercial, par exemple sur Wikipédia, ou sur des plateformes logicielles libres comme GitHub. Enfin, les plateformes start-ups seront soumises à moins d’obligations que les plateformes mieux structurées", expose le Parlement européen, répondant là aux critiques émises notammment par le monde numérique du "libre", inquiet.

Prochaine étape : vote final

Le projet législatif a été adopté par 16 voix pour, 9 contre et 0 abstention. Le vote final au Parlement aura lieu lors de la session plénière de mars.

Les réactions

Les eurodéputées Virginie Rozière (Les Radicaux de gauche) et Pervenche Béres (Socialiste) ont réagi à cette nouvelle étape.
« Aujourd’hui, la défense et la protection de ceux qui font, ceux qui créent – contre ceux qui prennent et engrangent des profits- l’ont emporté. Notre message a toujours été clair : tout travail mérite salaire ! Les artistes, les créateurs, les journalistes sont des travailleurs comme les autres. Ce texte va permettre de reverser un part de la valeur générée par l’exploitation des œuvres, aux créateurs et aux artistes. Loin de conduire à une censure généralisée de l’Internet, ce texte va au contraire y organiser la diffusion des œuvres de manière durable et équitable car l’économie de l’intermédiation numérique doit être régulée », a expliqué Virginie Rozière, eurodéputée radicale de gauche, membre de la commission JURI.
« Les mesures proposées dans le texte ne visent en rien à restreindre les libertés d’accès ou de diffusion des œuvres ; elles n’appauvriront pas les contenus d’Internet, mais protégeront au contraire la création et la diversité, contrairement à ce que véhicule la propagande éhontée des groupes de pression. Les négociateurs sont parvenus à proposer des dispositions proportionnées et transparentes pour permettre aux artistes, à la presse et à ceux qui les représentent d’être armés pour négocier avec les plateformes. Pour la première fois figurera dans un texte européen le droit à la juste rémunération des auteurs et artistes-interprètes. C’est une occasion que nous ne devons pas laisser passer !", rajoute Pervenche Berès, co-présidente de l’Intergroupe « Industries culturelles et créatives ».
Les eurodéputées concluent : « Cet accord va plus loin que le droit d’auteur : nous entrons dans un nouveau rapport de force avec les géants du numérique. Il s’agit d’un texte historique à bien des égards, il va permettre à l’Europe de poser les premiers jalons de sa souveraineté vis-à-vis des GAFA. À ce titre les campagnes de lobbying, parfois à la limite de nos principes démocratiques, tant ils reposent sur la menace et le chantage ne peuvent que nous conforter dans notre détermination ! Reste la dernière étape à franchir : le vote en plénière en mars ou avril… ».
huawei
Le Mate X de Huawei


Qui n’a pas été fasciné devant le film « Minority Report » de Steven Spielberg ou la série à succès « Westworld » dans lesquels les personnages principaux manient des écrans pliables ou des tablettes ultrafines que l’on déplie pour obtenir de grands écrans ? Ce rêve de science-fiction est en passe de devenir réalité et le Mobile World Congress de Barcelone sera cette année marquée par les smartphones pliables.

Avant même l’ouverture du salon hier, Samsung a dévoilé un premier modèle baptisé Fold, qui fait suite à un prototype à écran flexible, le Youm, présenté en 2013.

Samsung dégaine le premier son Fold

samsung
Le Samsung Galaxy Fold

Le constructeur sud-coréen, qui célèbre les dix ans de son modèle phare le Galaxy S, a présenté jeudi dernier à San Francisco son smartphone à écran pliable, compatible 5G, qui sera commercialisé au prix d’entrée astronomique de 1 980 dollars. Plié, le Fold mesure 4,6 pouces (11,7 cm). Il s’ouvre grâce à un écran pliable : la face interne devient un écran de 7,3 pouces (18,5 cm), faisant du smartphone une tablette. « Le Galaxy Fold est une révolution, pas seulement parce qu’il répond aux sceptiques qui disent que tout ce qui est possible a été fait et que l’ère de l’innovation du smartphone est terminée, dans un marché saturé. Nous sommes là pour dire qu’ils ont tort », a lancé DJ Koh, patron de la division mobile chez Samsung.

L’accueil de ce mobile de luxe reste mitigé, beaucoup se demandant quels peuvent être les usages de cet écran au format carré assez inédit. « Comme prévu, il n’est pas donné, mais le GalaxyFold va être LE modèle à avoir pour les mordus de gadgets », a réagi sur Twitter l’analyste Bob O’Donnell de Technalysis Research. Chez Forrester, Julie Ask est plus mesurée : le modèle est « magnifique », mais « épais ». Et encore faut-il trouver un marché pour ce produit « qui coûte aussi cher que d’acheter une tablette plus un smartphone », ajoute l’analyste, qui voit du coup plutôt du potentiel du côté des entreprises que des particuliers.

oppo
Un prototype de chez Oppo


En tout cas, la tendance des smartphones pliables semble prise et d’autres constructeurs présentent des mobiles pliables à Barcelone. Ce sont les constructeurs chinois qui explorent ce nouveau segment. Oppo, Huawei, Nubia (filiale de ZTE), Xiaomisont dans les starting-blocks. Huawei a fait sensation en présentant dimanche soir le Mate X, un modèle 5G pliable plus élégant et plus fin que celui de Samsung, avec un seul grand écran repliable de 8 pouces (20,3 cm). Et plus cher aussi : 2 299 euros !

Si tous ces constructeurs misent sur les smartphones pliables c’est aussi pour créer un nouveau segment qui soit un levier de croissance pour un marché qui a connu le premier déclin annuel de son histoire (près de - 5 % de livraisons).



Le Mobile World Congress (MWC, congrès mondial de la téléphonie mobile) s’est ouvert hier à Barcelone. Cette grand-messe qui réunit tous les acteurs des télécoms - hormis Apple qui fait toujours bande à part - sera dominée par les smartphones à écran pliable et les promesses de la 5G. Samsung a déjà pris tout le monde de vitesse, en présentant mercredi dernier à San Francisco le tout premier smartphone à écran pliable, le Galaxy Fold (lire page suivante). Huawei lui a répliqué dimanche soir avec un modèle pliable encore plus élégant. C’est que Huawei jouera gros à Barcelone…

L’enjeu de la norme 5G


Le géant chinois a pris de l’avance sur ses concurrents en termes de qualité des équipements de 5e génération, une technologie qui promet de tout connecter plus vite, partout et en tout temps. Les Etats-Unis cherchent à convaincre leurs alliés que les Chinois de Huawei représentent un danger pour la confidentialité de leurs réseaux parce que les services secrets chinois pourraient les espionner. « Cette année, nous verrons de vrais lancements de la 5G dans différents pays et l’attention de l’industrie sera tournée vers quand, comment, où et de quelle manière les utilisateurs pourront profiter de la 5G en 2019 », estime Ian Fogg, vice-président en charge de l’analyse pour OpenSignal, une entreprise spécialisée dans la cartographie des réseaux sans fil.

Si l’Australie, la Nouvelle-Zélande ou le Japon notamment ont suivi les Américains et boycottent les équipements 5G de Huawei, la question n’est toujours pas tranchée en Europe, où les opérateurs, notamment en Allemagne, craignent de prendre du retard dans le déploiement.

Le géant chinois a d’ailleurs remporté quelques succès avant l’ouverture du Congrès. Le Financial Times rapportait il y aune semaine que le service de renseignement britannique pour la cybersécurité (NCSC) juge possible de limiter les risques liés à l’utilisation d’équipements Huawei dans la 5G. De plus le GSMA, l’association mondiale de 800 opérateurs qui organise le congrès, « a également expliqué que ce serait une mauvaise idée de bannir Huawei du continent », ajoute Dexter Thillien, analyste chez Fitch Solutions. « Si Huawei réussit à convaincre totalement le GSMA durant le congrès, en rassurant ses clients, cela pourra avoir encore plus d’impact ». Le MWC sera par ailleurs l’occasion, pour Huawei, de « montrer qu’ils continuent à faire leur travail, qu’ils innovent toujours et qu’ils font bien les choses différemment de leurs concurrents, et ainsi être dans une actualité plus positive que ces derniers mois », poursuit-il.

Consommateurs frustrés


Côté terminaux, les écrans pliables offrent une chance aux fabricants d’endiguer la baisse des ventes : - 4,1 % en 2018 après 0,5 % en 2017, selon le cabinet spécialisé IDC. L’écran pliable est vu, au même titre que l’arrivée de la 5G, comme une chance de redonner de l’air à un marché qui ne suscite plus autant d’engouement que durant les grandes années de l’iPhone.

« Les gens conservent leurs téléphones plus longtemps. Les consommateurs sont frustrés parce que les appareils n’évoluent pas des masses alors que les prix continuent à monter ». On dépasse désormais les 1 500 euros pour les appareils les plus chers.

__________


Les smartphones ont remplacé les objets du quotidien


Lorsque sont apparus les premiers smartphones, ces téléphones mobiles «intelligents», les constructeurs n’avaient de cesse de vanter le côté «couteau suisse» de ces appareils aors très onéreux. Une expression qui était au départ purement marketing mais qui, au fil des ans, est devenue une réalité. Car les smartphones d’aujourd’hui on bel et bien remplacé tout un  tas d’outils physiques que nous utilisions.

Répertoire, agenda
En premier lieu, grâce aux applications installées d’office sur les smartphones, on s’est progressivement passé des répertoires de contacts, de l’agenda papier, du bloc-notes, de la calculette, des différentes listes en post-it (de courses ou de choses à faire), voire de la lampe de poche. Toutes ces taches sont désormais numérisées et sont de plus liées les unes aux autres pour gagner du temps.

Le GPS surpassé
Autre fonction : le GPS. Les terminaux que l’on ventousait au pare-brise ont été rapidement dépassés, notamment grâce aux fonctions connectées des smartphones qui ajoutent de multiples points d’intérêts le long d’un trajet, permettent d’obtenir des itinéraires alternatifs en temps réel. Et désormais permettent de s’orienter à l’intérieur des bâtiments.

Musique, appareil photo
Ensuite, ce sont des appareils qui nous étaient familiers qui ont progressivement été remplacés. Le baladeur MP3 a disparu au profit d’applications de lecture de musique ou d’écoute en streaming. Deezer, Spotify, Amazon Music ou AppleMusic proposent des bibliothèques de millions de titres pour 10 €par mois. La musique en streaming a également ouvert la voie à la vidéo à la demande : Netflix, Amazon Prime, OCS permettent là aussi de visionner films, séries, documentaires mais aussi les programmes télé en replay ou en direct.

L’appareil photo
L’appareil photo numérique est sans doute l’objet le plus emblématique que le smartphone a remplacé. Les capteurs photos - désormais au nombre de trois voire cinq sur les smartphones les plus récents - mais aussi les logiciels embarqués de traitement des images, qui mettent en œuvre de l’intelligence artificielle, permettent aux smartphones de rivaliser dans certaines circonstances avec des appareils reflex. Surtout la fonction photo - et vidéo - des smartphones a ouvert un nouveau pan de la photographie avec les selfies à partager sur les réseaux sociaux.

Banque, ticket, santé
Le smartphone n’entend pas s’arrêter là et de nouvelles fonctionnalités se développent. Il peut d’ores et déjà remplacer une carte de paiement pour payer les achats chez les commerçants. Il embarque tickets de cinéma, de métro ou billets d’avion numériques. Et demain ? Le smartphone va pouvoir servir de clé pour déverrouiller sa voiture ou son domicile. Et de multiples applications en lien avec la santé sont en réflexion.
Surtout, le smartphone connecté en 4G est devenu une porte d’entrée majeure pour l’accès à internet. « Le mobile tire la croissance : il est devenu le premier écran de connexion et conquiert chaque année toujours plus d’internautes. On compte aujourd’hui 34 millions de mobinautes au quotidien, soit 3 millions de plus que l’an dernier », selon une étude Médiamétrie parue ce mois-ci, qui pointe une tendance de fond : après le « mobile-first », voici l’émergence du « mobile-only », notamment chez les plus jeunes. C’est-à-dire que le « mobile d’abord » est supplanté par le « mobile seul », qui a remplacé l’ordinateur ou la tablette.


La bataille de la 5G commence



L’année 2019 sera celle du démarrage de la 5G, la prochaine génération de réseau mobile, qui promet des débits bien plus importats que ceux de la 4G et qui doit également permettre de connecter les objets numériques à internet. Cette année au Mobile World Congress de Barcelone,   plusieurs fabricants vont dévoiler les premiers appareils compatibles avec cette nouvelle norme de téléphonie mobile. Outre la version 5G du Galaxy S10 de Samsung qui a été dévolé jeudi dernier, on devrati découvrir les nouveaux appareils de Xiaomi, Huawei, HTC ou encore OnePlus. Apple, éternel absent du salon, devrait quant à lui attendre 2020 avant d’intégrer la 5G dans l’ un de ses iPhones, selon Bloomberg.

Le marché de la 5G, qui décollera véritablement à partir de 2021, apparaît en tout cas colossal. Selon la dernière étude Ericsson Mobility Report, il devrait générer plus d’un milliard d’abonnements dans le monde à l’horizon 2023. Le nombre d’abonnements mondiaux pourraient même approcher les 1,5 milliards dès l’année suivante, en 2024.  On comprend mieux les fortes réserves survenues en Amérique du Nord et maintenant en Europe à propos du chinois Huawei, leader des équiements de réseaux  5G,  soupçonné d’espionnage, ce dont se déend le conxtructeurs.
smarthome


La maison connectée est l'un des thèmes majeurs du Mobile World Congress (MWC, congrès mondial de la téléphonie mobile) qui s'est ouvert lundi 25 février à Barcelone. Annoncée depuis plusieurs années, cette maison "intelligente" est dé'sirmais bien là, permettant de piloter l'éclairage, le chauffage ,les volets roulants, les stores ou les alarmes et autres détecteurs à distance depuis son smartphone.
Les freins à une adoption massive du concept de maison connectée résident dans le coût des appareils mais aussi dans les diverses normes souvent incompatibles entre elles ou encore dans la complexité de mise en oeuvre.

3 millions de Livebox concernées

Orange, premier opérateur télécom en France, vient de franchir un cap en rejoignant ll'alliance ULE. Cette décision fait suite à la décision du Groupe de s’appuyer sur la technologie ULE pour assurer la connectivité des objets de son futur service "Maison Connectée".
"Pour permettre à ses clients de piloter facilement et de manière sécurisée les objets connectés à leur domicile, Orange va lancer au printemps 2019 Maison Connectée. En faisant le choix de la technologie ULE, ce sont près de trois millions de foyers équipés de la dernière Livebox en France, qui pourront accéder au service, sans équipement additionnel, dès le lancement", précise Orange ce lundi 25 février. "Cette offre, sans abonnement complémentaire, permettra aux utilisateurs de gérer tous leurs équipements connectés depuis une seule et même application mobile ou à travers le futur assistant vocal d’Orange, Djingo."

Une gamme d'objets connectés

Une gamme d’objets compatibles ULE, sera commercialisée au lancement sous la marque Orange parmi lesquels : un détecteur de mouvement, une prise intelligente, une ampoule couleur et un capteur d’ouverture de porte. Ces objets ont été développés en partenariat avec Deutsche Telekom." Nous sommes convaincus que le protocole ULE est la meilleure technologie pour démocratiser les usages domotiques de nos clients. Orange rejoint désormais Deutsche Telekom au sein de l’ULE Alliance pour travailler aux côtés des autres membres au développement d’un véritable écosystème industriel. Ainsi, plus de 5 millions de clients Orange et Deutsche Telekom, déjà équipés d’une box compatible ULE pourront accéder à  une gamme plus large d’objets connectés ULE", a précisé Sylvaine Aublanc, Directrice Marketing Smarthome chez Orange.
smarthome


Avis d'expert d'Avira

Au cours des dernières années, la technologie des maisons connectées est devenue de plus en plus accessible. Cette technologie intelligente se connecte à nos smartphones, elle parle notre langue et les appareils sont toujours plus nombreux à l'intégrer. Il est fort probable que vous ayez déjà acheté un produit de la sorte sans y réfléchir.

Il est faux de penser qu'une « maison connectée » est celle où le réfrigérateur fait lui-même les achats et où tout est automatisé. Une maison connectée n'est pas synonyme de gadgets et robots totalement innovants et insensés. En règle générale, il s'agit simplement de remplacer des appareils, équipements et accessoires par des versions similaires en réseau ou automatisées – des ampoules intelligentes, des thermostats intelligents, des systèmes de sécurité intelligents, etc.

Qu'est-ce qu'une maison connectée ?


La connexion de divers appareils entre eux via un réseau offre effectivement quelques avantages. Tout d'abord, il s'agit de facilité de commande et de confort. Tous les appareils peuvent être commandés en temps réel, soit via une application sur smartphone, soit via une enceinte à commande vocale.  Deuxièmement, les appareils en réseau transmettent des informations qui améliorent la sécurité et l'efficacité. Par exemple, ils indiquent quelle personne entre dans la maison et à quel moment. Ou bien la consommation d'énergie d'un appareil. Le troisième point important est l'automatisation. Si vous n'avez pas envie de toujours commander manuellement vos appareils ménagers, vous pouvez aller un peu plus loin et établir des règles et des routines. Vous pouvez ainsi configurer l'exécution de certaines actions au moment où vous entrez dans la maison/l'appartement, ou que vous la/le quittez, ou lorsque des capteurs sont déclenchés. L'idée est que votre maison apprenne à vous connaître, ainsi que votre famille et vos amis, et qu'elle fonctionne automatiquement, sans que vous ayez à intervenir. Voici les produits les plus courants :

Le chauffage réfléchit


Les dispositifs de commande du chauffage intelligents promettent par exemple de « réfléchir » et de réduire nettement les coûts de chauffage – de plusieurs centaines d'euros par an en fonction de la surface habitable. Ils détectent par exemple lorsque le dernier habitant quitte la maison et baissent automatiquement la température. Mais il est inutile de craindre que les pièces soient froides à votre retour. Si vous finissez plus tôt que prévu la journée de travail, vous pouvez facilement régler le chauffage à distance, via l'application smartphone par exemple. Il est également possible de configurer des profils horaires. Cela permet par exemple de s'assurer que la salle de bain soit agréablement chaude le matin, sans pour autant devoir chauffer toute la nuit.

Plus qu'un simple éclairage
L'éclairage intelligent est aussi particulièrement apprécié. Ainsi, il est facilement possible d'allumer et d'éteindre les lampes depuis son canapé, de tamiser l'éclairage ou d'en ajuster la teinte. Enfin, les lumières LED sont capables de représenter des millions de couleurs différentes. Vous profitez ainsi d'univers lumineux totalement inédits à l'intérieur de votre maison. Une seule pression du doigt vous permet de modifier toute l'ambiance d'une pièce – du climat de travail blanc opaque au blanc chaud et relaxant.

Des serrures de porte intelligentes
Utiliser une serrure traditionnelle est rarement une expérience jubilatoire : on cherche ses clés, on trouve la bonne, on l'enfonce, on tourne, et on doit parfois refermer derrière soi. Les serrures connectées facilitent le processus, puisqu'elles peuvent être ouvertes par application (ou télécommande). Finis également les efforts et le stress en cas de perte de clé. De nouvelles « clés » peuvent être mises en place sous forme de smartphones ou de transpondeurs. Cette solution est particulièrement appréciée des familles avec de jeunes enfants. Pour les maniaques du contrôle, les protocoles d'accès s'avèrent également pratiques car ils permettent de vérifier qui est entré à quel moment dans la maison. Ces informations sont saisies à la minute près dans les applications.

D'innombrables possibilités

La technologie s'immisce dans des domaines toujours nouveaux, et pour des objets aussi simples que les détecteurs de fumée. En cas d'alarme, un message est envoyé sur le smartphone. Cette fonctionnalité est pertinente pour les personnes handicapées telles que les seniors, car le prestataire, le voisin ou le proche est rapidement informé et peut voir ce qu'il se passe en temps utile. Des actions telles que la remontée de volets roulants et l'allumage de l'éclairage sont également possibles afin de faciliter l'évacuation du bâtiment.
Peu importe le type de maison connectée que vous choisissez, cela en vaut la peine. En outre, le sujet commence à être sur toutes les lèvres et l'offre de solutions pratiques grandit constamment. Pour en savoir plus à ce sujet, consultez la deuxième partie.

facebook



Par Thomas Fauré, président de Whaller, plateforme de réseaux sociaux garante de la confidentialité des données de ses
utilisateurs

À l’occasion de la 9ème Journée sans Facebook, ce jeudi 28 février, Thomas Fauré dénonce la schizophrénie technologique qui maintient l’Europe béate devant Facebook, en dépit des mille révélations qui ont été faites à son sujet. Il affirme qu’il existe au cœur du Vieux Continent les moyens d’investir sur l’intelligence autant que sur la sagesse afin non pas de remplacer mais de dépasser le modèle d’une plateforme bâtie sur l’exploitation des données personnelles. Et si au lieu de penser « journée », nous nous permettions d’envisager plutôt un avenir sans Facebook ?

1. Pourquoi donc une Journée Mondiale sans Facebook ? 

La Journée Mondiale sans Facebook a neuf ans. Il semble utile de commencer par s’interroger sur les raisons de son existence. Pourquoi diable se priver une journée durant de quelque chose de bon ? Eh bien peut-être que ses utilisateurs y passent de plus en plus de temps, au détriment de toutes leurs autres activités ? Ensuite, pourquoi ne pas se poser la question des intentions de Facebook ? Son installation dans notre paysage « culturel » ne doit pas détourner notre attention de ses étranges pratiques. Après tout, 2018 aura été émaillée de 31 scandales impliquant directement Facebook. Aujourd’hui, plus personne ne peut être dupe.

À telle enseigne que les Membres du Parlement britannique viennent de déclarer publiquement que les responsables de Facebook n’étaient rien moins que des « gangsters du numérique ». Si les mots ont un sens, une telle déclaration aurait dû provoquer un véritable séisme mondial ! L’innocuité de Facebook est désormais contestable.

Et pourtant… Rien ne semble ébranler le mastodonte. Le nombre d’utilisateurs du réseau social continue de croître grâce à une forte progression en Asie, sans pour autant connaître de baisse significative aux États-Unis ou en Europe. Il suffit à Mark Zuckerberg d’expliquer que le réseau va mettre le paquet en matière de vie privée pour que tout le monde y croit. Même nos entreprises, qui utilisent Workplace (la version collaborative de Facebook), exposent nolens volens données, usages et propriété intellectuelle aux indiscrétions d’une multinationale américaine.

2. L’Europe a-t-elle encore une chance de jouer un rôle dans le monde technologique ?

L’Europe est une grande romantique. Après avoir conquis le monde, elle est désormais subjuguée par ce Nouveau Continent qui a su l’investir aussi vite et avec autant de puissance. À la question de savoir s’il est encore possible de porter la contradiction aux « GAFA » en matière technologique, on assiste aujourd’hui à un face à face entre deux camps. D’un côté les monomaniaques de l’intelligence artificielle qui considèrent que nous avons été définitivement distancés et que nous devons désormais nous contenter d’attendre patiemment l’extinction de l’Europe.

De l’autre, ceux qui appellent à la création de « géants du numérique » en investissant surtout dans des « buzzwords » tels que chatbots, blockchains, crypto-monnaie, Internet des objets et bien sûr intelligence artificielle, sans jamais bien savoir ce que ces vocables désignent. Nous pensons quant à nous qu’il se trouve actuellement en Europe une troisième voie. De nombreuses entreprises existantes, sans pour autant être des géantes, présentent des caractéristiques qui permettent de dire qu’elles ont tout pour devenir telles en un délai raisonnable, et surtout, pour durer. À titre d’exemple, nous observons chez Whaller que de grands groupes nous choisissent, d’abord pour le service que nous savons rendre, et ensuite pour des raisons éthiques au terme desquelles elles proscrivent définitivement tout recours à Facebook. Intervient également, enfin, dans ce choix, une forme de patriotisme économique. Vous avez là en puissance les clefs d’un possible retour de flamme en Europe.

3. Quelles solutions pour un avenir sans Facebook ? 

C’est hélas par défaut que l’opinion publique européenne a pris soudainement goût aux questions de vie privée, la fameuse « privacy ». Il a fallu que les géants de la Silicon Valley la foule aux pieds pour que Bruxelles, avec le RGPD, érige des fourches caudines sensées nous protéger de leurs malversations. Or des centaines de millions d’utilisateurs se sont habitués avec Facebook à une plateforme finalement assez rudimentaire. Ainsi, malgré toutes les révélations qui ont été faites au sujet de Facebook, c’est d’abord l’acrasie collective des internautes, qui représente actuellement le plus grand obstacle à un dépassement du monopole de Facebook.

On peut naturellement plaider la défense de ces utilisateurs en invoquant l’addiction à laquelle les a soumis une plateforme bâtie sur le recel d’attention et l’exploitation des données personnelles. Reste qu’on n’amènera personne à changer de plateforme par la force ou l’infamie. Nous avons donc devant nous un immense travail de séduction, de communication, mais surtout de service à effectuer pour leur donner un début d’envie de transhumance. Mais le temps presse. Et nous savons tous combien l’économie se développe désormais prioritairement sur ce tissu technologique qu’est Internet. Il nous semble donc important, mais surtout parfaitement possible, de capitaliser d’ores et déjà sur des plateformes existantes.

Nous possédons en Europe des technologies puissantes, propriétaires, centrées sur l’expérience utilisateur, et qui sont tout à fait en mesure de permettre, par exemple, les mêmes usages que Facebook ou Google, mais dans un cadre éthique propre au Vieux Continent. Et pour la suite, trois conditions peuvent certainement en permettre le développement à l’état de « géants » : d’abord, il faut que nos institutions, nos entreprises, nos célébrités montrent l’exemple et quittent Facebook, qui n’est pas, loin s’en faut, ce marécage dont nul ne saurait s’extraire. Ensuite, des investissements considérables doivent être placés dans de véritables plateformes. Enfin, nous devons cesser de tout passer, d’abord sur le plan fiscal, aux rouleaux compresseurs de Palo Alto et d’ailleurs, au seul motif qu’ils alphabétisent nos populations avec la seule grammaire qu’ils commercialisent. L’Europe doit construire l’Internet de demain où l’humain retrouve sa place face à la technologie et recouvre le contrôle de ses usages. Si cette opportunité se présente, nous serons alors capables de proposer un avenir sans Facebook, et même sans les GAFA.
ia


Le Grand débat national voulu par Emmanuel Macron et censé répondre à la crise des Gilets jaunes se poursuit jusqu'au 15 mars, mais déjà l'heure de l'analyse des contributions a sonné. C'est que, pour l'exécutif, il est capital d'obtenir le plus rapidement possible la synthèse de ces milliers de contributions déposées sur le site internet, envoyées par courrier, émises lors des réunions locales ou encore écrites sur les cahiers citoyens mis à disposition par les maires. Objectif pour Emmanuel Macron qui a promis des «décisions fortes» : disposer dès la clôture du débat d'éléments pour prendre rapidement des décisions politiques et leurs modalités (référendum, Grenelle social, etc.).

Depuis mercredi dernier, les maires rendent aux préfets «les cahiers de doléances» ou les formulaires d'expression citoyenne, ouverts depuis le 16 janvier dans quelque 10 000 communes. Ils seront transmis à la Bibliothèque nationale de France (BNF) d'ici demain lundi.

«La BNF se chargera de référencer, d'indexer et de numériser leurs contenus. Ces données seront transmises pour analyse au consortium piloté par Roland Berger, associé à Cognito et BlueNove, prestataires de la Mission du grand débat national spécialisés dans la civic tech, l'intelligence collective et le traitement de données de masse», a précisé le gouvernement.


Une première en France

Car face au nombre colossal de données à traiter – la plateforme a franchi le cap du million de contributions – le gouvernement va se faire aider par l'intelligence artificielle. Une première en France dans un cadre aussi vaste.

L'institut de sondage OpinionWay a été chargé d'analyser les résultats de la consultation en ligne. Les contributions au Grand débat seront closes le 18 mars ; leur restitution publique est calée pour fin mars. Un délai très court.

Opinion Way, qui a remporté un marché public attribué dès 2015 pour une mission d'«analyse de données issues de consultations en ligne» a déjà traité les résultats d'une dizaine de consultations organisées par plusieurs ministères. Concrètement, OpinionWay va récupérer deux types de données : le résultat des questionnaires en ligne sur le site et les propositions libres des internautes. Dans le premier cas, les choses sont simples : en fonction des réponses cochées dans les formulaires, OpinionWay calculera des pourcentages (ni pondérés ni redressés, contrairement aux sondages).

Algorithmes et deep learning
Dans le second cas en revanche, il faut trier des verbatims. Pour ce faire, OpinionWay s'est associée à la société française Qwam Content, spécialisée dans la veille sur le web et l'analyse sémantique. Qwam est capable de traiter des volumes massifs de texte en s'appuyant sur des algorithmes et de l'intelligence artificielle. La machine lit chacun des verbatims et les compare à un dictionnaire de notions : mots, groupes de mots, idées, etc. Avec cette technologie de l'apprentissage profond (deep learning), «le système reconnaît les contextes et peut deviner le sens d'un mot à 99 %», assure le directeur général de Qwam, Christian Langevin.

Dans le cas où les verbatims ne seraient pas compris par la machine, ils seront repris manuellement par une équipe d'une vingtaine d'analystes qui les lui «apprendra».

Attention aux biais

Reste que cette méthode de traitement des contributions du grand débat soulève des questions, car il existe certains biais.

Le premier est que les contributeurs du site granddebat.fr créent un compte qui ne leur demande qu'une adresse e-mail et un code postal. La plateforme ne connaît ainsi ni leur lieu de résidence, ni s'il s'agit d'un homme ou d'une femme, ni la catégorie sociale à laquelle ils appartiennent ou même leur profession. «Ne pas disposer des variables telles que l'âge ou la profession, c'est s'exposer à toutes sortes de biais sachant que les groupes sociaux ne vont pas se mobiliser de façon uniforme», expliquait dans Le Monde Sébastien Delarre, sociologue de l'université Lille-I. Dès lors, la plateforme s'expose à des opérations de lobbying orchestrées par des groupes très organisés qui vont poster les mêmes propositions pour pousser leurs idées. On a vu un tel phénomène sur la consultation en ligne lancée par le Conseil économique, social et environnemental (Cese), achevée le 4 janvier, qui avait fait émerger comme idée l'abrogation de la loi sur le mariage pour tous… après une forte mobilisation de la Manif pour tous.

Le second biais concerne le dictionnaire de notions que vont utiliser OpinionWay et ses partenaires. Les algorithmes ne sont pas neutres : le dictionnaire utilisé a préalablement été alimenté par certains termes. «L'algorithme répond toujours à une finalité, cette finalité est déterminée par l'Homme», rappelait David Forst, docteur en théorie politique à l'université Paris I, lors d'un colloque organisé par le ministère de la Justice en juin dernier.

Le gouvernement est conscient de ces problématiques et a mis en accès libre (open data) toutes les données de la plateforme. «On ne va rien cacher. Tout sera accessible», indiquait à La Dépêche la semaine dernière le ministre des Collectivités territoriales Sébastien Lecornu.

Des analyses alternatives

De fait, les contributions seront analysées par le gouvernement, mais aussi par d'autres, chercheurs ou associations. Ainsi la plate-forme grandeannotation.fr propose à tous ceux qui le souhaitent de catégoriser des contributions. «Lisons et catégorisons les textes écrits dans le cadre du grand débat pour faire émerger les idées les plus répandues et regrouper les réponses similaires», explique le projet soutenu par le collectif Code for France. 300 personnes ont ainsi annoté plus de 210 000 contributions.

Autre initiative, celle de chercheurs qui ont lancé l'Observatoire des débats, copiloté par l'Institut de la concertation et de la participation citoyenne (ICPC) et le GIS Démocratie et Participation. «Un protocole d'observation a été élaboré sous la direction de Martial Foucault, directeur du Cevipof (CNRS-Sciences Po), qui prévoit le suivi d'environ 60 débats par semaine, sélectionnés par tirage au sort afin de représenter au mieux l'ensemble du territoire français», explique le projet, qui fournira une évaluation indépendante en avril.

Ces initiatives sont dès lors autant de garde-fous qui permettront d'avoir au final une analyse très fine de ce qui s'est vraiment dit au cours du Grand débat.
File 20190218 56243 s9yw8r.jpg?ixlib=rb 1.1
A l'étable. Pexels
Par Nathalie Devillier, Grenoble École de Management (GEM)


L’IA est le nouvel eldorado des GAFAM dans l’objectif d’alimenter leurs modèles économiques aux dépens des usagers (voir par exemple le « 10 years challenge » de Facebook). Lesquels perdent du même coup le contrôle de leurs données. Comment alors garantir que les données de l’agriculture de précision profitent à ceux qui les génèrent ? Les éleveurs 3.0 doivent être vigilants sur le partage de leurs données agricoles.

Qu’est-ce que l’agriculture de précision ?

L’agriculture de précision (smart farming) se développe avec plusieurs finalités : surveillance, protection et prévention en santé. Par exemple, prévenir la propagation des maladies en surveillant la toux des porcs, gérer plus tôt les périodes de quarantaine en cas d’épidémie, identifier plus précisément et plus rapidement un éventuel foyer d’infection. L’analyse en temps réel des données de comportement alimentaire et d’abreuvement permet de prédire si l’animal nécessite un suivi particulier. Dans le cadre d’une ferme autonome, les conditions de température et d’humidité de l’élevage sont analysées et la croissance des animaux observées pour déterminer à quel moment les expédier aux abattoirs.
Les technologies utilisées sont notamment la vision artificielle (par ordinateurs via caméras), la reconnaissance vocale (détection des cris pour lutter contre la mortalité des porcelets écrasés par leurs mères), les capteurs de température infrarouges puis le recoupement de ces données avec celles relatives aux déplacements issus de GPS. D’autres données sont générées par des drones et des machines autonomes équipées de multiples capteurs.
L’Asie est pionnière dans ce secteur. La Chine surveille ses cochons et la Corée ses poules grâce aux nouvelles technologies. On se souvient qu’en 2016, la Corée avait dû éliminer 33 millions de poulets suite à une épidémie du virus H5N6.

Une explosion de données agricoles

Les données ainsi collectées sont de nature très diverse : les stocks vivants, le terrain, les données agronomiques, ou sur le climat, les machines, les données financières et de conformité. Certaines sont des données à caractère personnel, d’autres sont dites sensibles, mais beaucoup sont d’ordre confidentiel pour le prestataire de services et le fournisseur des équipements agricoles. Ces données ont donc une importance économique pour les agriculteurs, les éleveurs et pour toute la chaîne de valeur.
Or, ces échanges croissants de données posent des challenges majeurs pour le secteur agro-alimentaire européen. Il pose des questions sur la protection des données, la propriété intellectuelle, l’attribution des données (souvent appelée à tort « propriété »), les relations de confiance et de pouvoir, le stockage, la durée de conservation, l’utilisation des données et leur sécurité. Les risques sont nombreux du point de vue de celui qui génère ces données : mésusage, pratiques commerciales déloyales, violation de droit de propriété intellectuelle… C’est bien pour cela que les agriculteurs et les éleveurs doivent être vigilants sur le partage de leurs données.
L’Internet des objets et le développement de l’intelligence artificielle se heurtent jusqu’à présent aux réglementations nationales visant à localiser les données dans une zone géographique ou un territoire précis à des fins de traitement des données ; ou à des exigences d’utiliser des moyens techniques qui sont certifiés ou agréés par un État membre en particulier. En même temps, la mobilité des données est freinée par des pratiques de fournisseurs qui rendent les utilisateurs captifs sur le plan technologique ou économique ce qui les dissuade de changer de prestataire.

Un marché unique numérique des données non personnelles

Les données à caractère non personnel incluent par exemple les données générées par des machines ou les données commerciales. Il peut par exemple s’agir d’ensembles de données agrégées utilisées pour l’analyse des méga-données, de données sur l’agriculture de précision qui peuvent aider à contrôler et à optimiser l’utilisation des pesticides et de l’eau, ou encore de données sur les besoins d’entretien des machines industrielles.
Ces données sont régies par le nouveau règlement européen adopté en novembre 2018 visant justement à éliminer les obstacles à la libre circulation de ces données.
Entré en vigueur en décembre dernier, ce texte permet de dynamiser l’économie des données et le développement de technologies émergentes telles que l’intelligence artificielle, les produits et les services en lien avec l’Internet des objets et les systèmes autonomes et la 5G soulevant de nouvelles questions juridiques quant à l’accès aux données et à leur réutilisation, à la responsabilité, à l’éthique et à la solidarité.
Le règlement s’applique aux « ensembles de données agrégées et anonymisées utilisées pour l’analyse des mégadonnées, les données sur l’agriculture de précision qui peuvent aider à contrôler et à optimiser l’utilisation des pesticides et de l’eau, ou encore les données sur les besoins d’entretien des machines industrielles ». Il concerne aussi les données relatives aux personnes morales (financières ou d’exploitation), ou encore celles relatives à des produits.
Ce nouveau règlement permet de créer un marché unique numérique en interdisant les restrictions de localisation de données et en fixant le principe de libre accessibilité des données par les autorités nationales. Il prévoit la mise en place d’une politique de portage de ces données par la Commission européenne grâce à des codes de conduite en déterminant ses modalités : procédures, exigences techniques, délais et coûts, formats et supports de données disponibles, configurations informatiques requises et bande passante minimale du réseau, délai à prévoir avant le lancement de la procédure, durée pendant laquelle les données resteront accessibles, et les garanties d’accès aux données en cas de faillite du prestataire.
Ce texte entrera en application le 18 juin 2019. Toutes les organisations doivent donc l’intégrer rapidement et l’appliquer avec le RGPD lorsque des données mixtes (à caractère personnel ou non) sont utilisées. Encore une nouvelle mission pour le délégué à la protection des données ! L’articulation de ce texte avec le RGPD fera l’objet de « Lignes directrices » publiées par la Commission européenne.

Un cadre juridique basé sur la liberté contractuelle

Puisque les données ne font pas l’objet d’un titre de propriété, les droits d’accès et d’usage sur celles-ci sont fixés par contrat entre les parties : l’initiateur des données (celui qui les génère lui-même ou demande à un prestataire de le faire), le prestataire de services, le ou les utilisateurs et les tierces parties. Les conditions de collecte, traitement et partage de ces données doivent y être clarifiées en fonction des besoins des parties.
Une compensation doit être prévue pour l’initiateur des données au titre de l’usage ou de l’exploitation qui en est faite. Ces contrats devraient comprendre un glossaire (termes et définitions), l’identification des finalités de collecte, traitement et partage des données, les droits et obligations des parties (y compris l’effacement et la sécurité des données et l’obligation pour le prestataire de notifier une faille de sécurité), l’identification du logiciel ou application utilisé, le stockage et les mécanismes de transparence pour de nouveaux usages des données. Il s’agit donc d’un contrat complexe où les questions relatives aux données sont stratégiques : quels accès ? Quels contrôles ? Faut-il les anonymiser ou les pseudonymiser ? Quid du portage ?
Les responsabilités engagées y seront clairement identifiées du point de vue de l’initiateur des données ainsi que la protection des secrets commerciaux, et les droits de propriété intellectuelle (conditions de licence) des différentes parties prenantes dans la chaîne de valeur sans oublier l’assurance.
Pour ce marché qui, d’après Research and Markets, atteindra 2,6 milliards d’ici 2025, les éleveurs 3.0 devront veiller à ne pas devenir des « vaches à lait » numériques et garantir la protection de leurs actifs.

Nous en avons débattu mi-février à l’occasion du colloque « L’IA au cœur de l’élevage ».The Conversation
Nathalie Devillier, Professeur de droit, Grenoble École de Management (GEM)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.


Dans le cadre de son développement, la société toulousaine  ITrust, éditrice de technologies en sécurité informatique vient de boucler une levée de fonds de 2 millions d’euros auprès de quatre investisseurs : la société Le Ronsard (administration de biens immobiliers), SOREPAR (Société Régionale de Participation de Midi-Pyrénées, filiale de la Caisse d’Épargne Midi-Pyrénées), le fonds Nestadio Capital (société de gestion indépendante spécialiste de l'investissement dans les PME régionales et les entreprises innovantes) et le Groupe Scopelec (1ère SCOP de France spécialisée dans la conception, l’exploitation et la maintenance d’infrastructures de télécommunications et l’intégration de solutions connectées) à hauteur de 1M€.

Nouvelle offre de Box Sécurité

L’arrivée du Groupe Scopelec au capital se conjugue également avec la signature d’un partenariat technologique et commercial pour déployer la nouvelle offre de Box Sécurité d’ITrust destinée aux PME.
"La participation de nos partenaires à cette levée de fonds témoigne de leur confiance dans la capacité d’ITrust à être toujours en avance technologique et à répondre aux défis rencontrés par les entreprises en matière de cybermenaces", explique Jean-Nicolas Piotrowski, fondateur et PDG d’ITrust.

Centre de recherche en Intelligence Artificielle

"Après le soutien de plus de 1 million d’euros que nous ont accordé la Région Occitanie et la Région Ile-de-France pour créer un centre de recherche en Intelligence Artificielle appliquée à la cybersécurité, cette levée de fonds va permettre à ITrust de continuer à développer sa R&D innovante et à être offensif sur un marché fortement concurrentiel, avec l’embauche de profils experts « data scientist » et de 10 nouveaux commerciaux", explique le PDG.

twin



Par Alain-Gabriel Gomane, senior Product Marketing Manager chez MEGA International 

Le terme « Digital Twin » désigne d’une façon générale toute réplique numérique de ce qui existe dans le monde réel : ressources physiques, processus, ou encore systèmes. Ce concept est intrinsèquement lié à l'IoT, qui connecte les actifs physiques à leurs modèles numériques équivalents. Entre optimisation des performances d’un produit, d’un service, ou encore du fonctionnement global d’une entreprise, les opportunités offertes par la technologie du digital twin sont considérables.

L’Architecture d’Entreprise peut tirer parti de ce concept en créant une représentation virtuelle d’une organisation qui utilise les données réelles pour automatiser les recommandations, valider les modèles, les corriger et les faire évoluer pour améliorer le processus de transformation métier.

Afin de permettre à une entreprise de créer un « jumeau numérique », il est important de procéder par étape :

Cartographier l’entreprise pour créer un « digital twin » 


L’architecture d’entreprise vous aide à créer un « digital twin » de votre organisation. Il permet une compréhension détaillée de l’organisation grâce à la modélisation de chacun de ses éléments : stratégie, processus métier, expérience client, données, applications et infrastructure.

Tous ces éléments sont liés les uns aux autres au sein d’une plate-forme unique, ce qui permet d’effectuer des analyses d’impact et faciliter la prise de décision. L’architecture d’entreprise permet de s’assurer que la stratégie est bien exécutée, à un coût minimum, le tout en améliorant le délai de mise sur le marché.

Mais tous ces modèles restent théoriques, et pour les rendre plus fidèles à la réalité, il faut les alimenter avec de données réelles. Celles-ci aideront l’entreprise à valider et à optimiser ces modèles. Pour cela, il est primordial de d’abord définir les indicateurs clés de performance (KPI), afin de délimiter le périmètre d’étude et ensuite analyser les données réelles grâce au data-mining.

Identifier les indicateurs clés de performance (KPI) pour optimiser le champ d’application

Pour limiter la quantité de données à collecter à celles qui sont réellement pertinentes, l’entreprise doit définir des mesures en fonction des objectifs à atteindre. Ainsi, une entreprise peut décider de surveiller le cycle de vie des technologies qui supportent ses applications, et éviter de mettre en péril les départements qui les utilisent. Elle peut aussi choisir de mesurer la satisfaction client via les différents points de contact du parcours d’achat. Ces KPIs peuvent être donc très larges ou au contraire très précis comme la mesure du temps d’exécution d’une tâche pour un processus spécifique.

Effectuer et analyser l’exploration de données (data mining)


La dernière étape consiste à améliorer votre efficacité en intégrant des données. Pour ce faire, il est possible d’analyser les registres d’événements provenant de systèmes d’information tels que les ERP ou les CRM afin d’identifier des tendances ou les pratiques actuelles. Pour automatiser la remontée d’information, l’entreprise peut utiliser des API qui se connectent aux solutions et importent les données. Effectuée en continu, cette analyse permet de découvrir si les données réelles sont conformes à celles qui ont été modélisées.

Par exemple, en analysant ces données, une entreprise peut s’apercevoir qu’une même opération prend deux fois plus de temps dans une filiale que dans une autre. Cela permet de corriger les processus et s’assurer qu’il n’y aura pas d’autres écarts par rapport au modèle de processus initialement défini.

En résumé, pour créer un « digital twin », il est important dans un premier temps de créer une cartographie de l’IT et des métiers comme point de départ, puis de définir les KPIs pour délimiter le périmètre de mesure. Il convient ensuite de mettre en place une analyse continue des données réelles afin d’optimiser les processus existants et les modèles d’architecture d’entreprise. En suivant ce processus, l’entreprise obtiendra une vision plus claire de son organisation qui lui permettra de relever efficacement les défis de transformation auxquels elle doit faire face.
pc



Le troisième volet du Rapport Sécurité 2019 de Checkpoint révèle que les principaux vecteurs d’attaque des entreprises sont le Cloud et le mobile. Près d'une entreprise sur cinq a été victime d’un incident de sécurité dans le Cloud en 2018.

Les éléments clés du rapport :

·           18 % des entreprises dans le monde ont été victimes d’un incident de sécurité dans le Cloud en 2018 : les types d'incidents les plus courants étaient les fuites de données, les prises de contrôle de comptes et les infections par des logiciels malveillants.

·           Les quatre principales menaces pour la sécurité du Cloud public : pour 62 % des professionnels de l'informatique interrogés, la première menace vient de la mauvaise configuration des plates-formes Cloud qui entraîne des failles de sécurité ou des fuites de données; suivie d’accès non autorisés aux ressources dans le Cloud (pour 55 % des professionnels) ; d’interfaces et API non sécurisées (pour 50 %) ; de prises de contrôle de comptes ou de détournement du trafic de données (pour 47 %).

·           30 % des professionnels de l’informatique continuent de considérer que la sécurité est la responsabilité du prestataire de services Cloud : ce constat inquiétant va à l’encontre des recommandations selon lesquelles la sécurité dans le Cloud devrait adhérer au modèle de responsabilité mutuelle, dans lequel la sécurité est partagée à la fois par le client et le prestataire de services dans le Cloud.

·           59 % des professionnels de l’informatique n'utilisent pas de défenses contre les menaces mobiles : une majorité d'entreprises n’est pas équipée de solutions de sécurité mobiles capables de détecter les principales menaces, notamment les logiciels malveillants mobiles, les applications factices ou malveillantes, les attaques de type « man-in-the-middle » et les vulnérabilités des systèmes d’exploitation.

·           Seuls 9 % des professionnels de l'informatique considèrent que les menaces mobiles sont un risque important pour la sécurité : les logiciels malveillants peuvent cependant se propager à partir d’appareils mobiles non protégés vers les réseaux des entreprises dans le Cloud ou sur site, exploitant ce maillon faible des défenses de l'entreprise.

« Le troisième volet de notre Rapport Sécurité 2019 montre à quel point les entreprises sont vulnérables aux attaques ciblant le Cloud et le mobile, car elles n’ont pas conscience des menaces qui les visent et des moyens d’y remédier. Près de 20 % des entreprises ont été confrontées à un incident dans le Cloud au cours de l’année passée. Il est clair que les criminels cherchent à exploiter ces failles de sécurité, » commente Thierry Karsenti, Vice-Président EMEA Sales Engineering de Check Point Software Technologies. « Grâce aux analyses des évolutions récentes que propose le Rapport Sécurité 2019 de Check Point, les entreprises peuvent mieux appréhender les menaces auxquelles elles sont confrontées, et mieux anticiper pour en limiter l’incidence sur leurs activités »

Le Rapport Sécurité 2019 de Check Point s’appuie sur des données provenant de Check Point ThreatCloud, le plus grand réseau collaboratif de lutte contre la cybercriminalité, qui fournit des données sur les menaces et des tendances en matière d'attaques issues d'un réseau mondial de capteurs ; d’études effectuées par Check Point au cours des 12 derniers mois ; et d’une toute nouvelle enquête menée auprès de professionnels de l'informatique et de cadres supérieurs, qui évalue leur niveau de préparation face aux menaces actuelles. Le rapport examine les toutes dernières menaces émergentes dans différents secteurs d’activité, et fournit un aperçu complet sur les tendances observées dans le paysage des logiciels malveillants, des vecteurs émergents de fuites de données et des cyberattaques commanditées par des États. Il inclut également des analyses émises par des leaders d'opinion de Check Point, afin d'aider les entreprises à comprendre la cinquième génération complexe des menaces et des cyberattaques d'aujourd'hui et de demain, et à s’y préparer.


Le rapport complet est disponible ici
cyberattack


Selon la nouvelle édition du rapport annuel de Symantec sur les cyber-menaces, les attaques sont plus ambitieuses, plus destructrices et plus sournoises, ce qui représente un véritable défi pour les entreprises et les particuliers.

Les attaques par ransomware et cryptojacking n’étant plus aussi rentables qu’auparavant, les cybercriminels se tournent désormais vers des méthodes alternatives plus lucratives comme le formjacking. C’est ce que révèle l’édition 24 du rapport annuel de Symantec sur les cyber-menaces, l’Internet Security Threat Report, qui dresse un état des lieux de la cyber criminalité et des menaces sur l’ensemble de l’année 2018.

Le rapport de Symantec fournit également des informations sur les menaces au niveau mondial, les tendances en matière de cybercriminalité et les motivations des attaquants. Il analyse les données collectées par le Global Intelligence Network de Symantec, le plus vaste réseau civil mondial de renseignement sur les menaces qui collecte les événements à partir de 123 millions de capteurs à travers le monde, bloque 142 millions de menaces par jour et surveille les menaces d’au moins 157 pays.

La France sort du Top 10 mondial mais reste dans le Top 5 européen

En 2015, la France faisait son entrée dans le Top 10 des pays les plus actifs en matière de cybercriminalité. Trois ans plus tard, l’Hexagone en sort mais reste 4e dans le classement européen, derrière la Russie, l’Allemagne et le Royaume-Uni. Au niveau mondial, les pays qui occupent les 3 marches du podium sont les Etats-Unis, la Chine et l’Inde.

La France est en revanche le pays européen qui concentre le plus d’attaques de cryptomining et occupe la troisième place mondiale en concentrant 6,4 % du nombre total d’attaques (contre 5,9 % en 2017), le pays enregistre également une légère augmentation du nombre d’attaques par bots (1,1 % contre 0,8 % en 2017). La part de malware, de spams, d’attaques réseau et de ransomware en France, comparé au nombre total mondial, est en revanche en baisse.

Le formjacking : la nouvelle méthode utilisée par les cybercriminels pour s’enrichir rapidement
Les attaques par formjacking sont simples et ressemblent à une arnaque au distributeur de billets. La différence du formjacking est qu’il est virtuel. Les cybercriminels injectent un code malveillant dans les sites de e-commerce afin de dérober les informations de carte bancaire des consommateurs. Chaque mois, plus de 4 800 sites web sont compromis par un code de formjacking et sur l’ensemble de l’année 2018, Symantec a bloqué plus de 3,7 millions d’attaques par formjacking sur des terminaux. Plus d’un tiers d’entre elles étaient concentrées pendant la période d’achat la plus intense de l’année à savoir les mois de novembre et de décembre durant lesquels les consommateurs profitent du Black Friday, du Cyber Monday et de la période des fêtes pour faire de bonnes affaires mais aussi leurs cadeaux de Noël.

Si de nombreux sites de vente en ligne réputés ont été compromis ces derniers mois, notamment Ticketmaster et British Airways, le rapport de Symantec révèle que ce sont les enseignes de petites et moyennes tailles qui ont, de loin, subi le plus d’attaques.

Selon de premières estimations, les cybercriminels auraient collecté des dizaines de millions de dollars l’an dernier, dérobant les informations bancaires et personnelles via des pratiques qui ne sont pas nouvelles comme la fraude à la carte bancaire et la revente sur le dark web. Sachant que 10 cartes bancaires volées sur chacun des sites web compromis pourraient rapporter jusqu’à  2,25 millions de $ par mois, une seule carte bancaire permettrait d’empocher jusqu’à 45 $ (soit environ 40 euros) sur les sites underground de revente. La récente attaque de British Airways en septembre dernier aurait permis aux cybercriminels de récolter plus de 17 millions de dollars.

« Le formjacking est une menace sérieuse pour les entreprises et les consommateurs », déclare Laurent Heslault, Directeur des Stratégies de Sécurité de Symantec. « En l’absence d'une solution de sécurité complète, les consommateurs n’ont aucun moyen de savoir si le site qu’ils consultent est infecté, exposant ainsi leurs informations personnelles et bancaires à un vol d’identité potentiellement dévastateur. Du côté des entreprises, la hausse vertigineuse des attaques par formjacking prouve que le risque d’attaques ciblant la chaîne logistique est croissant, sans compter les risques qui pèsent sur la réputation et la responsabilité d’une entreprise en cas d’attaque de ce type. »

Les pays où le formjacking est le plus actif sont les Etats-Unis qui concentrent 33,3 % du nombre total d’attaques bloquées, suivis de la Belgique (23,6 %) et l’Australie (7,5 %). La France est en 14e position dans le classement mondial avec 1 % du nombre d’attaques bloquées.

Cryptojacking et ransomware : une rentabilité qui continue de diminuer en 2018

Ces dernières années, les ransomware et le cryptojacking ont été privilégiés par les cybercriminels pour gagner facilement de l’argent et en France, Symantec identifiait déjà une baisse du nombre de ransomware en 2017, les Français étant moins enclins à régler les rançons qu’aux Etats-Unis par exemple. En 2018, les experts observent une diminution de ces activités et de leur rentabilité, le cryptojacking étant moins intéressant en raison de la baisse de valeur des crypto-monnaies. En parallèle, l’adoption croissante du cloud computing et l’explosion de l’informatique mobile rendent ces attaques moins efficaces. Pour la première fois depuis 2013, les infections par ransomware ont chuté de 20 %. Néanmoins, les entreprises ne doivent pas baisser leur garde : dans leur cas, les infections par ransomware ont augmenté de 12 % en 2018, allant à contre-courant de la tendance générale et démontrant à quel point cette menace reste sérieuse : plus de huit infections par ransomware sur dix touchent des entreprises.

Après avoir atteint un pic en début d’année dernière, le cryptojacking a diminué de 52 % au cours de l’année 2018. Bien que les valeurs des crypto-monnaies aient chuté de 90 % et s’avèrent considérablement moins rentables, le cryptojacking reste populaire auprès des attaquants en raison du peu d’efforts qu’il demande, de son faible coût et de son anonymat. En décembre 2018, Symantec a bloqué 3,5 millions de tentatives de cryptojacking sur des terminaux.

En matière de sécurité, le cloud est le nouveau PC

Les entreprises reproduisent avec le cloud les erreurs qu’elles avaient commises en matière de sécurité au moment de l’adoption des PC. Une charge de travail cloud ou une instance de stockage mal configurée peut coûter des millions de dollars à une entreprise et lui faire vivre un véritable cauchemar en matière de conformité. Ainsi l’année dernière, plus de 70 millions de dossiers ou enregistrements dans le cloud ont été volées ou divulguées à cause de configurations pas suffisamment sécurisées des outils de stockage dans le cloud public (S3). Par ailleurs, de nombreux outils facilement accessibles permettent aux attaquants d’identifier les ressources cloud mal configurées sur Internet.

La découverte récente de vulnérabilités sur des microprocesseurs, y compris Meltdown, Spectre et Foreshadow, ont montré que les services cloud pouvaient être exploités pour accéder aux espaces mémoire protégés d’autres ressources de l’entreprise, hébergées sur le même serveur physique.

Living off the Land et Supply Chain : des attaques plus sournoises et plus ambitieuses
Les attaques sur la chaîne logistique et de type ‘Living off the Land’ (LotL) s’installent durablement dans le paysage des menaces. Elles sont largement adoptées par les cybercriminels et les groupes menant des attaques ciblées. Ainsi, les attaques visant la chaîne logistique ont fait un bond de 78 % en 2018.

Les techniques ‘Living off the Land’ permettent aux attaquants de rester discrets et de cacher leur activité sous une masse de processus légitimes. Par exemple, l’utilisation de scripts PowerShell malveillants a augmenté de 1 000 % l’an dernier. Même si Symantec bloque 115 000 scripts PowerShell malveillants par mois, cela représente moins d’un pour cent de leur utilisation globale. Pour les entreprises, bloquer l’ensemble de l’activité PowerShell nécessiterait d’adopter des mesures draconiennes qui perturberaient leurs activités, ce qui explique que de nombreux groupes privilégient désormais les techniques ‘Living off the Land’ pour mener des attaques ciblées.

Afin d’identifier et bloquer ces attaques, les entreprises doivent utiliser des méthodes avancées de détection telles que l’analytique et le machine learning (apprentissage automatisé). Afin d’aider les entreprises à se prémunir contre ces attaques, Symantec continue de faire évoluer son portefeuille, ce dernier comprend des solutions comme Managed Endpoint Detection and Response (MEDR) de Symantec, la technologie EDR 4.0 optimisée, ainsi que la solution d’IA avancée, Targeted Attack Analytics (TAA) aident les entreprises à se protéger. TAA a permis à Symantec de détecter des dizaines d’attaques ciblées sournoises, y compris celles du groupe Gallmaker qui a mené l’intégralité de ses campagnes de cyber-espionnage sans programmes malveillants.

Outre les attaques ‘Living off the Land’ et les vulnérabilités logicielles de la chaîne logistique, les attaquants utilisent aussi de plus en plus les méthodes d’attaque traditionnelles, comme l’hameçonnage ciblé (spear-phishing), pour infiltrer les entreprises. Si la collecte de renseignements reste le principal motif des attaques ciblées, le nombre de groupes utilisant des programmes malveillants pour détruire ou perturber les activités des entreprises a augmenté de 25 % en 2018.

L’Internet des objets dans la ligne de mire des cybercriminels

Alors que le volume d’attaques IoT (Internet des objets) reste élevé et cohérent avec le niveau observé en 2017, leur profil a considérablement changé. Les routeurs et les caméras connectées sont les appareils les plus touchés par des infections, représentant 90 % de l’ensemble des objets touchés, mais quasiment tous les appareils IoT sont vulnérables, des ampoules connectées aux assistants vocaux, créant des points d’entrée supplémentaires pour les attaquants.

Les groupes menant des attaques ciblées privilégient de plus en plus l’IoT comme point d’entrée principal. L’émergence du programme malveillant VPNFilter ciblant les routeurs montre une évolution dans les méthodes d’attaques IoT. Sa conception demande des compétences et d’importants moyens, mais surtout, il permet à ses auteurs de détruire ou d’effacer un appareil, de voler des identifiants et données, et d’intercepter des communications SCADA – SCADA étant un système très présent sur les installations industrielles.

« La convergence de l’informatique et de l’IoT industriel étant en hausse constante, il est probable que le prochain champ de bataille de la cybercriminalité sera la technologie opérationnelle, » affirme Laurent Heslault, Directeur des Stratégies Sécurité chez Symantec. « De plus en plus de groupes, comme Thrip et Triton, cherchent à compromettre les systèmes opérationnels et les systèmes de contrôle industriels en vue de préparer une cyberguerre. »

Confidentialité des données : la grande prise de conscience

Le scandale Cambridge Analytica, les déboires de Facebook, la mise en œuvre du Règlement Général sur la Protection des Données (RGPD) et les révélations concernant la localisation et les problèmes de confidentialité des applications les plus utilisées, comme la fonction FaceTime d’Apple, ont mis la protection de la vie privée sur le devant de la scène en 2018.

Les smartphones pourraient être présentés comme les équipements d’espionnage les plus performants jamais créés car équipés d’une caméra, d’un dispositif d’écoute et d’un système de localisation, le tout, réunit dans un appareil choisi et utilisé volontairement par tous. Déjà ciblés par les États-nations qui s’en servent comme support d’espionnage traditionnel, les smartphones sont aussi devenus des outils lucratifs de collecte des informations personnelles des utilisateurs, transformant de ce fait les développeurs d’applications mobiles en délinquants.

D’après une analyse de Symantec, 45 % des applications Android les plus populaires et 25 % des applications iOS les plus utilisées demandent à localiser l’utilisateur, 46 % des applications Android et 24 % des applications iOS courantes demandent l’autorisation d’accéder à l’appareil photo, et les adresses e-mails sont partagées avec 44 % des principales applications Android et 48 % des applications iOS les plus répandues.

Les outils collectant les données des téléphones pour localiser des enfants, des amis ou des téléphones perdus sont également en hausse, ouvrant la voie à différents abus, notamment le suivi de personnes sans leur consentement. Les harceleurs ont à leur disposition plus de 200 applications et services qui leur fournissent des fonctionnalités, comme la localisation, la collecte de textes et même l’enregistrement secret de vidéos.
facebook


L'année 2019 sera-t-elle pour Facebook aussi terrible que celle de 2018 au cours de laquelle la société de Mark Zuckerberg a été accusée, notamment, de ne pas suffisamment protéger les données de ses membres et de laisser se diffuser des fakenews en tout genre ? En tout cas elle commence fort pour le réseau social aux quelque 2 millards de membres qui vient de se faire sévèrement épingler par les parlementaires britanniques qui enquêtaient sur la propagation des fakenews et leur impact sur le référendum du Brexit.

4350 questions, 73 témoins, 18 mois de travaux


Dans un rapport intitulé "Désinformation et fakenews", publié lundi 18 février, les membres de la Commission parlementaire sur le numérique, la culture, les médias et le sport de la Chambre des communes (DCMS)  n'y vont pas de main morte et comparent le réseau social à “un gangster numérique” qui se place “au-dessus des lois”. "Les entreprises comme Facebook ne devraient pas être autorisées à se comporter comme des gangsters numériques dans le monde en ligne, en se considérant au-dessus des lois", indique le rapport de 108 pages qui a nécessité dix-huit mois d’enquête. La commission a auditionné pas moins de 73 témoins et a posé plus de 4 350 questions !

Le rapport préconise l'instauration d'un "code de déontologie contraignant", dont le respect serait supervisé par un régulateur indépendant, pouvant déclencher des poursuites judiciaires et infliger de lourdes sanctions financières.

"Facebook ne fait pas assez pour lutter contre la désinformation et d'autres formes de contenu nuisibles, ni pour protéger la confidentialité des données et agit de manière agressive contre d'autres entreprises qui pourraient représenter une menace commerciale pour Facebook. Ces entreprises ne sont pas juste des plateformes, ne sont pas neutre et ont responsabilité limitée pour le contenu posté", a indiqué le président de la commission, Damian Collins, qui espère que "d'ici la fin de l'année, il y ait une solide proposition de législation" pour créer ce régulateur.

Le PDG de Facebook jugé méprisant


De son côté Facebook a nié les reproches fait par la commission britannique. "Nous partageons les inquiétudes de la commission sur les fake news et l’intégrité des élections et nous sommes ravis d’avoir participé à son enquête ces dix-huit derniers mois, répondant à plus de 700 questions", a affirmé Karim Palant, responsable de la politique publique de Facebook au Royaume-Uni, rappelant que la société mobilise aujourd’hui 30 000 employés pour lutter contre la propagation de fausses informations sur ses réseaux.

Des arguments peu audibles d'autant plus que l'emblématique PDG de Facebook, Mark Zuckerberg, a refusé de répondre aux convocation de la commission préférant déléguer ses adjoints. Il est vrai que le jeune PDG s'était retrouvé l'an dernier en très mauvaise posture lorqu'il avait comparu devant une commission d'enquête du Congrès américain.

"En choisissant de ne pas comparaître devant le Comité et en choisissant de ne répondre personnellement à aucune de nos invitations, Mark Zuckerberg a manifesté son mépris" a souligné Damian Collins, qui estime que "la démocratie est en danger. Nous avons besoin d’un changement radical de l’équilibre des pouvoirs entre ces plateformes et le peuple".

Cerné par les scandales, Facebook résiste


Facebook n'en a en tou cas pas fini. Après les Etats-Unis et le Royaume-Uni, la société est aussi dans le viseur des autorités en Allemagne et en France et reste empêtré dans de nombreuses affaires. Il y a eu les accusations d'ingérence russe dans l'élection présidentielle américaine de 2016 via Facebook ; le scandale de l'exploitation à des fins politiques par Cambridge Analytica de données de 50 millions d'utilisateurs à leur insu ; la récente faille de sécurité ayant conduit au piratage de millions de comptes et cette semaine l'accusation de chercher à identifier et localiser les membres dont Facebook estime qu’ils peuvent présenter une menace pour le groupe... Si on ajoute la directive droit d'auteur qui va introduire des droits voisins en faveur de la presse, Facebook est clairement sur la sellette.




Et pourtant, le réseau se porte bien. Certes, il stagne dans les pays riches mais il gagne des abonnés dans les pays émergents. Facebook n'a, en effet, gagné que 2 millions d'utilisateurs actifs quotidiens en 2018 aux Etats-Unis et au Canada, et 5 millions en Europe ; mais il en a gagné 78 millions dans la zone Asie-Pacifique, et 37 millions dans le reste du monde.

Surtout Facebook table sur les autres services qu'il possède : Instagram et son milliard d'utilisateurs ; WhatsApp qui a 1,5 milliards de membres et Messenger, 1,3 milliards.
datacenter


Par Séverine Hanauer, Directrice des Ventes Data Center & Telecom chez Vertiv France

Toujours plus connectée, la ville du futur doit s'appuyer sur une infrastructure de proximité pour la gestion de ses actifs désormais intelligents, selon les principes de l'Edge Computing. Un réseau de micro-datacenters sans les inconvénients du déploiement urbain de datacenters traditionnels.

La ville du futur, ses systèmes, ses données : une criticité croissante


À concept récent, définition fluctuante. La ville du futur n'échappe bien évidemment pas à cet écueil. La présentation qu'en fait Wikipédia reste toutefois suffisamment vaste pour correspondre à ce qu'on peut en attendre dans les prochaines années. À savoir l'intégration de multiples technologies d'information et de communication et d'IoT pour gérer les actifs d'une ville : SI des services locaux, écoles, bibliothèques, transports y compris le contrôle du trafic et les futurs véhicules autonomes, hôpitaux, centrales électriques, réseaux d'eau, gestion des déchets, police et autres services communautaires.

Autant dire qu'en cas d'interruption, les perturbations, encore limitées du fait des projets encore à l'état de balbutiements, pourront être très importantes à l'avenir : désorganisation, impacts financiers & sociétaux, scandale médiatique, etc. Dès lors, les villes intelligentes sont évaluées comme hautement critiques. Une criticité du recueil, du stockage et du traitement des données, et de toutes les applications corrélées, qui implique une infrastructure sous-jacente adaptée.

Pour se prémunir des risques et répondre à la constance du besoin et à la nécessaire performance des systèmes de la ville du futur, l'hybridation de l'infrastructure s'impose avec un cloud privé ou public associé des ressources IT locales selon le principe du Edge Computing. En d'autres termes, la ville du futur accueillera en son sein des datacenters de proximité plus petits et peu contraignants pour les riverains.

Le micro-datacenter, un must have de la ville du futur


Selon IHS, 10 à 20 % des besoins totaux de calcul et de stockage seront réalisés en local d'ici 2020, en fonction du secteur concerné. C'est tout l'objectif des micro-datacenters, qui prennent la forme d'une ou plusieurs baies tout-en-un contenant l'intégralité de ce que l'on trouve habituellement dans une salle informatique : onduleur, bandeaux de prises (PDU), climatiseur, contrôle d'accès, détection incendie, sondes, système de monitoring à distance, etc.

Prêt à l'emploi, le micro-datacenter est plus simple à déployer qu'une architecture classique, et peut donc s'installer un peu partout, dans n'importe quel bâtiment de la ville intelligente. Un modèle à mille lieux de la conception traditionnelle des datacenters, dont les coûts d'investissement et d'exploitation sont en contradiction avec l'usage de l'Edge Computing et les besoins d'immédiateté auxquels il répond.

Résilience et évolutivité, les 2 maîtres-mots de la smart city


En quelques années, les technologies se sont imposées dans la plupart, si ce n'est la totalité, des activités du quotidien. À tel point que du point de vue de l'utilisateur, l'indisponibilité ou une faible performance ne sont pas envisageables. Même si dans les faits, une application qui plante sur un smartphone n'est souvent pas bien grave.

En revanche, dès que l'on évoque la gestion des actifs d'une ville toute entière, les conséquences peuvent être autrement plus épineuses voire dramatiques : un système de gestion du trafic qui tombe et c'est la ville « intelligente » toute entière qui peut rapidement se transformer en véritable chaos. L'interruption des services de la smart city n'est donc pas une option, et sa résilience relève d'une considération vitale. Il est donc essentiel de s'assurer de la solidité des systèmes de la ville connectée, ce qui souligne la nécessité d'une connectivité réseau et d'une alimentation électrique ininterrompues.

Mais en l'état actuel des choses, autant sans doute qu'à long terme, la résilience de la ville intelligente n'est pas seulement axée sur la reconstruction et le relèvement, mais aussi sur ses capacités d'adaptation aux évolutions qui ne manqueront pas de se produire quant aux habitudes d'habitat, de travail, de mobilité et plus globalement de modes de vie. Il est donc nécessaire de penser les solutions de son exploitation pour qu'elle ait la capacité de faire face à ces futurs changements, et assurer un fonctionnement continu et efficace de ses actifs connectés.