iot



Par Frédéric Salles, Président et co-fondateur de Matooma 

En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché.

Courte distance : RFID/Bluetooth/WiFi

La RFID (Radio Identification) est la technologie la plus déployée à l'heure actuelle. Elle est souvent utilisée de manière passive (induction), dans des étiquettes ou des badges, afin de récolter de la donnée. On peut aussi l'utiliser pour faire communiquer les objets connectés entre eux. Le NFC (Near Field Communication), base du paiement bancaire sans contact, est un parfait exemple pour illustrer l'utilisation de cette technologie de manière active. Son intérêt premier est la consommation électrique nulle lorsqu'un objet est en attente. En revanche, la distance de lecture reste assez courte (de quelques centimètres à quelques mètres) ce qui ne permet pas de faire communiquer des objets connectés trop éloignés entre eux (choix idéal pour le télépéage par exemple).

Le Bluetooth est une technologie assez ancienne (1994) qui s'est développée conjointement au téléphone mobile avant d'exister de façon autonome. Ses évolutions ont permis une utilisation plus large dans le domaine de l'IoT : portée allant jusqu'à 100m, débits élevés, maillage des objets, etc.

La technologie WIFI, quant à elle, permet de relier sans fil plusieurs appareils entre eux afin de faciliter la transmission de données. Elle convient par exemple pour connecter les équipements de la maison (domotique) et pour tous les accès à Internet avec un très haut débit.

Réseaux LPWAN (basse Consommation, longue portée) non cellulaires : Lora/Sigfox

L'arrivée de technologies telles que LoRa et Sigfox a donné de nouvelles perspectives au marché IoT. Malgré leurs différences de design, ces deux technologies ont des particularités d'utilisation assez similaires et ont toutes deux été pensées spécifiquement pour l'IoT. Elles font partie des acteurs à l'origine de la notion de LPWAN (Low Power Wide Area Network) et apportent une portée plus importante ainsi qu'une bonne couverture en milieu urbain, dans les endroits enterrés et semi-enterrés. L'avantage principal de ces deux technologies réside dans l'amélioration de l'autonomie des objets.

Cependant, ces technologies ne s'adaptent pas à tout type d'application. En effet, il peut exister certaines limitations en termes de temps de latence, de débit supporté, de fréquences d'envoi de message par jour ou encore une bidirectionnalité qui n'est pas toujours assurée.

Longue distance/haut débit : réseaux cellulaires 2G, 3G, 4G

La carte SIM M2M mono-opérateur ou multi-opérateur permet de répondre à de nombreuses problématiques IoT avec un spectre d'applications très large et peut parfois même être utilisée en complémentarité avec d'autres technologies telle que LoRA ou le RFID. Capable de passer par les différents réseaux GSM (2G, 3G, 4G et bientôt 5G), les objets connectés par carte SIM M2M peuvent communiquer entre eux sans limitation de distance, via différents canaux (data, voix, SMS), et avec un volume de données important (débit élevé, taille des messages illimitée). Petit bémol, les objets connectés via carte SIM peuvent avoir une autonomie plus limitée que d'autres technologies de type LPWAN et des problématiques de couverture dans les endroits enterrés.

Pour les entreprises qui souhaitent déployer leurs objets connectés à l'international, la capacité de roaming d'une carte SIM est aussi un avantage. En effet, tout comme un smartphone par exemple, l'objet s'adapte aux réseaux cellulaires existants de n'importe quel pays (en France : Bouygues, SFR, Orange) pour une connectivité optimale et donc quasi permanente.

Réseaux LPWAN (basse consommation, longue portée) cellulaires : LTE-M/NB-IoT

Le LTE-M et le NB-IoT permettent aujourd'hui de bénéficier des avantages des technologies IoT « basse consommation » (Sigfox, LoRa…) sur des zones géographiques élargies (couverture dans plus de 180 pays). S'appuyant sur l'équipement existant, ces réseaux ne nécessitent pas de déployer une infrastructure et des antennes spécifiques.  Ils auront un intérêt important pour toutes les applications métiers avec des coûts d'interventions élevés nécessitant une autonomie importante du boîtier (sans branchement secteur) et/ou avec des problématiques de couverture indoor tout en cumulant les performances associées au réseau GSM (débit, gestion du handover, accès à la voix*…)

Choisir la meilleure technologie pour connecter son objet est un choix difficile et il convient de bien mesurer les fonctionnalités et déterminants qui seront associés au projet IoT.
En effet, pour des applications dites critiques, le temps réel semble indispensable. Pour de la vidéosurveillance, les débits et les volumes de données seront très importants et incompressibles. Dans des endroits difficiles d'accès, une autonomie améliorée pourra être appréciée pour éviter des déplacements de techniciens. Chacune des technologies ayant des points forts/points faibles, il convient véritablement de se poser les bonnes questions avant de finaliser son choix.
hdd




Par Samuel Mottet, Systems Engineer, Zerto

Les entreprises peuvent de moins en moins se permettre de perdre des données. Avec les gros titres fréquents sur les attaques de ransomware, l'hameçonnage, les fuites de données et les atteintes à la sécurité, le défi va en grandissant. La question qui se pose est la suivante : si le monde de l'informatique évolue, pourquoi le marché de la sauvegarde ne suit-il pas le mouvement ?

Sauvegarde : 1988 vs 2018


L'architecture de sauvegarde traditionnelle existe depuis l'invention de l'informatique. Elle fonctionne en copiant des données vers une autre architecture de stockage, à un moment précis. Cette opération est souvent effectuée la nuit et le plus vite possible, car elle a un impact sur le niveau de performance et sur l'infrastructure de l'environnement informatique. La sauvegarde n'a toutefois pas beaucoup changé au cours des trente dernières années et ne suit pas le rythme de l'ère digitale.

La sauvegarde a pour but de sécuriser les données pour en éviter la perte. Au fil du temps, les entreprises ont fini par se rendre compte qu'elles étaient fortement dépendantes de leurs données : de moins en moins d'entreprises sont en mesure de supporter des pertes de données quelles qu'elles soient. Une boutique en ligne ne peut pas se permettre de perdre 12 heures de données à cause d'une panne — non seulement elle perdrait douze heures de commandes et de ventes, mais sa réputation serait également impactée sur le long terme. Pour mettre ces informations en contexte, une étude récente a révélé que près de la moitié des entreprises ont subi un problème de récupération de données au cours des trois dernières années. Parmi elles, 20 % ont signalé une perte de clients, et 19 %, des dommages directs liés à la réputation de l'entreprise. Tout cela combiné peut malheureusement entraîner la fermeture/faillite d'une entreprise.


Des nouveaux business models régis par les données


De plus en plus d'organisations utilisent leurs données et ajustent leurs business models en fonction de ces données récoltées afin de générer davantage de ventes. Porsche est un bon exemple. Son objectif actuel est d'atteindre 30 % de chiffre d'affaires supplémentaire, non pas en vendant plus de voitures, mais en fournissant des services supplémentaires à partir de l'analyse des données reçues à la fois des voitures et des clients. Les clients reçoivent un abonnement d'entretien et des notifications signalant, par exemple, le besoin de remplacer les disques de frein après 5 000 kilomètres. Avec ces informations, Porsche récolte des données supplémentaires, qui peuvent à leur tour être analysées et utilisées pour générer des ventes supplémentaires.

Bien que de nombreuses entreprises deviennent de plus en plus dépendantes des données pour augmenter leurs activités, peu d'entre elles procèdent régulièrement à des audits de risques afin de s'assurer que ces données soient bien protégées. Si quelque chose devait se produire, que ce soit une panne, une attaque de ransomware ou une erreur humaine, quel serait le coût pour l'entreprise en termes de chiffre d'affaires, de fonctionnement ou d'atteinte à la réputation ? En réalité, de nombreuses organisations ne font ce calcul que lorsque le sinistre est déjà survenu, et c'est dans la majorité des cas trop tard.

Tests sur papier

L'un des principaux handicaps, en matière de reprise d'activité après sinistre et de sauvegarde, est que les tests sont souvent effectués sur papier. Effectuer un test de reprise d'activité après sinistre sur papier donne une impression de sécurité. Bien que beaucoup d'équipes informatiques considèrent que celui-ci simule efficacement la réalité, il n'en est rien. La récupération de sauvegardes incomplètes effectuées 24 heures auparavant peut prendre des heures. Les entreprises seront alors confrontées à des temps d'arrêt qu'elles ne peuvent pas se permettre, et qu'elles auraient pu éviter. Fondamentalement, les organisations doivent être en mesure de restaurer les systèmes et les données dans un délai extrêmement court.

Le futur de la sauvegarde avec la CDP


L'avenir de la sauvegarde se trouve dans la protection continue des données (CDP). La CDP est un mécanisme de protection qui consiste à capturer et à suivre en continu les modifications apportées aux données d'une entreprise et à enregistrer automatiquement chaque version créée par l'utilisateur soit localement, soit dans un référentiel de destination. Les nouvelles données sont copiées dans un fichier journalisé avec prise en compte des modifications. Grâce au suivi des blocs modifiés, l'utilisateur ou l'administrateur peut restaurer les données au point de reprise de son choix, avec une granularité remarquable.

La CDP assure une protection particulièrement efficace pour les applications métier et les données d'une entreprise. Grâce à la journalisation, toutes les modifications apportées dans un certain laps de temps sont consignées. La récupération peut ainsi se faire à n'importe quel point de reprise sur la durée couverte par le journal, avec une précision de quelques secondes. À l'inverse, la réplication incrémentielle et les snapshots entraînent des risques de perte, d'altération et d'indisponibilité des données. Ce qu'il faut aujourd'hui aux entreprises, c'est une reprise sur journal continue et précise, avec la possibilité de revenir en arrière sur quelques secondes ou plusieurs années. La présence de très nombreux points de reprise permet de limiter à quelques secondes la perte de données et réduit de façon significative l'impact des pannes et des interruptions.

Ce n'est qu'en adoptant ce type de sauvegarde que les organisations fourniront une expérience client sans faille et seront plus en phase avec l'ère digitale.
airbus


Par Laurent Porracchia, Responsable des ventes et membre du Comité Exécutif d'Airbus CyberSecurity

Le secteur de la cybersécurité se révèle aujourd’hui porteur d’un fort paradoxe : bien repéré par l’opinion publique, il peine à trouver des professionnels aguerris. Le sujet fait pourtant la une de nos journaux : en 2018, selon une étude de F-Secure, les cyberattaques ont augmenté de 32%, et la délinquance cybernétique a coûté quelque 600 milliards de dollars, contre 445 il y a seulement 4 ans (source Allianz). À l’échelle planétaire, les cyber-incidents sont devenus les premiers risques pour les entreprises, ex-aequo avec les interruptions d’activité. Voilà pour la partie émergée de l’iceberg… Car d’un autre côté, la pénurie de main d’œuvre du secteur est criante, avec seulement 1 recrutement pourvu sur 4 émis. Selon le Fongecif, 6000 postes restent encore à pourvoir en Ile-de-France, région qui emploie 70% des 24 000 salariés recensés à l’échelle nationale… Pour l’essentiel, il s’agit de CDI à temps complet !

Une élite au sein de nos entreprises

Les besoins sont donc bien là, et les métiers suffisamment variés pour accueillir un large panel de profils. La filière cybersécurité comporte actuellement 18 métiers, qui recrutent à partir du bac + 2, et ce jusqu’au bac + 8.  Cinq types de métiers sont envisageables, de l’organisation de la sécurité et gestion des risques au conseil, du management de projet à la maintenance, sans oublier les fonctions support et la gestion d’incidents. Les besoins les plus saillants en termes de recherches concernent les consultants, les veilleurs-analystes, les chefs de projets, les architectes sécurité et les administrateurs. Les formations sont également là, qu’elles soient longues (licences professionnelles, masters… 150 au total) ou courtes (400 actuellement recensées).
Que se passe-t-il donc ? Méconnue, pâtissant sans doute de sa dimension technique, force est de constater que la cybersécurité peine à attirer à elle les jeunes ou les salariés en quête de reconversion. Question de communication assurément ; question d’image également. Il y aurait fort à dire de ce métier dont les attributs répondent tout à fait aux enjeux de notre époque. Garants de la sécurité de nos données et de nos réseaux, les « cyber agents » veillent sur nos vies. Agissant dans l’ombre, devant faire preuve tout à la fois de sang-froid, de compétences et d’esprit d’équipe, ils constituent une élite au sein de nos entreprises, au même titre que nos pompiers ou nos forces de l’ordre à l’échelle sociétale. Comment passer à côté de la noblesse de leur tâche ? Il est urgent de construire autour de la figure de ces experts un story telling à la hauteur du rôle qui est le leur au quotidien, et qui constitue la garantie même de la stabilité de notre monde.


Le livre entame une révolution. pexels
Karen Cayrat, Université de Lorraine


La filière économique du livre constitue la première industrie culturelle de l’Hexagone. Si le marché du livre – papier et numérique – s’érode enregistrant une baisse de 3,5 % au premier trimestre d’après le tableau de bord du Livres Hebdo, les pratiques de lecture connaissent quant à elles un accroissement. Pour autant, l’apparition de l’Internet et des nouvelles technologies semble impacter et concurrencer l’imprimé. Comment expliquer la survie des livres à l’ère du numérique ?

Un héritage culturel

Si le papier renvoie à un long héritage culturel, riche de plusieurs siècles, il n’est cependant qu’un support parmi tant d’autres qui fait état de la lente évolution des usages, permet de fixer une écriture à un instant donné, et voué à s’adapter à une diffusion de plus en plus élargie.
L’imprimé s’est considérablement imposé au cours du XIXe siècle tandis que le XXe siècle lui fait connaître un certain essor grâce à l’émergence du format poche, l’attrait du public pour la littérature et l’internationalisation entreprise par les grandes maisons d’édition de l’époque.
Aujourd’hui le livre conserve un caractère symbolique ainsi qu’une autorité forte. C’est par sa publication que l’auteur advient. Son entrée dans un catalogue ou dans une collection spécifique l’inscrit dans le champ littéraire et sont pour le lecteur des marqueurs essentiels qui lui permettent d’identifier sa singularité ou d’éprouver sa notoriété et son prestige.

Le livre entame une (r)évolution

Selon Roger Chartier, spécialiste de l’histoire du livre, de l’édition et de la pratique de la lecture, le numérique constitue une révolution majeure d’une ampleur tout aussi importante que celle de l’imprimerie ou du passage du rouleau au codex.
Elle démultiplie les pratiques de lectures et ses bouleversements touchent autant la technique, le support que les usages et la perception des discours.
Alors que les Français consacrent près de 1h37 par jour à Internet et en dépit de la concurrence d’autres médias, la lecture, quel que soit son format séduirait de plus en plus. Sa pratique connaît aussi une progression notamment dans les transports en commun. Selon le baromètre sur les usages du livre numérique SOFIA/SNE/SGDL 2019, publié en mars dernier, 22 % des Français déclarent avoir lu un livre numérique, le taux le plus élevé observé au cours de ces 8 dernières années. Ce dernier favoriserait même le temps passé à lire, car 23 % des usagers liraient plus qu’avant. Le livre numérique n’est pas seulement l’apanage des jeunes, toutes les tranches d’âge sont concernées. Toujours d’après le baromètre sur les usages du livre numérique, les lecteurs ne se cantonnent pas au livre numérique.
Derrière l’ordinateur, les tablettes tactiles et les smartphones sont les supports privilégiés par les lecteurs interrogés, la liseuse quant à elle n’arrive qu’en quatrième place. Particulièrement adaptés à la mobilité, ces supports permettent d’emporter quantité d’ouvrages avec soi, pour une lecture studieuse ou de détente.
Toutefois les lecteurs ne se cantonnent pas au livre numérique, l’imprimé et les livres audio les intéressent tout autant. Il propose une lecture plus fragmentée, plus rapide qui intègre différents outils de recherche alors que le livre papier offre un confort oculaire et faciliterait la compréhension du texte.

Des technologies du livre papier

Le codex n’a rien à envier au numérique, il développe un autre rapport avec le lecteur. Jeux de textures, animations, dispositifs sonores, les éditeurs rivalisent d’ingéniosité pour maintenir en éveil les lecteurs, en particulier les plus jeunes, grâce à l’imprimé. Les pop-up books, ces livres dont les éléments se déploient en volume ou en mouvement à l’ouverture des pages, sont de plus répandus. En 2017, ils représentaient près de 10 % des livres jeunesse écoulés. Quant aux beaux livres, ils séduisent en intégrant les fac-similés de documents rares, d’archives, de manuscrits ou d’album de photographies.
Si les lecteurs restent attachés au livre papier, celui-ci devient bien plus qu’un simple support, il dépasse son rôle utilitaire pour se transfigurer en objet d’art (en témoignent les livres d’artiste, les sculptures sur livre ou en objet de collection.
Si le livre s’adapte en adoptant un format numérique (eBook, Mobi, PDF) les évolutions technologiques et l’Internet offrent aux créateurs l’opportunité de repenser leurs pratiques et de s’essayer à d’autres gestes, donnant lieu à des expériences de lectures différentes.

Une littérature numérique

Sites personnels, blogs, plates-formes en ligne, réseaux sociaux, la présence numérique des auteurs va croissant. Nombre d’entre eux investissent la Toile à des fins communicationnelles, par exemple pour valoriser et promouvoir leurs productions, ou à des fins littéraires qui leur permettent de se livrer régulièrement à de nouvelles expérimentations.
La communauté scientifique observe ainsi progressivement la constitution d’un champ, celui de la littérature numérique qui propose notamment des œuvres interactives à l’image de Déprise de Serge Bouchardon et Vincent Volckaert. Ces œuvres quelque peu méconnues du grand public et pour beaucoup élaborées dans des perspectives de recherche-création, s’inspirent du jeu vidéo et reposent sur la participation de l’internaute. Ludiques et originales, elles offrent au lecteur différents modes d’interaction avec le contenu affiché qui lui permettant de faire progresser la narration.
Poésie animée, générateur de textes, twittérature et autres formes de microblogging, la littérature numérique embrasse une multitude de formes et d’écritures. De plus en plus d’auteurs fluctuent entre publications papier et numérique, c’est le cas par exemple de François Bon qui depuis 1997 développe une plate-forme d’écriture, Le Tiers Livre. Ce site personnel, apparaît comme un espace pluriel qui rassemble les différentes pratiques de cet artiste transmédia et convie le lecteur à se perdre dans les méandres d’un labyrinthe perpétuellement enrichi à la découverte de son œuvre mais aussi entre autres de textes inédits, d’articles, de critiques, ou d’ateliers. On peut y suivre l’avancée de certains projets d’écriture qui arrivés à leur terme seront publiés en format papier.

Hors du livre, de nombreuses interactions

Outre la littérature numérique, les publications papier bénéficient également d’autres formes de littérature hors du livre. Lectures musicales, performances, spectacles, pour ne citer que ces quelques exemples, contribuent largement à véhiculer une autre image des Lettres et à attirer un public toujours plus large. En ce sens, ces formes nouvelles qui mettent en contact autrement auteurs et lecteurs participent à la fois au rayonnement, à la valorisation et ce faisant à la survie de l’imprimé.
De même, la vie littéraire, qu’elle soit portée à travers des résidences d’auteurs, des festivals et autres manifestations littéraires, dynamise et favorise les interactions entre acteurs culturels et passionnés dans l’ensemble de l’Hexagone. En témoignent le succès et la pérennité de certains salons, comme le Livre Paris, dont la 39e édition rassemblait en mars dernier plus de 160 000 visiteurs venus à la rencontre d’auteurs et d’exposants d’une cinquantaine de pays différents. Les rencontres et échanges sont aussi encouragés par les bibliothèques, clubs de lectures, boîtes à livre ou encore les applications de partage comme Booksquare ou Livres de Proches ou d’achats de livres telles que Booxup.

Des supports hybrides

À la charnière du papier et du numérique, certains projets conduits par des artistes, des éditeurs ou des entreprises cherchent à penser l’hybridation des supports. Le livre embarque alors entre ses pages de technologies et brouille les frontières entre papier/numérique comme l’illustre les catalogues de certaines marques capables d’intégrer un accès wifi ou de recharger votre smartphone. Faire apparaître ou disparaître des mots devient possible grâce aux encres thermochromiques comme le prouve le savoir-faire des éditions volumiques ou l’originalité du livre infini conçu par l’artiste Albertine Meunier dont les pages entièrement blanches ne dévoilent leur contenu qu’en les tournant.
Quel que soit son futur, le livre a donc encore de beaux jours devant lui.The Conversation

Karen Cayrat, Doctorante au CREM |SIC, Langue et Littérature françaises|Traductrice -interprète, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

meeting



Par Chris Huff, Directeur de la stratégie, Kofax

L'industrie est intrinsèquement complexe, avec plus de composants que jamais auparavant. Les chaînes de production sont géographiquement diversifiées. Les exigences réglementaires évoluent continuellement. Des quantités massives d'informations sont souvent stockées à l'extérieur des applications de l'organisation et sont difficiles, voire impossibles à accéder en cas de besoin. Et de nombreux fabricants s'appuient encore sur des processus qui consistent en grande partie, sinon entièrement, à effectuer des tâches manuelles et/ou sur papier, ce qui mine la productivité.

Heureusement, la majorité des fabricants sont désireux d'explorer la voie de l'automatisation, c'est-à-dire de s'éloigner de cette façon habituelle de travailler pour travailler comme l'entreprise de demain. Et beaucoup ont commencé à prendre les devants. Une enquête mondiale de Forbes Insights a révélé que 48% des organisations ont franchi la première étape cruciale : identifier les processus à automatiser, tandis que 46% ont déjà adopté un logiciel d'automatisation pour certains processus.

Mais pour de nombreux acteurs, l'objectif d'une transformation numérique à l'échelle de l'entreprise peut paraître plus une utopie qu'une possibilité. Parmi les obstacles courants à l'adoption de logiciels d'automatisation qui ont été signalés, on compte le manque de compétences (27 %), l'absence de rendement du capital investi (33 %), la conviction que le coût est prohibitif (42 %), le fait que les processus actuels ne sont pas en place (22 %) et le fait que les cadres supérieurs n'y sont pas favorables (27 %).

Ainsi, bien que la puissance de l'automatisation dans la transformation des opérations soit bien réelle, toute stratégie exige d'analyser de près le statu quo de l'entreprise, d'avoir une solide compréhension du marché et de rechercher l'expertise pour trouver le meilleur chemin vers la réussite.

Maintenir le cap vers une optimisation de l'entreprise


L'industrie manufacturière est un marché axé sur les documents, il n'est donc pas surprenant que de nombreuses activités de l'industrie soient encore, dans une certaine mesure, engluées dans des processus papier et/ou manuels axés sur les tâches. En fait, 9 % des fabricants interrogés ont déclaré qu'ils traitaient manuellement toutes les tâches et 31 % ont déclaré qu'ils pouvaient automatiser de petites tâches, mais qu'ils pouvaient compter sur les humains pour les assembler et vérifier chaque étape de leur travail. Moins d'un tiers d'entre eux ont indiqué qu'ils pouvaient automatiser plusieurs tâches ensemble pour dématérialiser un processus métier plus large avec une intervention humaine uniquement dans le cas d'exceptions. De toute évidence, des progrès ont été réalisés, mais il reste encore du chemin à parcourir.

Le grand nombre de documents faisant référence à la production, au commerce, au transport, au développement et à la liquidation éventuelle des biens a explosé au cours des deux dernières décennies. La mondialisation a imposé aux entreprises la mise en conformité des produits avec les normes de différents pays. Les effets de ces réglementations sont particulièrement visibles tout au long de la chaîne d'approvisionnement : les documents tels que les lettres d'expédition, les listes d'importation, les déclarations d'exportation, les bons de livraison, les carnets et les certificats d'origine doivent être livrés à des moments prédéterminés, soit avec les marchandises soit en amont.

En même temps, de nombreux constructeurs ont encore en fait des "îlots d'information" - les sites de production, les succursales, les départements et les unités commerciales ne partagent souvent pas efficacement leurs documents et données. Comme tous les employés ne sont pas en mesure de travailler avec la bonne information au bon moment, il en résulte un traitement inefficace et sujet aux erreurs.

Des processus plus intelligents pour des parcours plus faciles


Le bon déroulement des processus ne devrait pas contribuer aux goulots d'étranglement, mais plutôt les éliminer et aider à établir un lien entre les personnes et l'information dont elles ont besoin pour gérer les opérations quotidiennes. Et une solution d'automatisation devrait contribuer à la bonne circulation des données. Pour ne citer que quelques principales fonctions de l'automatisation pour les fabricants : planification de l'offre et de la demande, traitement des commandes, suivi et traitement des stocks, suivi des contrats etc...

La relation employé-client est également importante. L'automatisation permet aux travailleurs d'être libérés des tâches manuelles fastidieuses afin qu'ils puissent se consacrer à un travail à plus grande valeur ajoutée et axé sur le client.

Un nombre important de fabricants interrogés ont déclaré que la satisfaction des employés s'était améliorée grâce à l'automatisation : 31 % ont fait état d'une amélioration de 5 à 15 %, 26 % d'une amélioration de 15 à 25 % et 25 % d'une amélioration de 25 % ou plus.

Bon nombre d'entre eux ont fait état d'améliorations similaires en ce qui concerne la satisfaction de la clientèle : 30 % ont fait état d'une amélioration de 5 à 15 %, 35 % d'une amélioration de 15 à 25 % et 17 % d'une amélioration de 25 % ou plus.

Créer et gérer une main-d'œuvre numérique grâce à l'automatisation intelligente


Exploiter toute la puissance de l'automatisation pour fonctionner comme l'organisation du futur, exige de combiner de façon harmonieuse des capacités humaines et celles des agents logiciels. L'objectif est de créer une main-d'œuvre agile qui améliore les relations avec les partenaires ou clients, les bénéfices, la conformité réglementaire, la qualité et la précision des résultats tout en réduisant les coûts. Bien que de nombreux fabricants entreprennent le virage de la transformation numérique avec l'automatisation robotique des processus métier (RPA), un bon nombre d'entre eux choisissent d'aller au-delà de la simple RPA, en intégrant à l'automatisation intelligente les technologies complémentaires, telles que la capture cognitive, l'orchestration des processus, les analyses avancées, la mobilité etc...

Associer les capacités numériques avec celles des employés offre de nombreux avantages : services améliorés, coûts opérationnels réduits et une productivité accrue sans pour autant augmenter l'effectif. Le résultat ? Une main-d'œuvre composée d'humains et de robots qui collaborent pour transformer la capacité et la performance des activités commerciales, permettant ainsi aux entreprises de travailler, dès aujourd'hui, comme demain.


Par Pierre Patuel, Co-fondateur de DPii Télécom & Services

Si, dans le passé, des détracteurs pouvaient critiquer l'investissement et la durée d'implantation que représentaient une procédure de dématérialisation de documents au sein de l'entreprise, cette époque est révolue. En effet, il faut bien avoir en tête qu'il existe aujourd'hui des solutions adaptées au TPE/PME, dont les bénéfices directs et indirects dépassent largement les inconvénients dans un projet de dématérialisation.

Au-delà des aspects législatifs, qui pourraient inciter les entreprises à sauter le pas, la dématérialisation est aujourd'hui incontournable car elle permet en plus d'une gestion de documents plus fluide et sécurisée, des gains de temps et d'argent non-négligeables, notamment dans une démarche RSE.

Un gain de temps pour les entreprises


La dématérialisation est le meilleur moyen pour l'entreprise du XXIème siècle de s'adapter aux enjeux de son époque : plus de productivité et plus de rentabilité. Grâce à son application dans les entreprises, elle permet de réaliser un gain de temps considérable sur toutes les démarches administratives qui ont tendance à ralentir les employés.

Ainsi, la dématérialisation est synonyme de raccourcissement des temps de traitement des documents ainsi que des délais de réponse. En effet, en passant par une solution à 100% électronique, l'entreprise n'est plus dépendante des contraintes des envois papiers, et du traitement du courrier les jours ouvrés. Le temps passé en déplacement, à la rencontre de clients ou de prestataires, est également sérieusement diminué alors qu'il n'y a plus besoin de se rencontrer pour signer un document nécessitant deux signatures. La dématérialisation et donc la numérisation des documents permet également, grâce à l'archivage des documents, un gain de temps considérable pour la recherche documentaire. En effet, rechercher un document parmi des milliers de dossiers papier prend parfois tellement de temps à un employé que sa recherche revient 10 fois plus chère1 que sa seule production. Et il devient aussi désormais possible, grâce à la dématérialisation, de consulter un document n'importe où, n'importe quand, et même en-dehors de son lieu de travail, pour peu qu'on y ait une autorisation d'accès, c'est une aide précieuse pour le télétravail.

La dématérialisation est donc aussi une solution idéale pour optimiser et valoriser le travail des employés. Si moins de temps est consacré aux tâches administratives et répétitives de classement, recherche et archivage des documents, l'employé pourra davantage se concentrer sur des tâches à plus forte valeur ajoutée. En concentrant ses efforts sur des missions de première importance, l'entreprise en ressort alors gagnante.

Aspect non négligeable également : le temps économisé sur la sécurisation des données. Les solutions électroniques permettent de conserver l'intégrité des documents concernés par la dématérialisation. Ils ne sont plus sujets à d'éventuelles erreurs humaines ou failles de sécurité. Le temps passé à corriger ces erreurs est donc entièrement supprimé.

Des bénéfices économiques non-négligeables

La liste des économies qu'une entreprise peut réaliser en dématérialisant ses documents est longue et couvre tous les aspects d'une activité. En effet, en observant les entreprises qui ont eu recours à la dématérialisation, on remarque que celles-ci ont réalisé des économies :

  • Les coûts de traitement des documents ;
  • Les coûts d'éditique ;
  • Les coûts de distribution ;
  • Les coûts du papier ;
  • Les coûts d'impression ;
  • Les coûts de mise sous pli et d'affranchissement des envois postaux.

Ainsi, la facture électronique entrante coûte jusqu'à 10 € de moins (Source: GS1 France 2010) que la même facture papier, et la facture électronique sortante coûte jusqu'à 6,50 € de moins que la même facture papier. Ainsi, le gouvernement estime - après étude - que la dématérialisation des factures représente une économie de l'ordre de 50% à 75% par rapport à un traitement papier et réduit le coût de traitement d'environ 30%.

A l'échelle européenne, les initiatives de dématérialisation sont très largement encouragées, voire plébiscitées. En effet, après des études menées sur l'ensemble des marchés publics européens, la Commission Européenne a dévoilé dans un communiqué ses directives en ce qui concernait la dématérialisation appliquée aux administrations publiques et aux marchés économiques (La facturation électronique dans le cadre des marchés publics: une nouvelle avancée vers la passation électronique de bout en bout des marchés publics et vers l'administration électronique en Europe.). Ces études mettaient en exergue les économies potentielles pouvant être réalisées si l'ensemble des acteurs des marchés publics européens avait recours à la dématérialisation. Un total de 2,3 milliards € pourrait être économisé rien qu'avec la seule numérisation des factures.

Un geste pour la planète, une démarche RSE intelligente !

La dématérialisation est une solution d'avenir dans un monde toujours plus soucieux de l'empreinte carbone laissée par ses activités. En effet, de plus en plus d'entreprises réfléchissent à développer leur activité en se faisant toujours plus respectueux de l'environnement.

D'après l'entreprise de solutions globales de dématérialisation DPii, il est estimé que 75% des déchets de bureaux sont du papier. En France, nos habitudes et notre culture font que nous sommes particulièrement friands de papier et de gestion matérielle des documents. Ainsi, la France à elle seule représente 3% de la consommation mondiale de papier.

C'est donc un travail de fond qu'il faut effectuer pour changer les habitudes des employés des entreprises françaises afin qu'ils ne tendent plus systématiquement vers le traitement matériel des documents. La dématérialisation peut être une des solutions pour transiter vers des modèles écologiques plus viables, en remplaçant la vaste quantité de documents papier par des versions numériques, par exemple.

Salles









Par Frédéric Salles, président de Matooma

L’été dernier l’ARCEP lançait le processus de test de la 5G en autorisant des licences expérimen-tales pour les industriels, valables un an et renouvelables.
Aujourd’hui ce sont essentiellement les grands opérateurs qui sont chargés d’expérimenter cette technologie dans les neuf villes-test dé-signées par l’ARCEP. Des relais vont ensuite y être définis afin de positionner les bornes 5G.

Cependant, plusieurs acteurs se préoccupent du manque de visibilité en la matière et se posent la question de la date exacte de son déploiement : la France ne devrait réellement commencer le déploiement à grande échelle qu’en 2022. Tout d’abord, parce qu’il est nécessaire de couvrir le territoire en 4G, mais aussi parce que l’ARCEP n’a pas encore lancé d’appel d’offres pour l’acquisition des licences 5G.

Dans ce contexte, nous pouvons aussi nous poser la question des conséquences de l’arrivée de la 5G pour les particuliers et les professionnels. D’un point de vue technique, la norme 5G est com-posée de deux canaux : un canal pour les usages très haut débit (entre 700Mb et 1Gb par seconde) et un canal pour les usages bas débit destinés aux applications de l’IoT et du M2M (objets connec-tés).
En clair, lorsqu’un utilisateur téléchargera un film HD sur un PC, une tablette ou un téléphone avec la 5G, cela ne lui prendra que 5 secondes.

Pour les objets se connectant à Internet (alarmes, panneaux photovoltaïques, horodateurs, distri-buteurs de boissons…), les utilisateurs auront le choix entre les réseaux 3G/4G, les réseaux bas débits ou le canal bas débit de la 5G qui sera aussi faible en consommation d’énergie. Cette nou-velle technologie permettra ainsi aux opérateurs d'adresser aussi bien les entreprises souhaitant du haut débit que celles aspirant à du bas débit. Deux normes en encadrent les usages, que sont la NB-IOT de Huawei et la LTE-M d’Ericsson.

Autre avantage, la latence de la connexion à Internet. Actuellement, lorsqu’un utilisateur se con-necte sur un site web à partir de son smartphone, le délai de chargement de la page est inférieur à 1 seconde. Avec La 5G, ce temps sera de 1 milliseconde, soit immédiat pour l’œil humain.

Dans le monde actuel, pour connecter un objet il faut choisir entre un réseau bas débit ou le ré-seau GSM (2G, 3G, 4G). Demain, la 5G simplifiera considérablement les choses avec un seul com-posant qui pourra accéder aux deux fréquences. Cela facilitera les déploiements IoT à grande échelle car jusqu'à présent, les entreprises pouvaient hésiter entre ces deux possibilités.

Toutefois, il y a un bémol. En effet, les coûts que vont payer les opérateurs de téléphonie pour acquérir des licences 5G vont se négocier en milliards d’euro (en Allemagne, nous en sommes à plus de 5 milliards d’euro) et pourraient influer sur la tarification des futurs forfaits 5G.

Selon les derniers chiffres annoncés par les organisateurs du Salon Mobile World Congrès 2019, le nombre de connexions IoT (cellulaires et non-cellulaires) triplera d'ici 2025 pour atteindre un nombre de 25 milliards de connexions . La gestion d’un nombre élevé d’objets connectés est donc un enjeu crucial que la technologie 5G pourra relever afin de gérer facilement ces flottes d’objets et d’assurer leur connexion.


alexa
La gamme d'enceintes connectées Echo d'Amazon



Avis d'expert de reichelt elektronik

Qu'il s'agisse d'Amazon, de Google, d'Apple ou de Microsoft, les grands noms de la tech cherchent tous à dominer le marché des assistants vocaux. La croissance annuelle des ventes d'enceintes connectées confirme l'appétence des consommateurs pour cette nouvelle technologie, dont certains prédisent déjà qu'elle finira par supplanter toutes les autres interfaces utilisateur. Il reste pourtant aux acteurs du secteur des défis majeurs à surmonter pour faire de la commande vocale l'interface de choix pour les utilisateurs. reichelt elektronik, l'un des plus grands distributeurs en ligne d'électronique et de technologie informatique en Europe, fait le point.

Défi n°1 : Surmonter les stéréotypes sexistes de la technologie


Alexa, Siri, Cortana – les assistants vocaux parmi les plus connus et les plus populaires sont tous dotés de voix féminines et considérés comme des femmes, dans le rôle d'assistantes patientes et dociles, qui obéissent au doigt et à l'œil des donneurs d'ordre. Selon l'Unesco, cette situation est préoccupante car elle contribue à véhiculer et à renforcer les stéréotypes sexistes. Dans un rapport publié cette année, l'Unesco s'inquiète notamment de la manière dont les assistants vocaux sont programmés pour répondre avec indulgence à la violence verbale ou même flirter en réponse aux commentaires à caractère sexuel.
L'IA qui équipe les assistants vocaux étant inévitablement influencée par les données dont elle apprend, elle hérite directement des préjugés, stéréotypes et des attitudes discriminatoires humaines. L'enjeu, pour les fabricants, est donc de parvenir à éliminer les préjugés sexistes de leurs systèmes afin d'offrir une expérience satisfaisante à tous les utilisateurs, indépendamment de leur sexe.

Défi n°2 : Utilisation de la commande vocale dans les lieux publics


La technologie de commande vocale fait face à une autre difficulté relativement peu abordée : celle de son utilisation dans les espaces publics, comme les trains ou les restaurants. Dans de tels scénarios, le premier problème qui se pose est évidemment celui de la confidentialité des informations qui, si elles sont dictées par la voix, seront de facto partagées à toute personne se trouvant à proximité.
Mais la perspective d'une utilisation en public pose aussi la question des nuisances sonores. Si au lieu de swiper, de cliquer et de taper sur leur clavier, les utilisateurs se mettaient tous à utiliser la commande vocale dans un wagon ou une salle de restaurant, les niveaux sonores deviendraient très vite excessifs. Difficile donc, dans un tel contexte, d'imaginer que la commande vocale pourrait venir remplacer les autres interfaces auxquelles nous sommes habitués.

Défi n°3 : Vers 100% de reconnaissance vocale


Si la technologie a fait des avancées considérables ces dernières années en matière de reconnaissance de la parole et que les fabricants travaillent d'arrache-pied pour la perfectionner, les assistants vocaux ne sont pas encore en mesure de comprendre la totalité des requêtes qui leur sont adressées. Et l'exercice s'avère encore plus délicat lorsque les assistants se retrouvent confrontés à un accent régional ou à certains dialectes.  Pour l'heure, l'utilisation réussie de la commande vocale requiert donc encore des efforts de la part des utilisateurs (répétition d'un énoncé, reformulation, ralentissement du débit de parole, adaptation du volume sonore). Mais, selon une récente étude reichelt elektronik / OnePoll, 32 % des Français affirment n'être pas convaincus que leurs requêtes seront comprises correctement.


La société spécialisée FireEye a identifié des activités de spearphishing (harponnage) conduites par le groupe de menaces iranien  APT33 en parallèle avec un climat de tension accru dans la région du Golfe et avec les Etats Unis. La campagne de spearphishing a ciblé à la fois les secteurs privé et public aux Etats-Unis. Cette activité est compatible avec la collecte de renseignements, et il est probable que le régime iranien utilise aussi du cyber espionnage pour réduire ses incertitudes entourant le conflit. A noter qu’APT33 a dans le passé effectué des attaques destructrices s’ajoutant à la collecte de renseignements.

Cibles aux Etats-Unis

Avant la signature de l’accord sur le nucléaire iranien, JCPOA, des acteurs iraniens ont mené des attaques destructrices et perturbatrices sur des cibles multiples aux Etats Unis. Toutefois, ces dernières années, des attaques similaires menées par des acteurs iraniens ont principalement eu lieu au Moyen Orient, ciblant des organisations du secteur privé telles que des compagnies pétrolières et gazières.

Le lancement d’attaques destructrices et perturbatrices est une capacité que l’Iran peut utiliser pour causer des dommages économiques sans provoquer une escalade significative du conflit, tout comme lors de ses précédents sabotages de compagnies maritimes. De plus, si les Etats Unis mènent des cyber attaques comme annoncé, l’Iran peut utiliser ses propres capacités comme un moyen de réponse proportionnée. S’il s’avère qu’une action américaine s’est concentrée uniquement sur des cibles militaires, l’Iran peut choisir d’attaquer des cibles moins stratégiques où il détient un avantage asymétrique.

L'avis d'expert de Ryan Kalember, vice-président directeur de la stratégie de cybersécurité chez Proofpoint
« Les tensions récentes entre l'Iran et les États-Unis soulignent la façon dont les gouvernements ont intensifié leur recours aux « cyber options » dans le traitement des conflits internationaux. Au cours des derniers mois, les chercheurs Proofpoint ont observé l'activité de l'APT iranienne ciblant principalement l'enseignement supérieur. Dans ces campagnes, les méthodes d'attaque reflètent le paysage mondial de la menace dans son ensemble, les cybercriminels poursuivant les individus plutôt que les infrastructures. Ces groupes tirent régulièrement parti des vols d’identifiants en usurpant les portails de connexion d’organisations ciblées et utilisent des services d'URL raccourcis pour ainsi livrer des charges utiles malveillantes et complexifier davantage les campagnes.
Nous avons également vu des acteurs iraniens usurper des logos du gouvernement américain dans des emails contenant des documents malveillants et utiliser une variété d'outils publics ainsi que leurs propres outils non publics pour livrer des charges utiles malveillantes à des individus spécifiques dans des organisations ciblées. »
ordinateur


Cédric O, secrétaire d’État chargé du Numérique, et Olivier Sichel, directeur de la Banque des Territoires, viennent d'annoncer les 11 projets lauréats de l’appel à projets « Hubs Territoriaux pour un Numérique Inclusif » mis en œuvre et financé par la Banque des Territoires en partenariat avec la mission Société numérique de l’Agence du numérique.



Parmi les lauréats, le projet Hub Occitanie, l'un des plus importants de France, sera chargé de l’accompagnement des aidants numériques pour la région Occitanie.

13 millions de Français éloignés du numérique


Le rapport de la Stratégie Nationale pour un Numérique Inclusif, publié en avril 2018, conclut que dans un contexte de numérisation des démarches et de transformation numérique des politiques publiques, l’offre de médiation n’est ni suffisante ni suffisamment coordonnée pour pouvoir répondre aux besoins croissants des citoyens en matière de formation.

En effet, malgré un contexte d’accroissement des équipements et de développement des usages, 13 millions de Français restent éloignés du numérique.

Enveloppe de 5 millions d’euros


Pensé pour fédérer les acteurs du numérique à l’échelle locale et aider les territoires à répondre aux besoins de leurs populations, l’appel à projets des Hubs Territoriaux pour un Numérique Inclusif a été doté d’une enveloppe de 5 millions d’euros. 

Il a pour objectif de financer une dizaine de projets de Hubs interdépartementaux répondant aux missions suivantes :
  • Recenser, articuler et coordonner les aidants numériques pour faire converger les projets vers des priorités territoriales définies avec les collectivités et les services de l’Etat 
  • Lever des fonds et aider à mobiliser toutes sources de financement (notamment européennes) en montant des projets à plus grande échelle 
  • Mutualiser et apporter de la valeur aux acteurs de terrain en créant des centres de services partagés (mutualisation de parcours de formations pour les aidants, partage d’outils et de ressources humaines…) 
  • Evaluer l’efficacité des services rendus sur le territoire et en informer les collectivités et les instances nationales concernées.
L’instruction des projets candidats a été effectuée par un jury composé d’une dizaine de personnalités indépendantes.

450000 € pour le Hub Occitanie


Le Hub Occitanie va recevoir une subvention de 450000€. L'association La Mêlée, réseau de lieux de l’écosystème numérique occitan, s’est associée à un collectif de cinq acteurs locaux de l’inclusion numérique regroupés sous la bannière Coll’in (Collectif pour l’Inclusion numérique).

L’appel à projets leur permet de coopérer ensemble pour mutualiser leurs actions et proposer leurs services à l’ensemble des acteurs de l’inclusion numérique sur le territoire visé, où le public éloigné du numérique est estimé à environ 430 000 personnes.




Le comédien Keanu Reeves au casting de Cyberpunk 2077 (CD Red Projekt) venu enflammer la scène de la conférence Microsoft. Un feu davantage allumé avec de l'alcool qu'avec des brindilles diront certains…
Guillaume Labrude, Université de Lorraine


Cette année, certaines questions obsèdent professionnels et joueurs : qu’en sera-t- il de la prochaine génération de consoles, du développement du cloud gaming – le fait de jouer en streaming sur des serveurs communs –, des fusions pour contrer l’arrivée de Google sur le marché ?
C’est donc Stadia, la fameuse « console » de Google, qui a ouvert les festivités. Ce service multi-écran coûte une dizaine d’euros par mois pour le pack pro et donne accès à un catalogue de jeux qui s’étoffera au fil du temps. Une trentaine de titres sera disponible à son ouverture en fin d’année 2019. En termes de hardware, une manette spéciale de plus d’une centaine d’euros sera lancée et Baldur’s Gate 3 fera partie des jeux pionniers. Difficile d’imaginer l’intérêt des joueurs déjà équipés pour cette offre qui ne possède à l’heure actuelle aucune exclusivité.

La manette Stadia, le contrôleur officiel du service vidéoludique de Google.

Des contenus attendus mais sans surprise

Le studio Electronic Arts se contente depuis quelques années de communiquer autour de ses licences phares et le programme des jeux abordés a été éventé en amont ; la bande-annonce de Fifa 20 a notamment été diffusée quelques minutes avant le lancement. Outre le retour d’un mode « foot de rue » dans cette nouvelle mouture, la majorité des simili-nouveautés proposées étaient des extensions. La saison 2 d’Apex Legends, concurrent essoufflé de Fortnite, et le nouveau contenu téléchargeable des Sims 4, un jeu datant tout de même de 2014, faisaient figures d’amuse-bouches.


On retiendra de cet EA Play la démonstration de 15 minutes de Star Wars Jedi : Fallen Order, nouvelle adaptation de l’œuvre de George Lucas s’inscrivant directement dans les canons de la licence cinématographique. Mais pour de nombreux joueurs, le jeu est graphiquement et physiquement daté et semble bien trop facile, l’intelligence artificielle des personnages non joueurs n’étant clairement pas au niveau. Les tests de Star Wars Jedi : Fallen Order réservés aux professionnels semblaient toutefois plus prometteurs même si le jeu est encore en version Alpha alors qu’il sort en novembre.


Chez Microsoft, un catalogue prometteur

Comme l’an dernier, la conférence Microsoft fût extrêmement riche en contenu entre une manette technologique vendue pour la modique somme de 180 $ directement sur dle site du constructeur et le projet Scarlett daté pour la fin 2020. Microsoft a laissé défiler les bandes-annonces de jeux bien souvent attendus comme Cyberpunk 2077 enfin daté pour le 16 avril 2020, The Outer World promettant un univers post-apocalyptique façon Fallout tout autant que Wasteland 3, dont le premier opus en 1988 avait servi de base à la licence initiée par Tim Cain.
Quelques jeux indépendants et conceptuels comme l’envoûtant Way to the Woods, la suite du poétique Ori and the Blind Forest baptisée The Will of the Wisps ainsi que le narratif 12 Minutes ont pointé le bout de leur nez entre deux super-productions. Mais c’est bien Halo Infinite (500 millions de dollars de budget pour le premier titre de la Scarlett) avec Gears 5, soit les deux plus grosses exclusivités de Microsoft, qui ont animé la soirée.
La rumeur voulait, depuis quelque temps, que George R.R. Martin, l’auteur de la saga A Song of Ice and Fire plus connue en tant que Game of Thrones pour la télévision, se soit associé avec le studio japonais From Software et son directeur Hidetaka Miyazaki pour la mise en chantier d’un jeu de rôle en monde ouvert lié à la mythologie nordique. Les premières images de Elden Ring sont venues le confirmer avec une esthétique visuelle et sonore plus proche de ce que faisait From Software avant Sekiro. Son dernier titre en date se déroulait dans le Japon de l’air Sengoku et s’est retrouvé au cœur de quelques polémiques rapidement éteintes autour de sa redoutable exigence en terme de gameplay, l’anglicisme désignant la façon de jouer à un jeu vidéo ainsi que ses règles intrinsèques.

Elden Ring, fruit de l’association entre Hidetaka Miyazaki et George R.R. Martin, serait un jeu de rôle en monde ouvert proposant plusieurs royaumes en ruines à explorer à dos de cheval dans un univers inspiré de la mythologie scandinave. From Software oblige, l’exigence sera au rendez-vous sous peine de mise à mort à répétition, mais également un haut potentiel pour les amateurs de speedrun.</movie.

Retours en grâce ?

Si l’on ne peut pas dire que l’E3 2018 ait été catastrophique pour les studios Bethesda, notamment grâce à une annonce en grandes pompes de The Elder Scrolls VI, l’année qui suivit ne fut pas de tout repos pour l’image de la firme. Son titre Fallout 76 fut l’un des plus cuisants échecs en terme de réception critique, aussi bien par les joueurs que par les professionnels.
Avec l’annonce d’un désormais classique mode Battle Royale pour ce jeu tant décrié, mais également la présentation de deux nouvelles licences, un jeu d’action tinté d’exploration intitulé Ghostwire Tokyo dont le moteur graphique semble merveilleux (mais ça n’est pas du in game) et le mystérieux Deathloop des Français de chez Arkane Studios, l’édition 2019 de l’Electronic Entertainment Expo a su se montrer plutôt rassurante pour les équipes de Todd Howard. Les studios soulignent un peu plus leur persistance dans le paysage vidéoludique en mettant à jour Fallout 76. On notera néanmoins une instrumentalisation maladroite de quelques joueurs et joueuses dans la vidéo de présentation du studio qui ressemble à une malheureuse propagande sentimentaliste.
En 2018, Square Enix avait déçu en présentant des jeux attendus mais au rendu graphique encore faible comme Shadow of the Tomb Raider ou tout simplement un titre que personne n’espérait, The Quiet Man, dont la technologie datée rappelait les jeux en FMV des années 1990. En 2019, le studio se renouvelle avec une licence adaptée d’Avengers, dont le rendu physique et la direction artistique plutôt tièdes ne sont pas sans rappeler le manque d’âme de la réalisation des frères Russo sur le pendant cinématographique de la série. Entre cinématiques et phases de gameplay, le remake du septième épisode de Final Fantasy a pallié son absence regrettée l’an passé. Le titre proposera une aventure épisodique dont le premier serait contenu sur deux disques Blu Ray, une place conséquente appelant à imaginer un jeu gourmand nécessitant des moyens optimaux pour vivre au mieux la refonte de cette légende vidéoludique.
Comme Final Fantasy XV, ce remake ne proposera pas de combats au tour par tour mais des affrontements en temps réel avec, cette fois-ci, la possibilité de contrôler différents personnages et de suspendre le temps pour se concentrer davantage sur la stratégie.

Du catastrophique Secret of Mana à l’excellent Resident Evil 2, les remakes de jeux vidéo se multiplient. Ici, une refonte complète de l’un des titres les plus adulés de l’Histoire vidéoludique qui sortira sous format épisodique.

Alors que le Nintendo Direct de 2018 avait déçu en se focalisant essentiellement sur les personnages de son Super Smash Bros Ultimate, devenu depuis un véritable incontournable de sa Switch, et en ne donnant aucune nouvelle du très attendu Metroïd Prime 4, toujours absent cette année pour cause de reboot du développement, le constructeur légendaire a su cette fois-ci conclure l’E3 en beauté. Luigi’s Mansion 3, le remake de The Legend of Zelda : Link’s Awakening, celui du culte Panzer Dragoon et le portage de The Witcher 3_ sur Switch confirmaient la tendance au recyclage très présente lors de cette édition.
Heureusement, le traditionnel « one more thing » en fin de conférence a su ravir la communauté du constructeur nippon : Breath of the Wild, le titre adulé qui marqua l’arrivée de la Nintendo Switch, aura droit à une suite directe, une première dans l’histoire éditoriale de The Legend of Zelda dont les opus demeuraient toujours indépendants. Cette année, Nintendo s’est à nouveau imposé et a marqué les esprits en prouvant, s’il était encore nécessaire de le faire, que sa dernière machine en date n’est en rien une console d’appoint, c’est-à-dire une console sur laquelle on s’attarde dès lors que le catalogue des autres comme Xbox et PS4 n’a rien de neuf à proposer, mais bien comme un outil incontournable de la grande histoire du jeu vidéo, de par ses œuvres phares.

La suite de The Legend of Zelda : Breath of the Wild est en développement… une véritable bonne nouvelle pour ce titre historique ou simplement de quoi nourrir les foules par manque de véritables nouveautés, comme Bethesda l’avait fait l’an dernier avec le teaser de The Elder Scrolls VI ?

Vers 2020, et au-delà

Comme à son habitude, le facétieux studio Devolver a proposé une conférence parodique taclant aussi bien la concurrence que ses propres productions à grand renfort de pastiches là où le PC Gaming Show est resté fidèle à sa réputation en proposant une conférence peu engageante réservée à une fange de joueurs bien précise. Non sans humour, Limited Run Games s’est encore une fois lancé dans un show différé pour dévoiler les différents portages en cours. Enfin, le VR Showcase avait la lourde tâche de convaincre public, journalistes et investisseurs que les casques de réalité virtuelle ont de beaux jours devant eux. Si de nombreux talents indépendants proposent des jeux plutôt originaux et décalés comme un Team Fortress invitant les joueurs à incarner des saucisses en guerre (intitulé de fait Meat Fortress) ou un simulateur de destruction de chambres d’hôtel façon rockstar (Hotel RNR), la majorité des titres demeurent de simples jeux de tir à la première personne.

Actif depuis la fin des années 1990, MisterMV est assurément l’une des personnalités françaises les plus importantes lorsqu’il s’agit de traiter du jeu vidéo. Musicien mais également streamer au grand cœur capable de lever des dizaines de milliers d’euros pour Médecins Sans Frontières lors du Z-Event, il commente avec précision l’E3 depuis quelques années, toujours avec une grande dose d’humour et de dérision.

Si l’on peut saluer quelques nouveautés encore non révélées mais annoncées officiellement comme le très politique Watchdogs Legion d’Ubisoft, ou Avengers de Square Enix, peu de surprises et peu de gameplay étaient au rendez-vous cette année. Cette édition fait office de transition avant que les véritables enjeux que sont le cloud gaming, la nouvelle génération de consoles et les différentes alliances entre les constructeurs ne soient abordés, sans doute en 2020. Au regard de l’an passé, la tendance s’est inversée : les géants ayant marqué l’E3 2018 se sont reposés sur leurs lauriers là où les firmes qui avaient déçu, comme Square Enix ou Nintendo, ont opéré une véritable opération séduction, le remake de Final Fantasy VII et la suite de Breath of the Wild ayant été deux des temps forts de ce cycle de conférences.The Conversation

Guillaume Labrude, Doctorant en études culturelles, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
password


Okta, fournisseur indépendant de solutions de gestion des identités pour les entreprises, vient de dévoiler les résultats de l’étude The Passwordless Future Report, qui décrit l’effet négatif des mots de passe sur la sécurité des entreprises et le bien-être des employés. Menée auprès de plus de 4 000 employés à travers le Royaume-Uni, la France et les Pays-Bas, cette enquête montre également que ces derniers sont prêts à adopter des méthodes d’authentification sans mots de passe.

Maria Bada, associée de recherche à l’Université de Cambridge, déclare à cette occasion : « Cette étude montre clairement que les employés peuvent éprouver des émotions négatives et du stress en raison de l’oubli de mots de passe et que cela peut avoir une incidence non seulement sur leur carrière, mais également sur leur santé émotionnelle ».

Les mots de passe sont la cible idéale de la cybercriminalité

La plupart des violations de données dues au piratage sont la conséquence de mots de passe réutilisés, volés ou trop faibles. D’après l’enquête d’Okta, 78 % des personnes interrogées emploient une méthode non sécurisée pour mémoriser leurs mots de passe, un chiffre qui passe à 86 % chez les 18-34 ans. Ces aide-mémoires prennent des formes diverses :

  • 34 % se servent des mêmes mots de passe pour différents comptes
  • 26 % les consignent sur papier
  • 17 % les enregistrent dans leur téléphone ou leur ordinateur
  • 6 % utilisent des mots de passe connus

Si l’on en croit le Dr Maria Bada, « Les pratiques professionnelles non sécurisées et le manque d’intérêt des utilisateurs pour la sécurité peuvent résulter de mécanismes et politiques de sécurité ne tenant pas compte des méthodes de travail des utilisateurs, des stratégies organisationnelles ni de la facilité d’utilisation. Les mots de passe sont souvent très révélateurs. Les utilisateurs les créent dans la hâte, si bien qu’ils choisissent ceux qui leur viennent spontanément à l’esprit ou qui revêtent une signification émotionnelle particulière. Les mots de passe relèvent en fait de l’inconscient. Les criminels le savent très bien et, avec un peu de recherche, parviennent à les deviner facilement. »

Les mots de passe influent sur le bien-être au travail

L’anxiété au travail est en hausse en raison de plusieurs facteurs, dont la sécurité qui est totalement passée sous silence. L’étude The Passwordless Future Report indique que 62 % des personnes interrogées se sentent stressées ou contrariées lorsqu’elles oublient leur mot de passe. Un chiffre plus élevé au Royaume-Uni (69 %) qu’en France (65 %) et aux Pays-Bas (53 %). Un employé doit en moyenne mémoriser 10 mots de passe dans la vie quotidienne, ce qui suscite des émotions négatives chez deux tiers des personnes interrogées (63 %).

 Selon le Dr Maria Bada, chercheuse associée à l’université de Cambridge, « L’impact potentiel d’un mot de passe oublié peut engendrer des niveaux de stress très élevés, et entraîner à la longue une dépression ou un burn-out. Ce phénomène s’explique par la sensibilité du cerveau aux menaces qu’il perçoit. En focalisant en permanence notre attention sur les menaces en ligne potentielles, nous devenons hypersensibles au stress, avec, à long terme, un risque pour notre santé mentale. »

Un futur sans mots de passe

D’après l’étude, une grande majorité des répondants utilisent toujours massivement les mots de passe pour s’authentifier sur leurs applications – qu’elles soient professionnelles, ou personnelles comme des applications de réseaux sociaux, bancaires ou encore de santé. Cependant lorsqu’on leur demande quelle méthode ils aimeraient pouvoir utiliser pour s’authentifier sur leurs applications personnelles, une bonne partie d’entre eux considèrent la double authentification comme un moyen fiable et pratique

Nicolas Petroussenko, Vice-président régional et Country Manager France d’Okta, reconnaît : « Nous pensons à tort que les mots de passe ont le monopole de l’authentification. Mais nous voyons de plus en plus des pratiques qui visent à démocratiser de nouvelles formes d’authentification tout en restant sur un niveau de sécurité accru tel que la biométrie, ou la reconnaissance faciale. Ces tendances sont également corroborées par les attentes des consommateurs eux-mêmes ».

Les entreprises peuvent combiner des techniques comme la biométrie et l’apprentissage automatique avec des méthodes traditionnelles sécurisées, et se libérer entièrement de moyens de protection devenus insuffisants tels que les mots de passe.

Pas moins de 70 % des personnes interrogées estiment que l’utilisation de la technologie biométrique présente des avantages professionnels. C’est en France que ce taux est le plus élevé (78 %) et grimpe encore plus chez les 18-34 ans (81 %). Près d’un tiers (32 %) pense que la technologie biométrique pourrait simplifier leur vie quotidienne, ou réduire leur niveau de stress et d’anxiété au travail. 86 % émettent toutefois des réserves en ce qui concerne le partage des données biométriques avec leurs employeurs. Autrement dit, les travailleurs disent oui à la facilité d’utilisation, mais n’ont pas confiance dans la capacité des entreprises à protéger leurs données.

Nicolas Petroussenko, Vice-président Europe du Sud d’Okta, conclut : « Cela fait maintenant bien trop longtemps que les mots de passe échouent à offrir une protection suffisante aux applications et à leurs utilisateurs. Si les cybercriminels parviennent à compromettre des comptes, c’est justement dû aux mots de passe volés ou trop faibles. C’est pourquoi cette forme d’authentification obsolète doit être abandonnée. En 2019, nous verrons émerger la première vague d’entreprises totalement affranchies des mots de passe, et les clients d’Okta seront aux avant-postes. »


Sigfox, pionnier toulousain du réseau 0G et premier fournisseur mondial de solution de connectivité dédiée à l’Internet des objets (IoT), annonce l’ouverture à Paris pour l’été 2019 de sa quatrième Hacking House, après San Francisco, Taipei et Chicago. Pour cette édition, six équipes auront pour objectif de répondre à d’importantes problématiques d’ordre logistiques, techniques ou sociétales en utilisant des solutions IoT et le réseau 0G de Sigfox.

Ces six équipes provenant du monde entier travailleront, du 11 juin au 30 août 2019, au développement de leur projet dans les locaux de Sigfox à Paris. L’enjeu ici est double : former une nouvelle génération d’experts aux technologies IoT, et faire émerger de nouvelles solutions IoT pour répondre à des problématiques d’ordres différents. Dans cette optique, les participants seront accompagnés par des mentors Sigfox pour les aider à mener à bien leur projet.

Au terme des 3 mois de réflexion et de travail sur leurs différents projets, ponctués de plusieurs phases d’échanges avec des partenaires, de Design Thinking, de prototypage et de tests, les six équipes viendront présenter le résultat de leurs travaux devant un jury composé d’investisseurs, de clients et d’experts. L’objectif final étant à termes d’envisager la production et la mise à disposition de leurs solutions sur le marché.

« J'ai découvert Sigfox pour la première fois lorsque j'ai commencé mon parcours d'entrepreneur en 2016 et que j'ai eu la chance de travailler en tant que co-fondateur d'une start-up dans l’IoT. Participer à la Hacking House est pour moi l’opportunité d'explorer et de comprendre la technologie de Sigfox en profondeur mais surtout de travailler sur un projet de A à Z du développement de l'architecture, au prototypage jusqu’à la présentation du rendu final. Cela va certainement améliorer, non seulement mes compétences techniques, mais aussi mes compétences Business en général. Je suis très excité par l’aventure Hacking House. » témoigne Biswajeet Kar, membre d’une des six équipes.

Les partenaires de la Hacking House de Paris sont : IMT Starter, Soracom, ST Microeletronics, Télécom ParisTech Entrepreneurs et Wisebatt.

Le lancement de la Hacking House Paris intervient quelques jours seulement après la fin de l’édition de Taiwan qui s’est achevée le 11 juin à Taipei par la présentation finale des projets des participants en présence notamment d'Audrey Tang, ministre du Numérique de Taïwan et Fleur Pellerin, ex-ministre française et initiatrice de la French Tech.

Plus d’informations sur la Hacking House Taipei :  https://thehackinghouse.com/taiwan/

Les six équipes

La majorité des participants sont des étudiants dont certains sont déjà entrepreneurs. Les autres débutent dans le milieu de l’entreprenariat. Ils sont répartis en équipe de 2 ou 3 et se sont vu attribuer les projets suivants :


  1. La première équipe est composée d’un étudiant brésilien de Polytechnique et d’un étudiant Chinois de Paris Diderot, l’un expert en algorithmique et l’autre en traitement du langage. Ils seront accompagnés par Olivier Isson, expert en Data Science chez Sigfox. Ensemble, ils devront trouver un moyen d’utiliser le réseau Sigfox en réseau de secours pour envoyer des SMS dans des situations où les réseaux traditionnels ne fonctionnent plus (en cas de catastrophe naturelle par exemple).
  2. La seconde équipe est composée d’une étudiante marocaine de l’ENSEA, un étudiant français de Polytech Sorbonne et un étudiant français de l’HKUST. Ils travailleront sur un projet dans le domaine du contrôle de la logistique pour le groupe Total et seront accompagnés pour cela par Hichem Zaafouri de l’IoT Agency de Sigfox.
  3. La troisième équipe est composée d’un étudiant brésilien de l’EISEE et d’un étudiant chinois de l’ISEN. Ils réfléchiront ensemble à une solution de compteur d’eau autonome en énergie. Leurs mentors seront Cyril Jouanlanne de l’IoT Agency & Nicolas Chalbos de la R&D de Sigfox.
  4. La quatrième équipe est un binôme d’étudiants indiens de l’ISEP et de Polytechnique. Leur mentor sera Clément Mannequin de l’IoT Agency. Leur mission consiste à trouver une solution pour offrir une meilleure assistance et supervision des décodeurs TV et routeurs Internet en utilisant une clé USB connectée au réseau 0G de Sigfox.
  5. La cinquième équipe est composée de deux jeunes entrepreneurs croates, accompagnés par Pauline Pham de la Sigfox Foundation. Ils chercheront à utiliser la technologie IoT pour surveiller les zones à fort risques d'inondation afin d’alerter la municipalité et la population locale en cas de catastrophe.
  6. La sixième équipe est composée d’un groupe d’étudiants français de l’ETNA repérés en ayant gagné un Hackathon avec leur idée de surveillance de la qualité de l’eau pour en éviter la pollution, particulièrement en Afrique. Sigfox leur propose du mentoring pour les aider à lancer leur start-up. Ils seront accompagnés dans cette aventure par Pauline Pham de la Sigfox Foundation et Maxime Schacht, Business Operation Manager chez Sigfox.


privacy


ForgeRock vient de divulguer un rapport sur les atteintes à la protection des données des consommateurs américains. Il révèle que les cybercriminels ont exposé 2,8 milliards de données de consommateurs en 2018. Ces fuites ont coûté plus de 654 milliards de dollars aux organisations américaines.
Les cyberattaques visant des sociétés de services financiers ont coûté plus de 6,2 milliards de dollars au premier trimestre 2019, en très forte hausse par rapport aux 8 millions de dollars au premier trimestre 2018. Même si les investissements dans les produits et services de sécurité de l'information sont en hausse (114 milliards de dollars investis en 2018), les cybercriminels parviennent encore à accéder aux données des consommateurs, quelle que soit l'industrie.

Selon l'étude, les renseignements personnels identifiables (RPI) étaient les données les plus ciblées en 2018, représentant 97 % de toutes les atteintes. En ciblant les RPI, les cybercriminels prouvent qu'ils recherchent avant tout les très grandes quantités de données sur les consommateurs. L'étude révèle également que la méthode d'attaque la plus fréquente est l'accès non autorisé à l'information. Elle représente 34 % de toutes les attaques. Les secteurs de la santé, des services financiers et gouvernementaux ont été les plus touchés par les cyberattaques.

"Nos recherches montrent clairement que les données personnelles des consommateurs sont très recherchées par les cybercriminels ainsi que très difficiles à protéger par les organisations", déclare Eve Maler, vice-présidente de l'innovation et des nouvelles technologies chez ForgeRock. "Les entreprises doivent protéger les données de leurs clients en mettant en place des programmes de gestion d'identité. Chaque industrie a intérêt à se prémunir des conséquences sur son image que peuvent avoir les fuites de données, ainsi que les coûts engendrés. Les organisations doivent donc utiliser des techniques modernes de gestion des identités et des accès pour sécuriser leur infrastructure, des serveurs dans les data centers, aux applications clients en passant par les appareils connectés."

Principales conclusions :

  • Près de la moitié (48%) de toutes les atteintes à la protection des données des consommateurs se sont produites dans le secteur des soins de santé, soit quatre fois plus que dans tout autre secteur ;
  • Les services financiers et le gouvernement étaient les deuxième et troisième industries les plus touchées, représentant collectivement 20% de toutes les atteintes à la vie privée ;
  • Bien que le nombre de fuites dans les services financiers ait diminué de 20 % au premier trimestre de 2019 par rapport au premier trimestre de 2018, plus de 26,9 millions de dossiers de consommateurs ont été compromis au cours du premier trimestre de 2019 seulement, soit une augmentation de 78 900 % par rapport au premier trimestre de 2018 ;
  • Les dates de naissance et/ou les numéros de sécurité sociale étaient le type de RPI le plus fréquemment compromis en 2018, 54% des atteintes ayant exposé ces données ;
  • Le nom et l'adresse physique (49%) et les renseignements personnels sur la santé (46%) étaient les deuxième et troisième types de RPI les plus souvent compromis en 2018.


Accédez au rapport complet (en anglais) ici