Les jeunes face à leur téléphone. DisobeyAr/ShutterstockCC BY-SA

Dr Mike Cooray, Hult International Business School et Dr Rikke Duus, UCL


Alors que les technologies digitales facilitent la croissance à la fois des organisations établies et émergentes, les facettes plus sombres de l'économie digitale commencent à émerger. Au cours des dernières années plusieurs pratiques peu éthiques ont été révélées, y compris la saisie et l'utilisation des données des consommateurs, des activités anticoncurrentielles, et des expériences sociales secrètes.
Mais que pensent de ce développement les jeunes qui ont grandi avec internet? Notre projet de recherche auprès de 400 natifs numériques de 19 à 24 ans, montre que cette génération aussi appelée _GenTech_pourrait bien être celle qui renverse la révolution digitale. Les résultats de notre recherche pointent vers une frustration et une désillusion sur la façon dont les organisations ont accumulé des informations consommateurs en temps réel, sans que ceux-ci n'en aient connaissance, et parfois même sans leur consentement.
Nombreux sont ceux qui comprennent que leur vie digitale a une valeur commerciale pour une variété d'organisations qui utilisent cette information pour le ciblage et la personnalisation des produits, des services et des expériences.
Cette ère d'accumulation en temps réel et de commercialisation de données sur les usagers a été baptisée le capitalisme de surveillance et est une nouvelle ère pour les systèmes économiques

L'intelligence artificielle

Un pilier central de la nouvelle économie digitale est notre interaction avec l'intelligence artificielle (IA) et les algorithmes d'apprentissage. Nos résultats montrent que 47% de la “GenTech” ne veulent pas que l'IA surveille leur mode de vie, leurs achats et leur situation financière afin de leur recommander des achats.
En fait, seulement 29% voient cela comme une interaction positive. Au contraire la plupart veulent garder l'autonomie dans leurs décisions et avoir la possibilité d'explorer de nouveaux produits, services et expériences, en toute liberté.

Le pendule de l'agence oscille entre l'individu et la technologie. Qui prendra le contrôle ?               boykung/Shutterstock


En tant qu'individus de l'ère digitale, nous négocions constamment avec la technologie afin qu'elle prenne ou donne le contrôle. Cet effet de pendule reflète la bataille constante entre l'humain et la technologie.

Ma vie, mes données?

Nos résultats révèlent aussi que 54% de la “GenTech” s'inquiètent quant à l'accès qu'ont les organisations à leurs données, tandis que seuls 19% n'ont pas d'inquiétude sur ce point. Malgré le règlement Européen sur la protection des données introduit en mai 2018, ceci les concerne toujours, basé sur la croyance que trop de données personnelles sont dans la possession d'un petit groupe d'entreprises mondiales comme Google, Amazon ou Facebook. Environ 70% ressentent cela.
Récemment, Facebook et Google ont annoncé que la politique de confidentialité est une priorité dans leur interaction avec les usagers. Les deux entreprises ont dû faire face à une révolte publique envers leur manque de transparence en ce qui concerne la façon dont ils recueillent et stockent les données de consommateurs. Ça ne fait pas si longtemps qu'un microphone caché a été trouvé dans un des systèmes d'alarme de Google.
Google prévoie de proposer une fonction d’effacement des données historiques de localisation géographiques des usagers, des historiques de navigation et d'utilisation des apps, et d'étendre son “mode incognito” à Google maps et à l'instrument de recherche. Ceci permettra aux usagers de couper tout suivi.
Chez Facebook, il tient à cœur au PDG Mark Zuckerberg de repositionner la plate-forme afin d'en faire une plate-forme de communication dédiée à la protection de la vie privée, construite sur des principes comme les interactions privées, le cryptage, la sécurité, l'interopérabilité (la communication entre les App et les plates-formes qui appartiennent à Facebook) et le stockage de données sécurisé. Ceci va être un retournement difficile pour une entreprise qui compte sur son agilité à convertir ses informations sur les usagers en opportunités pour des publicités très personnalisées.

Facebook essaie de rétablir la confiance. PK Studio/Shuttestock


La confidentialité et la transparence sont un sujet d'importance critique pour les organismes d'aujourd'hui – à la fois pour ceux qui ont grandi en ligne, et ceux établis. Alors que les GenTech veulent que les organismes soient plus transparents et responsables, 64% pensent aussi qu'ils ne peuvent pas faire grand-chose afin de protéger leurs données. Le suivi en ligne est vu comme une part intégrale de la consommation digitale.
Malgré cela, de plus en plus, la révolte se prépare en dessous de la surface. Les Gentech veulent s'approprier leurs données. Ils les voient comme une marchandise de valeur, qu'ils pensent pouvoir utiliser dans les négociations avec les organisations. 50% d'entre eux partageraient volontiers leurs données avec les entreprises, s'ils obtenaient quelque chose en retour, par exemple une motivation financière.

Réorganiser la balance des pouvoirs

Les GenTech cherchent une relation transactionnelle avec les organisations. Ceci reflète un important changement d'attitude, d'un point ou l'accès gratuit aux plates-formes digitales constituait le “produit” (en échange de données), à maintenant vouloir échanger ces données pour des bénéfices spécifiques.
Ceci a créé une opportunité pour les sociétés qui cherche à donner le pouvoir aux consommateurs et à leur redonner le contrôle de leurs données. Plusieurs sociétés offrent maintenant aux consommateurs la possibilité de vendre les données qu'ils acceptent de partager ou de prendre part dans de la recherche rémunérée. Un nombre grandissant de compagnies rejoignent ce groupe, y compris People.io, Killi et Ocean Protocol.
Sir Tim Berners Lee, le créateur du web, a lui aussi recherché un moyen de déplacer le pouvoir, des organisations et institutions vers les consommateurs et les citoyens. La plate-forme Solid offre aux usagers la possibilité de prendre charge de l'endroit de stockage de leurs données, et de qui peut y avoir accès. C'est une forme de re-décentralisation.
Le Solid POD (Personal Online Data storage – stockage personnel de données en ligne) est un lieu sécurisé sur un serveur sécurisé, ou sur serveur personnel privé. Etant donné que les données sont stockées de façon centrale et non par le développeur d'une App ou sur le serveur d'une organisation, les usagers peuvent choisir de donner à un App l'accès à leurs données personnelles. Nous considérons que ceci est potentiellement un moyen de laisser les individus reprendre le contrôle à la fois de la technologie et des entreprises.
Les GenTech se sont rendu compte que la réalité de la vie branchée a d'importantes conséquences sur leur vie privée et commencent à se rebeller, tout en questionnant les organisations qui ont montré peu de préoccupations et continuent à appliquer des pratiques exploitantes.
Ces signes de révolte ne sont pas surprenants. GenTech est la génération qui a le plus à perdre. Ils font face à un futur entrelacé de technologie digitale, à la fois dans leur vie personnelle et privée. Avec de plus en plus de pression sur les organisations afin qu'elles deviennent plus transparentes, il est temps pour les jeunes de faire un pas en avant.The Conversation

Dr Mike Cooray, Professor of Practice, Hult International Business School et Dr Rikke Duus, Research Associate and Senior Teaching Fellow, UCLCet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
numerique


La révolution numérique, à l’instar des précédentes révolutions industrielles, est porteuse d’opportunités sociales et professionnelles nouvelles : en matière d’accès aux services, d’emploi, de création, d’autonomie, d’exercice de la démocratie notamment.

Les mesures prises par le Secrétariat d’Etat au Numérique, dans le cadre de la « Stratégie Nationale pour un Numérique Inclusif », témoignent d’une prise de conscience de l’ampleur de la transformation et des difficultés qui en découlent. Le Défenseur des Droits, et de nombreux acteurs de la société civile s’inquiètent : tous les individus n’ont pas le même effort de compréhension et d’adaptation à fournir. En réponse, un grand nombre d’associations apportent également une aide essentielle aux personnes fragilisées dans l’immédiat par la dématérialisation des services.

Toutefois, n’avons-nous pas tendance à laisser de côté une part substantielle de la population ? Dans une société où la maîtrise de la culture, des codes, des compétences et des usages numériques conditionne de plus en plus la réussite de l’insertion sociale et professionnelle de chacun, n’est-il pas urgent de recentrer les stratégies d’inclusion numérique sur la jeunesse des territoires fragiles – quartiers populaires, territoires ruraux, Outre-mer ?

Bien qu’utilisatrice assidue d’Internet, cette jeunesse se limite principalement à l’usage de quelques réseaux sociaux. Au-delà, une frontière s’érige. La distance vis-à-vis du numérique vient ainsi se superposer aux inégalités existantes et les renforcer. Cette génération que l’on appelle à tort “digital native” a une maîtrise du numérique bien plus inégale que ce que l’on voudrait croire et manifeste sa peur des intelligences artificielles, de la robotisation du travail ...

L’apprentissage des compétences transversales (collaboration, capacité d’adaptation, créativité, pensée critique, communication notamment), des compétences numériques et de la citoyenneté numérique est d’une importance capitale. C’est le levier qui permettra à chacun d’être en mesure d’identifier, de comprendre et de saisir les opportunités du numérique, quel que soit son environnement d’origine.

L’école, garante de l’égalité républicaine, est longtemps restée en marge de ces évolutions. Heureusement, depuis quelques années, l’enseignement de la pensée informatique et créative entre progressivement dans les curriculums du primaire et du secondaire.

La récente mise en place d’un CAPES informatique, depuis longtemps demandé, va dans le bon sens. C’est en dotant les acteurs de l’éducation, via la formation initiale et continue, des connaissances et compétences nécessaires à maîtriser les enjeux du 21ème siècle que nous serons à même de répondre aux transformations massives de la société.

Car la pensée informatique est surtout le symbole d’une autre forme d’apprentissage, d’une ouverture sur le monde, d’une source de savoir et de compréhension au-delà des simples usages. Elle démultiplie le « pouvoir d’agir » et ouvre les perspectives des individus, à chaque étape de leur vie : élève, citoyen, parent,... A elle seule, elle dit aussi l’évolution du travail, la transformation de tous les métiers, l’apparition de nouvelles façons de travailler, et donc la valorisation de nouvelles compétences. Les recruteurs se montrent par exemple de plus en plus sensibles à la maîtrise des soft skills qui jouent un rôle crucial notamment pour assurer la cohésion d’équipe et renforcer la culture d’entreprise.

A l’heure où 80 000 emplois sont non pourvus dans le numérique, où les études montrent que 60% des métiers de demain n’existent pas encore et où le taux de chômage dans les quartiers populaires ne diminue pas, l’enjeu est aussi d’informer tous les jeunes sur les perspectives en matière de formation et d’emploi. Il s’agit de faire évoluer les idées reçues sur le numérique - qui serait l’apanage d’une poignée de geeks surdiplômés - et de déjouer l’autocensure, par exemple en permettant a` ceux qui sont déjà acculturés - notamment dans les entreprises - de partager leur expérience.

Afin de permettre à chacun, sans pré-requis académique ou social, de (re)trouver un emploi ou d’évoluer au sein d’une entreprise, il existe déjà des dispositifs de sensibilisation et des formations labellisées. Nous devons aujourd’hui aller plus loin, généraliser ces actions, et agir en amont du parcours de formation, notamment en garantissant l’acquisition des fondamentaux du numérique pour toutes et tous dans le cadre de la scolarité obligatoire et ce dès l’école primaire.

Le scénario inverse verrait l’émergence d’une culture d’élite, à l’initiative et au bénéfice quasiment exclusif de quelques privilégiés. On observe déjà un manque de diversité flagrant dans les métiers et entreprises du numérique ; les classes les plus éduquées sont à l’origine de la plupart des mouvements citoyens sur les réseaux sociaux. Peut-on priver toute une partie de notre jeunesse des opportunités offertes par le numérique ?

Nous devons défendre une vision résolument positive du numérique et tournée vers l’avenir : responsabiliser, éveiller les consciences, rendre acteur, ouvrir de nouveaux horizons a` tous les jeunes. Le principal défi social de l’ère numérique est bien celui de l’égalité des chances.

Tribune portée par INNOV’AVENIR dont la Responsable est Marjolaine GIRARD 
BABKINE Anthony, co-fondateur de Diversidays 
BELLAFIORE Jean-Marie, DG Délégué de BNP Paribas Personal Finance, Administrateur des Entreprises pour la Cité 
DALILI Djamchid, Fondateur de la 3W Academy 
DE QUATREBARBES Sophie, Coordinatrice du programme Class’Code 
DUROLLET François, Directeur Général de Simplon.co 
FEKI Abdelmoughith, Fondateur de SMARTEO 
HAMDI Mounira, co-fondatrice de Diversidays 
LALOU Anne, Fondatrice de la Web School Factory, l’Innovation Factory et la Fondation Factory 
ROUSSEL Stéphane, COO et Membre du Directoire de Vivendi, PDG de Gameloft, Administrateur des Entreprises pour la Cité 
RUHE Laura, Vice-Présidente en charge de la RSE de Factset 
SIMEON Jérôme, Président Capgemini France, membre du Comité Exécutif du groupe Capgemini 
VANDAMME Emmanuel, Président de la Mednum, la coopérative nationale des acteurs de la médiation numérique 
voyage


SEMrush, spécialiste mondial du marketing digital, vient de publier une enquête sur les recherches des Français sur le web (entre avril et juin) en lien avec le tourisme et les départs en vacances cet été.
Quelle compagnie aérienne ? Quel site de voyage ? « Le » livre à lire sur la plage ? Le cocktail phare de l'été ? Les voyages domestiques préférés ? Elements de réponses.

Compagnies aériennes : Air France seul au monde, le low cost a le vent en poupe

Parmi les compagnies aériennes les plus recherchés par les Français, Air France côté grands noms (bien loin devant les autres, cocorico !) et EasyJet côté low cost remportent la Battle des compagnies aériennes.
Le low cost reste très populaire : en plus d'EasyJet, 2 compagnies lowcost sont au-dessus du million de recherches : Ryanair et Transavia.

Les sites de voyage les plus recherchés : Tripadvisor loin derrière

Si la SNCF trône avec Airbnb en tête des recherches les plus populaires sur le web, Tripadvisor est loin derrière avec 1 million de recherches. A noter que le co-voiturage a encore de beaux jours devant lui : Blablacar reste très populaire avec 2,7 millions de recherches.

Préférences domestiques : PLM au top, le Nord dans le top 10, Nice absent

Partir oui, mais pour aller où ? En référence au sondage Ipsos, sur les 69% des Français qui ont prévu de partir en vacances, 56% d'entre eux préfèrent une destination... en France. Parmi les villes de l'hexagone les plus recherchées par les Français, Paris, Lyon et Marseille trustent les trois premières places.
Surprise (ou pas...), les Hauts-de-France sont à l'honneur avec, non pas Lille, mais Lens, 9e du classement avec 246 000 recherches ! Double surprise, une des villes touristiques les plus prisées de la Côte d'Azur, Nice (165 000 recherches), n'est pas dans le top 10 des recherches des Français sur le web.

Livre de plage & cocktail : des hobbits, du rhum et un zest de menthe

Arrivé sur la plage, c'est l'heure de sortir son livre des vacances et d'aller siroter un bon cocktail. Les Français ont tranché : le Seigneur des anneaux dans une main (49 500 recherches), un Mojito dans l'autre (90 500 recherches) !
iot



Par Frédéric Salles, Président et co-fondateur de Matooma 

En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché.

Courte distance : RFID/Bluetooth/WiFi

La RFID (Radio Identification) est la technologie la plus déployée à l'heure actuelle. Elle est souvent utilisée de manière passive (induction), dans des étiquettes ou des badges, afin de récolter de la donnée. On peut aussi l'utiliser pour faire communiquer les objets connectés entre eux. Le NFC (Near Field Communication), base du paiement bancaire sans contact, est un parfait exemple pour illustrer l'utilisation de cette technologie de manière active. Son intérêt premier est la consommation électrique nulle lorsqu'un objet est en attente. En revanche, la distance de lecture reste assez courte (de quelques centimètres à quelques mètres) ce qui ne permet pas de faire communiquer des objets connectés trop éloignés entre eux (choix idéal pour le télépéage par exemple).

Le Bluetooth est une technologie assez ancienne (1994) qui s'est développée conjointement au téléphone mobile avant d'exister de façon autonome. Ses évolutions ont permis une utilisation plus large dans le domaine de l'IoT : portée allant jusqu'à 100m, débits élevés, maillage des objets, etc.

La technologie WIFI, quant à elle, permet de relier sans fil plusieurs appareils entre eux afin de faciliter la transmission de données. Elle convient par exemple pour connecter les équipements de la maison (domotique) et pour tous les accès à Internet avec un très haut débit.

Réseaux LPWAN (basse Consommation, longue portée) non cellulaires : Lora/Sigfox

L'arrivée de technologies telles que LoRa et Sigfox a donné de nouvelles perspectives au marché IoT. Malgré leurs différences de design, ces deux technologies ont des particularités d'utilisation assez similaires et ont toutes deux été pensées spécifiquement pour l'IoT. Elles font partie des acteurs à l'origine de la notion de LPWAN (Low Power Wide Area Network) et apportent une portée plus importante ainsi qu'une bonne couverture en milieu urbain, dans les endroits enterrés et semi-enterrés. L'avantage principal de ces deux technologies réside dans l'amélioration de l'autonomie des objets.

Cependant, ces technologies ne s'adaptent pas à tout type d'application. En effet, il peut exister certaines limitations en termes de temps de latence, de débit supporté, de fréquences d'envoi de message par jour ou encore une bidirectionnalité qui n'est pas toujours assurée.

Longue distance/haut débit : réseaux cellulaires 2G, 3G, 4G

La carte SIM M2M mono-opérateur ou multi-opérateur permet de répondre à de nombreuses problématiques IoT avec un spectre d'applications très large et peut parfois même être utilisée en complémentarité avec d'autres technologies telle que LoRA ou le RFID. Capable de passer par les différents réseaux GSM (2G, 3G, 4G et bientôt 5G), les objets connectés par carte SIM M2M peuvent communiquer entre eux sans limitation de distance, via différents canaux (data, voix, SMS), et avec un volume de données important (débit élevé, taille des messages illimitée). Petit bémol, les objets connectés via carte SIM peuvent avoir une autonomie plus limitée que d'autres technologies de type LPWAN et des problématiques de couverture dans les endroits enterrés.

Pour les entreprises qui souhaitent déployer leurs objets connectés à l'international, la capacité de roaming d'une carte SIM est aussi un avantage. En effet, tout comme un smartphone par exemple, l'objet s'adapte aux réseaux cellulaires existants de n'importe quel pays (en France : Bouygues, SFR, Orange) pour une connectivité optimale et donc quasi permanente.

Réseaux LPWAN (basse consommation, longue portée) cellulaires : LTE-M/NB-IoT

Le LTE-M et le NB-IoT permettent aujourd'hui de bénéficier des avantages des technologies IoT « basse consommation » (Sigfox, LoRa…) sur des zones géographiques élargies (couverture dans plus de 180 pays). S'appuyant sur l'équipement existant, ces réseaux ne nécessitent pas de déployer une infrastructure et des antennes spécifiques.  Ils auront un intérêt important pour toutes les applications métiers avec des coûts d'interventions élevés nécessitant une autonomie importante du boîtier (sans branchement secteur) et/ou avec des problématiques de couverture indoor tout en cumulant les performances associées au réseau GSM (débit, gestion du handover, accès à la voix*…)

Choisir la meilleure technologie pour connecter son objet est un choix difficile et il convient de bien mesurer les fonctionnalités et déterminants qui seront associés au projet IoT.
En effet, pour des applications dites critiques, le temps réel semble indispensable. Pour de la vidéosurveillance, les débits et les volumes de données seront très importants et incompressibles. Dans des endroits difficiles d'accès, une autonomie améliorée pourra être appréciée pour éviter des déplacements de techniciens. Chacune des technologies ayant des points forts/points faibles, il convient véritablement de se poser les bonnes questions avant de finaliser son choix.
hdd




Par Samuel Mottet, Systems Engineer, Zerto

Les entreprises peuvent de moins en moins se permettre de perdre des données. Avec les gros titres fréquents sur les attaques de ransomware, l'hameçonnage, les fuites de données et les atteintes à la sécurité, le défi va en grandissant. La question qui se pose est la suivante : si le monde de l'informatique évolue, pourquoi le marché de la sauvegarde ne suit-il pas le mouvement ?

Sauvegarde : 1988 vs 2018


L'architecture de sauvegarde traditionnelle existe depuis l'invention de l'informatique. Elle fonctionne en copiant des données vers une autre architecture de stockage, à un moment précis. Cette opération est souvent effectuée la nuit et le plus vite possible, car elle a un impact sur le niveau de performance et sur l'infrastructure de l'environnement informatique. La sauvegarde n'a toutefois pas beaucoup changé au cours des trente dernières années et ne suit pas le rythme de l'ère digitale.

La sauvegarde a pour but de sécuriser les données pour en éviter la perte. Au fil du temps, les entreprises ont fini par se rendre compte qu'elles étaient fortement dépendantes de leurs données : de moins en moins d'entreprises sont en mesure de supporter des pertes de données quelles qu'elles soient. Une boutique en ligne ne peut pas se permettre de perdre 12 heures de données à cause d'une panne — non seulement elle perdrait douze heures de commandes et de ventes, mais sa réputation serait également impactée sur le long terme. Pour mettre ces informations en contexte, une étude récente a révélé que près de la moitié des entreprises ont subi un problème de récupération de données au cours des trois dernières années. Parmi elles, 20 % ont signalé une perte de clients, et 19 %, des dommages directs liés à la réputation de l'entreprise. Tout cela combiné peut malheureusement entraîner la fermeture/faillite d'une entreprise.


Des nouveaux business models régis par les données


De plus en plus d'organisations utilisent leurs données et ajustent leurs business models en fonction de ces données récoltées afin de générer davantage de ventes. Porsche est un bon exemple. Son objectif actuel est d'atteindre 30 % de chiffre d'affaires supplémentaire, non pas en vendant plus de voitures, mais en fournissant des services supplémentaires à partir de l'analyse des données reçues à la fois des voitures et des clients. Les clients reçoivent un abonnement d'entretien et des notifications signalant, par exemple, le besoin de remplacer les disques de frein après 5 000 kilomètres. Avec ces informations, Porsche récolte des données supplémentaires, qui peuvent à leur tour être analysées et utilisées pour générer des ventes supplémentaires.

Bien que de nombreuses entreprises deviennent de plus en plus dépendantes des données pour augmenter leurs activités, peu d'entre elles procèdent régulièrement à des audits de risques afin de s'assurer que ces données soient bien protégées. Si quelque chose devait se produire, que ce soit une panne, une attaque de ransomware ou une erreur humaine, quel serait le coût pour l'entreprise en termes de chiffre d'affaires, de fonctionnement ou d'atteinte à la réputation ? En réalité, de nombreuses organisations ne font ce calcul que lorsque le sinistre est déjà survenu, et c'est dans la majorité des cas trop tard.

Tests sur papier

L'un des principaux handicaps, en matière de reprise d'activité après sinistre et de sauvegarde, est que les tests sont souvent effectués sur papier. Effectuer un test de reprise d'activité après sinistre sur papier donne une impression de sécurité. Bien que beaucoup d'équipes informatiques considèrent que celui-ci simule efficacement la réalité, il n'en est rien. La récupération de sauvegardes incomplètes effectuées 24 heures auparavant peut prendre des heures. Les entreprises seront alors confrontées à des temps d'arrêt qu'elles ne peuvent pas se permettre, et qu'elles auraient pu éviter. Fondamentalement, les organisations doivent être en mesure de restaurer les systèmes et les données dans un délai extrêmement court.

Le futur de la sauvegarde avec la CDP


L'avenir de la sauvegarde se trouve dans la protection continue des données (CDP). La CDP est un mécanisme de protection qui consiste à capturer et à suivre en continu les modifications apportées aux données d'une entreprise et à enregistrer automatiquement chaque version créée par l'utilisateur soit localement, soit dans un référentiel de destination. Les nouvelles données sont copiées dans un fichier journalisé avec prise en compte des modifications. Grâce au suivi des blocs modifiés, l'utilisateur ou l'administrateur peut restaurer les données au point de reprise de son choix, avec une granularité remarquable.

La CDP assure une protection particulièrement efficace pour les applications métier et les données d'une entreprise. Grâce à la journalisation, toutes les modifications apportées dans un certain laps de temps sont consignées. La récupération peut ainsi se faire à n'importe quel point de reprise sur la durée couverte par le journal, avec une précision de quelques secondes. À l'inverse, la réplication incrémentielle et les snapshots entraînent des risques de perte, d'altération et d'indisponibilité des données. Ce qu'il faut aujourd'hui aux entreprises, c'est une reprise sur journal continue et précise, avec la possibilité de revenir en arrière sur quelques secondes ou plusieurs années. La présence de très nombreux points de reprise permet de limiter à quelques secondes la perte de données et réduit de façon significative l'impact des pannes et des interruptions.

Ce n'est qu'en adoptant ce type de sauvegarde que les organisations fourniront une expérience client sans faille et seront plus en phase avec l'ère digitale.
airbus


Par Laurent Porracchia, Responsable des ventes et membre du Comité Exécutif d'Airbus CyberSecurity

Le secteur de la cybersécurité se révèle aujourd’hui porteur d’un fort paradoxe : bien repéré par l’opinion publique, il peine à trouver des professionnels aguerris. Le sujet fait pourtant la une de nos journaux : en 2018, selon une étude de F-Secure, les cyberattaques ont augmenté de 32%, et la délinquance cybernétique a coûté quelque 600 milliards de dollars, contre 445 il y a seulement 4 ans (source Allianz). À l’échelle planétaire, les cyber-incidents sont devenus les premiers risques pour les entreprises, ex-aequo avec les interruptions d’activité. Voilà pour la partie émergée de l’iceberg… Car d’un autre côté, la pénurie de main d’œuvre du secteur est criante, avec seulement 1 recrutement pourvu sur 4 émis. Selon le Fongecif, 6000 postes restent encore à pourvoir en Ile-de-France, région qui emploie 70% des 24 000 salariés recensés à l’échelle nationale… Pour l’essentiel, il s’agit de CDI à temps complet !

Une élite au sein de nos entreprises

Les besoins sont donc bien là, et les métiers suffisamment variés pour accueillir un large panel de profils. La filière cybersécurité comporte actuellement 18 métiers, qui recrutent à partir du bac + 2, et ce jusqu’au bac + 8.  Cinq types de métiers sont envisageables, de l’organisation de la sécurité et gestion des risques au conseil, du management de projet à la maintenance, sans oublier les fonctions support et la gestion d’incidents. Les besoins les plus saillants en termes de recherches concernent les consultants, les veilleurs-analystes, les chefs de projets, les architectes sécurité et les administrateurs. Les formations sont également là, qu’elles soient longues (licences professionnelles, masters… 150 au total) ou courtes (400 actuellement recensées).
Que se passe-t-il donc ? Méconnue, pâtissant sans doute de sa dimension technique, force est de constater que la cybersécurité peine à attirer à elle les jeunes ou les salariés en quête de reconversion. Question de communication assurément ; question d’image également. Il y aurait fort à dire de ce métier dont les attributs répondent tout à fait aux enjeux de notre époque. Garants de la sécurité de nos données et de nos réseaux, les « cyber agents » veillent sur nos vies. Agissant dans l’ombre, devant faire preuve tout à la fois de sang-froid, de compétences et d’esprit d’équipe, ils constituent une élite au sein de nos entreprises, au même titre que nos pompiers ou nos forces de l’ordre à l’échelle sociétale. Comment passer à côté de la noblesse de leur tâche ? Il est urgent de construire autour de la figure de ces experts un story telling à la hauteur du rôle qui est le leur au quotidien, et qui constitue la garantie même de la stabilité de notre monde.


Le livre entame une révolution. pexels
Karen Cayrat, Université de Lorraine


La filière économique du livre constitue la première industrie culturelle de l’Hexagone. Si le marché du livre – papier et numérique – s’érode enregistrant une baisse de 3,5 % au premier trimestre d’après le tableau de bord du Livres Hebdo, les pratiques de lecture connaissent quant à elles un accroissement. Pour autant, l’apparition de l’Internet et des nouvelles technologies semble impacter et concurrencer l’imprimé. Comment expliquer la survie des livres à l’ère du numérique ?

Un héritage culturel

Si le papier renvoie à un long héritage culturel, riche de plusieurs siècles, il n’est cependant qu’un support parmi tant d’autres qui fait état de la lente évolution des usages, permet de fixer une écriture à un instant donné, et voué à s’adapter à une diffusion de plus en plus élargie.
L’imprimé s’est considérablement imposé au cours du XIXe siècle tandis que le XXe siècle lui fait connaître un certain essor grâce à l’émergence du format poche, l’attrait du public pour la littérature et l’internationalisation entreprise par les grandes maisons d’édition de l’époque.
Aujourd’hui le livre conserve un caractère symbolique ainsi qu’une autorité forte. C’est par sa publication que l’auteur advient. Son entrée dans un catalogue ou dans une collection spécifique l’inscrit dans le champ littéraire et sont pour le lecteur des marqueurs essentiels qui lui permettent d’identifier sa singularité ou d’éprouver sa notoriété et son prestige.

Le livre entame une (r)évolution

Selon Roger Chartier, spécialiste de l’histoire du livre, de l’édition et de la pratique de la lecture, le numérique constitue une révolution majeure d’une ampleur tout aussi importante que celle de l’imprimerie ou du passage du rouleau au codex.
Elle démultiplie les pratiques de lectures et ses bouleversements touchent autant la technique, le support que les usages et la perception des discours.
Alors que les Français consacrent près de 1h37 par jour à Internet et en dépit de la concurrence d’autres médias, la lecture, quel que soit son format séduirait de plus en plus. Sa pratique connaît aussi une progression notamment dans les transports en commun. Selon le baromètre sur les usages du livre numérique SOFIA/SNE/SGDL 2019, publié en mars dernier, 22 % des Français déclarent avoir lu un livre numérique, le taux le plus élevé observé au cours de ces 8 dernières années. Ce dernier favoriserait même le temps passé à lire, car 23 % des usagers liraient plus qu’avant. Le livre numérique n’est pas seulement l’apanage des jeunes, toutes les tranches d’âge sont concernées. Toujours d’après le baromètre sur les usages du livre numérique, les lecteurs ne se cantonnent pas au livre numérique.
Derrière l’ordinateur, les tablettes tactiles et les smartphones sont les supports privilégiés par les lecteurs interrogés, la liseuse quant à elle n’arrive qu’en quatrième place. Particulièrement adaptés à la mobilité, ces supports permettent d’emporter quantité d’ouvrages avec soi, pour une lecture studieuse ou de détente.
Toutefois les lecteurs ne se cantonnent pas au livre numérique, l’imprimé et les livres audio les intéressent tout autant. Il propose une lecture plus fragmentée, plus rapide qui intègre différents outils de recherche alors que le livre papier offre un confort oculaire et faciliterait la compréhension du texte.

Des technologies du livre papier

Le codex n’a rien à envier au numérique, il développe un autre rapport avec le lecteur. Jeux de textures, animations, dispositifs sonores, les éditeurs rivalisent d’ingéniosité pour maintenir en éveil les lecteurs, en particulier les plus jeunes, grâce à l’imprimé. Les pop-up books, ces livres dont les éléments se déploient en volume ou en mouvement à l’ouverture des pages, sont de plus répandus. En 2017, ils représentaient près de 10 % des livres jeunesse écoulés. Quant aux beaux livres, ils séduisent en intégrant les fac-similés de documents rares, d’archives, de manuscrits ou d’album de photographies.
Si les lecteurs restent attachés au livre papier, celui-ci devient bien plus qu’un simple support, il dépasse son rôle utilitaire pour se transfigurer en objet d’art (en témoignent les livres d’artiste, les sculptures sur livre ou en objet de collection.
Si le livre s’adapte en adoptant un format numérique (eBook, Mobi, PDF) les évolutions technologiques et l’Internet offrent aux créateurs l’opportunité de repenser leurs pratiques et de s’essayer à d’autres gestes, donnant lieu à des expériences de lectures différentes.

Une littérature numérique

Sites personnels, blogs, plates-formes en ligne, réseaux sociaux, la présence numérique des auteurs va croissant. Nombre d’entre eux investissent la Toile à des fins communicationnelles, par exemple pour valoriser et promouvoir leurs productions, ou à des fins littéraires qui leur permettent de se livrer régulièrement à de nouvelles expérimentations.
La communauté scientifique observe ainsi progressivement la constitution d’un champ, celui de la littérature numérique qui propose notamment des œuvres interactives à l’image de Déprise de Serge Bouchardon et Vincent Volckaert. Ces œuvres quelque peu méconnues du grand public et pour beaucoup élaborées dans des perspectives de recherche-création, s’inspirent du jeu vidéo et reposent sur la participation de l’internaute. Ludiques et originales, elles offrent au lecteur différents modes d’interaction avec le contenu affiché qui lui permettant de faire progresser la narration.
Poésie animée, générateur de textes, twittérature et autres formes de microblogging, la littérature numérique embrasse une multitude de formes et d’écritures. De plus en plus d’auteurs fluctuent entre publications papier et numérique, c’est le cas par exemple de François Bon qui depuis 1997 développe une plate-forme d’écriture, Le Tiers Livre. Ce site personnel, apparaît comme un espace pluriel qui rassemble les différentes pratiques de cet artiste transmédia et convie le lecteur à se perdre dans les méandres d’un labyrinthe perpétuellement enrichi à la découverte de son œuvre mais aussi entre autres de textes inédits, d’articles, de critiques, ou d’ateliers. On peut y suivre l’avancée de certains projets d’écriture qui arrivés à leur terme seront publiés en format papier.

Hors du livre, de nombreuses interactions

Outre la littérature numérique, les publications papier bénéficient également d’autres formes de littérature hors du livre. Lectures musicales, performances, spectacles, pour ne citer que ces quelques exemples, contribuent largement à véhiculer une autre image des Lettres et à attirer un public toujours plus large. En ce sens, ces formes nouvelles qui mettent en contact autrement auteurs et lecteurs participent à la fois au rayonnement, à la valorisation et ce faisant à la survie de l’imprimé.
De même, la vie littéraire, qu’elle soit portée à travers des résidences d’auteurs, des festivals et autres manifestations littéraires, dynamise et favorise les interactions entre acteurs culturels et passionnés dans l’ensemble de l’Hexagone. En témoignent le succès et la pérennité de certains salons, comme le Livre Paris, dont la 39e édition rassemblait en mars dernier plus de 160 000 visiteurs venus à la rencontre d’auteurs et d’exposants d’une cinquantaine de pays différents. Les rencontres et échanges sont aussi encouragés par les bibliothèques, clubs de lectures, boîtes à livre ou encore les applications de partage comme Booksquare ou Livres de Proches ou d’achats de livres telles que Booxup.

Des supports hybrides

À la charnière du papier et du numérique, certains projets conduits par des artistes, des éditeurs ou des entreprises cherchent à penser l’hybridation des supports. Le livre embarque alors entre ses pages de technologies et brouille les frontières entre papier/numérique comme l’illustre les catalogues de certaines marques capables d’intégrer un accès wifi ou de recharger votre smartphone. Faire apparaître ou disparaître des mots devient possible grâce aux encres thermochromiques comme le prouve le savoir-faire des éditions volumiques ou l’originalité du livre infini conçu par l’artiste Albertine Meunier dont les pages entièrement blanches ne dévoilent leur contenu qu’en les tournant.
Quel que soit son futur, le livre a donc encore de beaux jours devant lui.The Conversation

Karen Cayrat, Doctorante au CREM |SIC, Langue et Littérature françaises|Traductrice -interprète, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

meeting



Par Chris Huff, Directeur de la stratégie, Kofax

L'industrie est intrinsèquement complexe, avec plus de composants que jamais auparavant. Les chaînes de production sont géographiquement diversifiées. Les exigences réglementaires évoluent continuellement. Des quantités massives d'informations sont souvent stockées à l'extérieur des applications de l'organisation et sont difficiles, voire impossibles à accéder en cas de besoin. Et de nombreux fabricants s'appuient encore sur des processus qui consistent en grande partie, sinon entièrement, à effectuer des tâches manuelles et/ou sur papier, ce qui mine la productivité.

Heureusement, la majorité des fabricants sont désireux d'explorer la voie de l'automatisation, c'est-à-dire de s'éloigner de cette façon habituelle de travailler pour travailler comme l'entreprise de demain. Et beaucoup ont commencé à prendre les devants. Une enquête mondiale de Forbes Insights a révélé que 48% des organisations ont franchi la première étape cruciale : identifier les processus à automatiser, tandis que 46% ont déjà adopté un logiciel d'automatisation pour certains processus.

Mais pour de nombreux acteurs, l'objectif d'une transformation numérique à l'échelle de l'entreprise peut paraître plus une utopie qu'une possibilité. Parmi les obstacles courants à l'adoption de logiciels d'automatisation qui ont été signalés, on compte le manque de compétences (27 %), l'absence de rendement du capital investi (33 %), la conviction que le coût est prohibitif (42 %), le fait que les processus actuels ne sont pas en place (22 %) et le fait que les cadres supérieurs n'y sont pas favorables (27 %).

Ainsi, bien que la puissance de l'automatisation dans la transformation des opérations soit bien réelle, toute stratégie exige d'analyser de près le statu quo de l'entreprise, d'avoir une solide compréhension du marché et de rechercher l'expertise pour trouver le meilleur chemin vers la réussite.

Maintenir le cap vers une optimisation de l'entreprise


L'industrie manufacturière est un marché axé sur les documents, il n'est donc pas surprenant que de nombreuses activités de l'industrie soient encore, dans une certaine mesure, engluées dans des processus papier et/ou manuels axés sur les tâches. En fait, 9 % des fabricants interrogés ont déclaré qu'ils traitaient manuellement toutes les tâches et 31 % ont déclaré qu'ils pouvaient automatiser de petites tâches, mais qu'ils pouvaient compter sur les humains pour les assembler et vérifier chaque étape de leur travail. Moins d'un tiers d'entre eux ont indiqué qu'ils pouvaient automatiser plusieurs tâches ensemble pour dématérialiser un processus métier plus large avec une intervention humaine uniquement dans le cas d'exceptions. De toute évidence, des progrès ont été réalisés, mais il reste encore du chemin à parcourir.

Le grand nombre de documents faisant référence à la production, au commerce, au transport, au développement et à la liquidation éventuelle des biens a explosé au cours des deux dernières décennies. La mondialisation a imposé aux entreprises la mise en conformité des produits avec les normes de différents pays. Les effets de ces réglementations sont particulièrement visibles tout au long de la chaîne d'approvisionnement : les documents tels que les lettres d'expédition, les listes d'importation, les déclarations d'exportation, les bons de livraison, les carnets et les certificats d'origine doivent être livrés à des moments prédéterminés, soit avec les marchandises soit en amont.

En même temps, de nombreux constructeurs ont encore en fait des "îlots d'information" - les sites de production, les succursales, les départements et les unités commerciales ne partagent souvent pas efficacement leurs documents et données. Comme tous les employés ne sont pas en mesure de travailler avec la bonne information au bon moment, il en résulte un traitement inefficace et sujet aux erreurs.

Des processus plus intelligents pour des parcours plus faciles


Le bon déroulement des processus ne devrait pas contribuer aux goulots d'étranglement, mais plutôt les éliminer et aider à établir un lien entre les personnes et l'information dont elles ont besoin pour gérer les opérations quotidiennes. Et une solution d'automatisation devrait contribuer à la bonne circulation des données. Pour ne citer que quelques principales fonctions de l'automatisation pour les fabricants : planification de l'offre et de la demande, traitement des commandes, suivi et traitement des stocks, suivi des contrats etc...

La relation employé-client est également importante. L'automatisation permet aux travailleurs d'être libérés des tâches manuelles fastidieuses afin qu'ils puissent se consacrer à un travail à plus grande valeur ajoutée et axé sur le client.

Un nombre important de fabricants interrogés ont déclaré que la satisfaction des employés s'était améliorée grâce à l'automatisation : 31 % ont fait état d'une amélioration de 5 à 15 %, 26 % d'une amélioration de 15 à 25 % et 25 % d'une amélioration de 25 % ou plus.

Bon nombre d'entre eux ont fait état d'améliorations similaires en ce qui concerne la satisfaction de la clientèle : 30 % ont fait état d'une amélioration de 5 à 15 %, 35 % d'une amélioration de 15 à 25 % et 17 % d'une amélioration de 25 % ou plus.

Créer et gérer une main-d'œuvre numérique grâce à l'automatisation intelligente


Exploiter toute la puissance de l'automatisation pour fonctionner comme l'organisation du futur, exige de combiner de façon harmonieuse des capacités humaines et celles des agents logiciels. L'objectif est de créer une main-d'œuvre agile qui améliore les relations avec les partenaires ou clients, les bénéfices, la conformité réglementaire, la qualité et la précision des résultats tout en réduisant les coûts. Bien que de nombreux fabricants entreprennent le virage de la transformation numérique avec l'automatisation robotique des processus métier (RPA), un bon nombre d'entre eux choisissent d'aller au-delà de la simple RPA, en intégrant à l'automatisation intelligente les technologies complémentaires, telles que la capture cognitive, l'orchestration des processus, les analyses avancées, la mobilité etc...

Associer les capacités numériques avec celles des employés offre de nombreux avantages : services améliorés, coûts opérationnels réduits et une productivité accrue sans pour autant augmenter l'effectif. Le résultat ? Une main-d'œuvre composée d'humains et de robots qui collaborent pour transformer la capacité et la performance des activités commerciales, permettant ainsi aux entreprises de travailler, dès aujourd'hui, comme demain.


Par Pierre Patuel, Co-fondateur de DPii Télécom & Services

Si, dans le passé, des détracteurs pouvaient critiquer l'investissement et la durée d'implantation que représentaient une procédure de dématérialisation de documents au sein de l'entreprise, cette époque est révolue. En effet, il faut bien avoir en tête qu'il existe aujourd'hui des solutions adaptées au TPE/PME, dont les bénéfices directs et indirects dépassent largement les inconvénients dans un projet de dématérialisation.

Au-delà des aspects législatifs, qui pourraient inciter les entreprises à sauter le pas, la dématérialisation est aujourd'hui incontournable car elle permet en plus d'une gestion de documents plus fluide et sécurisée, des gains de temps et d'argent non-négligeables, notamment dans une démarche RSE.

Un gain de temps pour les entreprises


La dématérialisation est le meilleur moyen pour l'entreprise du XXIème siècle de s'adapter aux enjeux de son époque : plus de productivité et plus de rentabilité. Grâce à son application dans les entreprises, elle permet de réaliser un gain de temps considérable sur toutes les démarches administratives qui ont tendance à ralentir les employés.

Ainsi, la dématérialisation est synonyme de raccourcissement des temps de traitement des documents ainsi que des délais de réponse. En effet, en passant par une solution à 100% électronique, l'entreprise n'est plus dépendante des contraintes des envois papiers, et du traitement du courrier les jours ouvrés. Le temps passé en déplacement, à la rencontre de clients ou de prestataires, est également sérieusement diminué alors qu'il n'y a plus besoin de se rencontrer pour signer un document nécessitant deux signatures. La dématérialisation et donc la numérisation des documents permet également, grâce à l'archivage des documents, un gain de temps considérable pour la recherche documentaire. En effet, rechercher un document parmi des milliers de dossiers papier prend parfois tellement de temps à un employé que sa recherche revient 10 fois plus chère1 que sa seule production. Et il devient aussi désormais possible, grâce à la dématérialisation, de consulter un document n'importe où, n'importe quand, et même en-dehors de son lieu de travail, pour peu qu'on y ait une autorisation d'accès, c'est une aide précieuse pour le télétravail.

La dématérialisation est donc aussi une solution idéale pour optimiser et valoriser le travail des employés. Si moins de temps est consacré aux tâches administratives et répétitives de classement, recherche et archivage des documents, l'employé pourra davantage se concentrer sur des tâches à plus forte valeur ajoutée. En concentrant ses efforts sur des missions de première importance, l'entreprise en ressort alors gagnante.

Aspect non négligeable également : le temps économisé sur la sécurisation des données. Les solutions électroniques permettent de conserver l'intégrité des documents concernés par la dématérialisation. Ils ne sont plus sujets à d'éventuelles erreurs humaines ou failles de sécurité. Le temps passé à corriger ces erreurs est donc entièrement supprimé.

Des bénéfices économiques non-négligeables

La liste des économies qu'une entreprise peut réaliser en dématérialisant ses documents est longue et couvre tous les aspects d'une activité. En effet, en observant les entreprises qui ont eu recours à la dématérialisation, on remarque que celles-ci ont réalisé des économies :

  • Les coûts de traitement des documents ;
  • Les coûts d'éditique ;
  • Les coûts de distribution ;
  • Les coûts du papier ;
  • Les coûts d'impression ;
  • Les coûts de mise sous pli et d'affranchissement des envois postaux.

Ainsi, la facture électronique entrante coûte jusqu'à 10 € de moins (Source: GS1 France 2010) que la même facture papier, et la facture électronique sortante coûte jusqu'à 6,50 € de moins que la même facture papier. Ainsi, le gouvernement estime - après étude - que la dématérialisation des factures représente une économie de l'ordre de 50% à 75% par rapport à un traitement papier et réduit le coût de traitement d'environ 30%.

A l'échelle européenne, les initiatives de dématérialisation sont très largement encouragées, voire plébiscitées. En effet, après des études menées sur l'ensemble des marchés publics européens, la Commission Européenne a dévoilé dans un communiqué ses directives en ce qui concernait la dématérialisation appliquée aux administrations publiques et aux marchés économiques (La facturation électronique dans le cadre des marchés publics: une nouvelle avancée vers la passation électronique de bout en bout des marchés publics et vers l'administration électronique en Europe.). Ces études mettaient en exergue les économies potentielles pouvant être réalisées si l'ensemble des acteurs des marchés publics européens avait recours à la dématérialisation. Un total de 2,3 milliards € pourrait être économisé rien qu'avec la seule numérisation des factures.

Un geste pour la planète, une démarche RSE intelligente !

La dématérialisation est une solution d'avenir dans un monde toujours plus soucieux de l'empreinte carbone laissée par ses activités. En effet, de plus en plus d'entreprises réfléchissent à développer leur activité en se faisant toujours plus respectueux de l'environnement.

D'après l'entreprise de solutions globales de dématérialisation DPii, il est estimé que 75% des déchets de bureaux sont du papier. En France, nos habitudes et notre culture font que nous sommes particulièrement friands de papier et de gestion matérielle des documents. Ainsi, la France à elle seule représente 3% de la consommation mondiale de papier.

C'est donc un travail de fond qu'il faut effectuer pour changer les habitudes des employés des entreprises françaises afin qu'ils ne tendent plus systématiquement vers le traitement matériel des documents. La dématérialisation peut être une des solutions pour transiter vers des modèles écologiques plus viables, en remplaçant la vaste quantité de documents papier par des versions numériques, par exemple.

Salles









Par Frédéric Salles, président de Matooma

L’été dernier l’ARCEP lançait le processus de test de la 5G en autorisant des licences expérimen-tales pour les industriels, valables un an et renouvelables.
Aujourd’hui ce sont essentiellement les grands opérateurs qui sont chargés d’expérimenter cette technologie dans les neuf villes-test dé-signées par l’ARCEP. Des relais vont ensuite y être définis afin de positionner les bornes 5G.

Cependant, plusieurs acteurs se préoccupent du manque de visibilité en la matière et se posent la question de la date exacte de son déploiement : la France ne devrait réellement commencer le déploiement à grande échelle qu’en 2022. Tout d’abord, parce qu’il est nécessaire de couvrir le territoire en 4G, mais aussi parce que l’ARCEP n’a pas encore lancé d’appel d’offres pour l’acquisition des licences 5G.

Dans ce contexte, nous pouvons aussi nous poser la question des conséquences de l’arrivée de la 5G pour les particuliers et les professionnels. D’un point de vue technique, la norme 5G est com-posée de deux canaux : un canal pour les usages très haut débit (entre 700Mb et 1Gb par seconde) et un canal pour les usages bas débit destinés aux applications de l’IoT et du M2M (objets connec-tés).
En clair, lorsqu’un utilisateur téléchargera un film HD sur un PC, une tablette ou un téléphone avec la 5G, cela ne lui prendra que 5 secondes.

Pour les objets se connectant à Internet (alarmes, panneaux photovoltaïques, horodateurs, distri-buteurs de boissons…), les utilisateurs auront le choix entre les réseaux 3G/4G, les réseaux bas débits ou le canal bas débit de la 5G qui sera aussi faible en consommation d’énergie. Cette nou-velle technologie permettra ainsi aux opérateurs d'adresser aussi bien les entreprises souhaitant du haut débit que celles aspirant à du bas débit. Deux normes en encadrent les usages, que sont la NB-IOT de Huawei et la LTE-M d’Ericsson.

Autre avantage, la latence de la connexion à Internet. Actuellement, lorsqu’un utilisateur se con-necte sur un site web à partir de son smartphone, le délai de chargement de la page est inférieur à 1 seconde. Avec La 5G, ce temps sera de 1 milliseconde, soit immédiat pour l’œil humain.

Dans le monde actuel, pour connecter un objet il faut choisir entre un réseau bas débit ou le ré-seau GSM (2G, 3G, 4G). Demain, la 5G simplifiera considérablement les choses avec un seul com-posant qui pourra accéder aux deux fréquences. Cela facilitera les déploiements IoT à grande échelle car jusqu'à présent, les entreprises pouvaient hésiter entre ces deux possibilités.

Toutefois, il y a un bémol. En effet, les coûts que vont payer les opérateurs de téléphonie pour acquérir des licences 5G vont se négocier en milliards d’euro (en Allemagne, nous en sommes à plus de 5 milliards d’euro) et pourraient influer sur la tarification des futurs forfaits 5G.

Selon les derniers chiffres annoncés par les organisateurs du Salon Mobile World Congrès 2019, le nombre de connexions IoT (cellulaires et non-cellulaires) triplera d'ici 2025 pour atteindre un nombre de 25 milliards de connexions . La gestion d’un nombre élevé d’objets connectés est donc un enjeu crucial que la technologie 5G pourra relever afin de gérer facilement ces flottes d’objets et d’assurer leur connexion.


alexa
La gamme d'enceintes connectées Echo d'Amazon



Avis d'expert de reichelt elektronik

Qu'il s'agisse d'Amazon, de Google, d'Apple ou de Microsoft, les grands noms de la tech cherchent tous à dominer le marché des assistants vocaux. La croissance annuelle des ventes d'enceintes connectées confirme l'appétence des consommateurs pour cette nouvelle technologie, dont certains prédisent déjà qu'elle finira par supplanter toutes les autres interfaces utilisateur. Il reste pourtant aux acteurs du secteur des défis majeurs à surmonter pour faire de la commande vocale l'interface de choix pour les utilisateurs. reichelt elektronik, l'un des plus grands distributeurs en ligne d'électronique et de technologie informatique en Europe, fait le point.

Défi n°1 : Surmonter les stéréotypes sexistes de la technologie


Alexa, Siri, Cortana – les assistants vocaux parmi les plus connus et les plus populaires sont tous dotés de voix féminines et considérés comme des femmes, dans le rôle d'assistantes patientes et dociles, qui obéissent au doigt et à l'œil des donneurs d'ordre. Selon l'Unesco, cette situation est préoccupante car elle contribue à véhiculer et à renforcer les stéréotypes sexistes. Dans un rapport publié cette année, l'Unesco s'inquiète notamment de la manière dont les assistants vocaux sont programmés pour répondre avec indulgence à la violence verbale ou même flirter en réponse aux commentaires à caractère sexuel.
L'IA qui équipe les assistants vocaux étant inévitablement influencée par les données dont elle apprend, elle hérite directement des préjugés, stéréotypes et des attitudes discriminatoires humaines. L'enjeu, pour les fabricants, est donc de parvenir à éliminer les préjugés sexistes de leurs systèmes afin d'offrir une expérience satisfaisante à tous les utilisateurs, indépendamment de leur sexe.

Défi n°2 : Utilisation de la commande vocale dans les lieux publics


La technologie de commande vocale fait face à une autre difficulté relativement peu abordée : celle de son utilisation dans les espaces publics, comme les trains ou les restaurants. Dans de tels scénarios, le premier problème qui se pose est évidemment celui de la confidentialité des informations qui, si elles sont dictées par la voix, seront de facto partagées à toute personne se trouvant à proximité.
Mais la perspective d'une utilisation en public pose aussi la question des nuisances sonores. Si au lieu de swiper, de cliquer et de taper sur leur clavier, les utilisateurs se mettaient tous à utiliser la commande vocale dans un wagon ou une salle de restaurant, les niveaux sonores deviendraient très vite excessifs. Difficile donc, dans un tel contexte, d'imaginer que la commande vocale pourrait venir remplacer les autres interfaces auxquelles nous sommes habitués.

Défi n°3 : Vers 100% de reconnaissance vocale


Si la technologie a fait des avancées considérables ces dernières années en matière de reconnaissance de la parole et que les fabricants travaillent d'arrache-pied pour la perfectionner, les assistants vocaux ne sont pas encore en mesure de comprendre la totalité des requêtes qui leur sont adressées. Et l'exercice s'avère encore plus délicat lorsque les assistants se retrouvent confrontés à un accent régional ou à certains dialectes.  Pour l'heure, l'utilisation réussie de la commande vocale requiert donc encore des efforts de la part des utilisateurs (répétition d'un énoncé, reformulation, ralentissement du débit de parole, adaptation du volume sonore). Mais, selon une récente étude reichelt elektronik / OnePoll, 32 % des Français affirment n'être pas convaincus que leurs requêtes seront comprises correctement.


La société spécialisée FireEye a identifié des activités de spearphishing (harponnage) conduites par le groupe de menaces iranien  APT33 en parallèle avec un climat de tension accru dans la région du Golfe et avec les Etats Unis. La campagne de spearphishing a ciblé à la fois les secteurs privé et public aux Etats-Unis. Cette activité est compatible avec la collecte de renseignements, et il est probable que le régime iranien utilise aussi du cyber espionnage pour réduire ses incertitudes entourant le conflit. A noter qu’APT33 a dans le passé effectué des attaques destructrices s’ajoutant à la collecte de renseignements.

Cibles aux Etats-Unis

Avant la signature de l’accord sur le nucléaire iranien, JCPOA, des acteurs iraniens ont mené des attaques destructrices et perturbatrices sur des cibles multiples aux Etats Unis. Toutefois, ces dernières années, des attaques similaires menées par des acteurs iraniens ont principalement eu lieu au Moyen Orient, ciblant des organisations du secteur privé telles que des compagnies pétrolières et gazières.

Le lancement d’attaques destructrices et perturbatrices est une capacité que l’Iran peut utiliser pour causer des dommages économiques sans provoquer une escalade significative du conflit, tout comme lors de ses précédents sabotages de compagnies maritimes. De plus, si les Etats Unis mènent des cyber attaques comme annoncé, l’Iran peut utiliser ses propres capacités comme un moyen de réponse proportionnée. S’il s’avère qu’une action américaine s’est concentrée uniquement sur des cibles militaires, l’Iran peut choisir d’attaquer des cibles moins stratégiques où il détient un avantage asymétrique.

L'avis d'expert de Ryan Kalember, vice-président directeur de la stratégie de cybersécurité chez Proofpoint
« Les tensions récentes entre l'Iran et les États-Unis soulignent la façon dont les gouvernements ont intensifié leur recours aux « cyber options » dans le traitement des conflits internationaux. Au cours des derniers mois, les chercheurs Proofpoint ont observé l'activité de l'APT iranienne ciblant principalement l'enseignement supérieur. Dans ces campagnes, les méthodes d'attaque reflètent le paysage mondial de la menace dans son ensemble, les cybercriminels poursuivant les individus plutôt que les infrastructures. Ces groupes tirent régulièrement parti des vols d’identifiants en usurpant les portails de connexion d’organisations ciblées et utilisent des services d'URL raccourcis pour ainsi livrer des charges utiles malveillantes et complexifier davantage les campagnes.
Nous avons également vu des acteurs iraniens usurper des logos du gouvernement américain dans des emails contenant des documents malveillants et utiliser une variété d'outils publics ainsi que leurs propres outils non publics pour livrer des charges utiles malveillantes à des individus spécifiques dans des organisations ciblées. »
ordinateur


Cédric O, secrétaire d’État chargé du Numérique, et Olivier Sichel, directeur de la Banque des Territoires, viennent d'annoncer les 11 projets lauréats de l’appel à projets « Hubs Territoriaux pour un Numérique Inclusif » mis en œuvre et financé par la Banque des Territoires en partenariat avec la mission Société numérique de l’Agence du numérique.



Parmi les lauréats, le projet Hub Occitanie, l'un des plus importants de France, sera chargé de l’accompagnement des aidants numériques pour la région Occitanie.

13 millions de Français éloignés du numérique


Le rapport de la Stratégie Nationale pour un Numérique Inclusif, publié en avril 2018, conclut que dans un contexte de numérisation des démarches et de transformation numérique des politiques publiques, l’offre de médiation n’est ni suffisante ni suffisamment coordonnée pour pouvoir répondre aux besoins croissants des citoyens en matière de formation.

En effet, malgré un contexte d’accroissement des équipements et de développement des usages, 13 millions de Français restent éloignés du numérique.

Enveloppe de 5 millions d’euros


Pensé pour fédérer les acteurs du numérique à l’échelle locale et aider les territoires à répondre aux besoins de leurs populations, l’appel à projets des Hubs Territoriaux pour un Numérique Inclusif a été doté d’une enveloppe de 5 millions d’euros. 

Il a pour objectif de financer une dizaine de projets de Hubs interdépartementaux répondant aux missions suivantes :
  • Recenser, articuler et coordonner les aidants numériques pour faire converger les projets vers des priorités territoriales définies avec les collectivités et les services de l’Etat 
  • Lever des fonds et aider à mobiliser toutes sources de financement (notamment européennes) en montant des projets à plus grande échelle 
  • Mutualiser et apporter de la valeur aux acteurs de terrain en créant des centres de services partagés (mutualisation de parcours de formations pour les aidants, partage d’outils et de ressources humaines…) 
  • Evaluer l’efficacité des services rendus sur le territoire et en informer les collectivités et les instances nationales concernées.
L’instruction des projets candidats a été effectuée par un jury composé d’une dizaine de personnalités indépendantes.

450000 € pour le Hub Occitanie


Le Hub Occitanie va recevoir une subvention de 450000€. L'association La Mêlée, réseau de lieux de l’écosystème numérique occitan, s’est associée à un collectif de cinq acteurs locaux de l’inclusion numérique regroupés sous la bannière Coll’in (Collectif pour l’Inclusion numérique).

L’appel à projets leur permet de coopérer ensemble pour mutualiser leurs actions et proposer leurs services à l’ensemble des acteurs de l’inclusion numérique sur le territoire visé, où le public éloigné du numérique est estimé à environ 430 000 personnes.




Le comédien Keanu Reeves au casting de Cyberpunk 2077 (CD Red Projekt) venu enflammer la scène de la conférence Microsoft. Un feu davantage allumé avec de l'alcool qu'avec des brindilles diront certains…
Guillaume Labrude, Université de Lorraine


Cette année, certaines questions obsèdent professionnels et joueurs : qu’en sera-t- il de la prochaine génération de consoles, du développement du cloud gaming – le fait de jouer en streaming sur des serveurs communs –, des fusions pour contrer l’arrivée de Google sur le marché ?
C’est donc Stadia, la fameuse « console » de Google, qui a ouvert les festivités. Ce service multi-écran coûte une dizaine d’euros par mois pour le pack pro et donne accès à un catalogue de jeux qui s’étoffera au fil du temps. Une trentaine de titres sera disponible à son ouverture en fin d’année 2019. En termes de hardware, une manette spéciale de plus d’une centaine d’euros sera lancée et Baldur’s Gate 3 fera partie des jeux pionniers. Difficile d’imaginer l’intérêt des joueurs déjà équipés pour cette offre qui ne possède à l’heure actuelle aucune exclusivité.

La manette Stadia, le contrôleur officiel du service vidéoludique de Google.

Des contenus attendus mais sans surprise

Le studio Electronic Arts se contente depuis quelques années de communiquer autour de ses licences phares et le programme des jeux abordés a été éventé en amont ; la bande-annonce de Fifa 20 a notamment été diffusée quelques minutes avant le lancement. Outre le retour d’un mode « foot de rue » dans cette nouvelle mouture, la majorité des simili-nouveautés proposées étaient des extensions. La saison 2 d’Apex Legends, concurrent essoufflé de Fortnite, et le nouveau contenu téléchargeable des Sims 4, un jeu datant tout de même de 2014, faisaient figures d’amuse-bouches.


On retiendra de cet EA Play la démonstration de 15 minutes de Star Wars Jedi : Fallen Order, nouvelle adaptation de l’œuvre de George Lucas s’inscrivant directement dans les canons de la licence cinématographique. Mais pour de nombreux joueurs, le jeu est graphiquement et physiquement daté et semble bien trop facile, l’intelligence artificielle des personnages non joueurs n’étant clairement pas au niveau. Les tests de Star Wars Jedi : Fallen Order réservés aux professionnels semblaient toutefois plus prometteurs même si le jeu est encore en version Alpha alors qu’il sort en novembre.


Chez Microsoft, un catalogue prometteur

Comme l’an dernier, la conférence Microsoft fût extrêmement riche en contenu entre une manette technologique vendue pour la modique somme de 180 $ directement sur dle site du constructeur et le projet Scarlett daté pour la fin 2020. Microsoft a laissé défiler les bandes-annonces de jeux bien souvent attendus comme Cyberpunk 2077 enfin daté pour le 16 avril 2020, The Outer World promettant un univers post-apocalyptique façon Fallout tout autant que Wasteland 3, dont le premier opus en 1988 avait servi de base à la licence initiée par Tim Cain.
Quelques jeux indépendants et conceptuels comme l’envoûtant Way to the Woods, la suite du poétique Ori and the Blind Forest baptisée The Will of the Wisps ainsi que le narratif 12 Minutes ont pointé le bout de leur nez entre deux super-productions. Mais c’est bien Halo Infinite (500 millions de dollars de budget pour le premier titre de la Scarlett) avec Gears 5, soit les deux plus grosses exclusivités de Microsoft, qui ont animé la soirée.
La rumeur voulait, depuis quelque temps, que George R.R. Martin, l’auteur de la saga A Song of Ice and Fire plus connue en tant que Game of Thrones pour la télévision, se soit associé avec le studio japonais From Software et son directeur Hidetaka Miyazaki pour la mise en chantier d’un jeu de rôle en monde ouvert lié à la mythologie nordique. Les premières images de Elden Ring sont venues le confirmer avec une esthétique visuelle et sonore plus proche de ce que faisait From Software avant Sekiro. Son dernier titre en date se déroulait dans le Japon de l’air Sengoku et s’est retrouvé au cœur de quelques polémiques rapidement éteintes autour de sa redoutable exigence en terme de gameplay, l’anglicisme désignant la façon de jouer à un jeu vidéo ainsi que ses règles intrinsèques.

Elden Ring, fruit de l’association entre Hidetaka Miyazaki et George R.R. Martin, serait un jeu de rôle en monde ouvert proposant plusieurs royaumes en ruines à explorer à dos de cheval dans un univers inspiré de la mythologie scandinave. From Software oblige, l’exigence sera au rendez-vous sous peine de mise à mort à répétition, mais également un haut potentiel pour les amateurs de speedrun.</movie.

Retours en grâce ?

Si l’on ne peut pas dire que l’E3 2018 ait été catastrophique pour les studios Bethesda, notamment grâce à une annonce en grandes pompes de The Elder Scrolls VI, l’année qui suivit ne fut pas de tout repos pour l’image de la firme. Son titre Fallout 76 fut l’un des plus cuisants échecs en terme de réception critique, aussi bien par les joueurs que par les professionnels.
Avec l’annonce d’un désormais classique mode Battle Royale pour ce jeu tant décrié, mais également la présentation de deux nouvelles licences, un jeu d’action tinté d’exploration intitulé Ghostwire Tokyo dont le moteur graphique semble merveilleux (mais ça n’est pas du in game) et le mystérieux Deathloop des Français de chez Arkane Studios, l’édition 2019 de l’Electronic Entertainment Expo a su se montrer plutôt rassurante pour les équipes de Todd Howard. Les studios soulignent un peu plus leur persistance dans le paysage vidéoludique en mettant à jour Fallout 76. On notera néanmoins une instrumentalisation maladroite de quelques joueurs et joueuses dans la vidéo de présentation du studio qui ressemble à une malheureuse propagande sentimentaliste.
En 2018, Square Enix avait déçu en présentant des jeux attendus mais au rendu graphique encore faible comme Shadow of the Tomb Raider ou tout simplement un titre que personne n’espérait, The Quiet Man, dont la technologie datée rappelait les jeux en FMV des années 1990. En 2019, le studio se renouvelle avec une licence adaptée d’Avengers, dont le rendu physique et la direction artistique plutôt tièdes ne sont pas sans rappeler le manque d’âme de la réalisation des frères Russo sur le pendant cinématographique de la série. Entre cinématiques et phases de gameplay, le remake du septième épisode de Final Fantasy a pallié son absence regrettée l’an passé. Le titre proposera une aventure épisodique dont le premier serait contenu sur deux disques Blu Ray, une place conséquente appelant à imaginer un jeu gourmand nécessitant des moyens optimaux pour vivre au mieux la refonte de cette légende vidéoludique.
Comme Final Fantasy XV, ce remake ne proposera pas de combats au tour par tour mais des affrontements en temps réel avec, cette fois-ci, la possibilité de contrôler différents personnages et de suspendre le temps pour se concentrer davantage sur la stratégie.

Du catastrophique Secret of Mana à l’excellent Resident Evil 2, les remakes de jeux vidéo se multiplient. Ici, une refonte complète de l’un des titres les plus adulés de l’Histoire vidéoludique qui sortira sous format épisodique.

Alors que le Nintendo Direct de 2018 avait déçu en se focalisant essentiellement sur les personnages de son Super Smash Bros Ultimate, devenu depuis un véritable incontournable de sa Switch, et en ne donnant aucune nouvelle du très attendu Metroïd Prime 4, toujours absent cette année pour cause de reboot du développement, le constructeur légendaire a su cette fois-ci conclure l’E3 en beauté. Luigi’s Mansion 3, le remake de The Legend of Zelda : Link’s Awakening, celui du culte Panzer Dragoon et le portage de The Witcher 3_ sur Switch confirmaient la tendance au recyclage très présente lors de cette édition.
Heureusement, le traditionnel « one more thing » en fin de conférence a su ravir la communauté du constructeur nippon : Breath of the Wild, le titre adulé qui marqua l’arrivée de la Nintendo Switch, aura droit à une suite directe, une première dans l’histoire éditoriale de The Legend of Zelda dont les opus demeuraient toujours indépendants. Cette année, Nintendo s’est à nouveau imposé et a marqué les esprits en prouvant, s’il était encore nécessaire de le faire, que sa dernière machine en date n’est en rien une console d’appoint, c’est-à-dire une console sur laquelle on s’attarde dès lors que le catalogue des autres comme Xbox et PS4 n’a rien de neuf à proposer, mais bien comme un outil incontournable de la grande histoire du jeu vidéo, de par ses œuvres phares.

La suite de The Legend of Zelda : Breath of the Wild est en développement… une véritable bonne nouvelle pour ce titre historique ou simplement de quoi nourrir les foules par manque de véritables nouveautés, comme Bethesda l’avait fait l’an dernier avec le teaser de The Elder Scrolls VI ?

Vers 2020, et au-delà

Comme à son habitude, le facétieux studio Devolver a proposé une conférence parodique taclant aussi bien la concurrence que ses propres productions à grand renfort de pastiches là où le PC Gaming Show est resté fidèle à sa réputation en proposant une conférence peu engageante réservée à une fange de joueurs bien précise. Non sans humour, Limited Run Games s’est encore une fois lancé dans un show différé pour dévoiler les différents portages en cours. Enfin, le VR Showcase avait la lourde tâche de convaincre public, journalistes et investisseurs que les casques de réalité virtuelle ont de beaux jours devant eux. Si de nombreux talents indépendants proposent des jeux plutôt originaux et décalés comme un Team Fortress invitant les joueurs à incarner des saucisses en guerre (intitulé de fait Meat Fortress) ou un simulateur de destruction de chambres d’hôtel façon rockstar (Hotel RNR), la majorité des titres demeurent de simples jeux de tir à la première personne.

Actif depuis la fin des années 1990, MisterMV est assurément l’une des personnalités françaises les plus importantes lorsqu’il s’agit de traiter du jeu vidéo. Musicien mais également streamer au grand cœur capable de lever des dizaines de milliers d’euros pour Médecins Sans Frontières lors du Z-Event, il commente avec précision l’E3 depuis quelques années, toujours avec une grande dose d’humour et de dérision.

Si l’on peut saluer quelques nouveautés encore non révélées mais annoncées officiellement comme le très politique Watchdogs Legion d’Ubisoft, ou Avengers de Square Enix, peu de surprises et peu de gameplay étaient au rendez-vous cette année. Cette édition fait office de transition avant que les véritables enjeux que sont le cloud gaming, la nouvelle génération de consoles et les différentes alliances entre les constructeurs ne soient abordés, sans doute en 2020. Au regard de l’an passé, la tendance s’est inversée : les géants ayant marqué l’E3 2018 se sont reposés sur leurs lauriers là où les firmes qui avaient déçu, comme Square Enix ou Nintendo, ont opéré une véritable opération séduction, le remake de Final Fantasy VII et la suite de Breath of the Wild ayant été deux des temps forts de ce cycle de conférences.The Conversation

Guillaume Labrude, Doctorant en études culturelles, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.