meeting



Par Chris Huff, Directeur de la stratégie, Kofax

L'industrie est intrinsèquement complexe, avec plus de composants que jamais auparavant. Les chaînes de production sont géographiquement diversifiées. Les exigences réglementaires évoluent continuellement. Des quantités massives d'informations sont souvent stockées à l'extérieur des applications de l'organisation et sont difficiles, voire impossibles à accéder en cas de besoin. Et de nombreux fabricants s'appuient encore sur des processus qui consistent en grande partie, sinon entièrement, à effectuer des tâches manuelles et/ou sur papier, ce qui mine la productivité.

Heureusement, la majorité des fabricants sont désireux d'explorer la voie de l'automatisation, c'est-à-dire de s'éloigner de cette façon habituelle de travailler pour travailler comme l'entreprise de demain. Et beaucoup ont commencé à prendre les devants. Une enquête mondiale de Forbes Insights a révélé que 48% des organisations ont franchi la première étape cruciale : identifier les processus à automatiser, tandis que 46% ont déjà adopté un logiciel d'automatisation pour certains processus.

Mais pour de nombreux acteurs, l'objectif d'une transformation numérique à l'échelle de l'entreprise peut paraître plus une utopie qu'une possibilité. Parmi les obstacles courants à l'adoption de logiciels d'automatisation qui ont été signalés, on compte le manque de compétences (27 %), l'absence de rendement du capital investi (33 %), la conviction que le coût est prohibitif (42 %), le fait que les processus actuels ne sont pas en place (22 %) et le fait que les cadres supérieurs n'y sont pas favorables (27 %).

Ainsi, bien que la puissance de l'automatisation dans la transformation des opérations soit bien réelle, toute stratégie exige d'analyser de près le statu quo de l'entreprise, d'avoir une solide compréhension du marché et de rechercher l'expertise pour trouver le meilleur chemin vers la réussite.

Maintenir le cap vers une optimisation de l'entreprise


L'industrie manufacturière est un marché axé sur les documents, il n'est donc pas surprenant que de nombreuses activités de l'industrie soient encore, dans une certaine mesure, engluées dans des processus papier et/ou manuels axés sur les tâches. En fait, 9 % des fabricants interrogés ont déclaré qu'ils traitaient manuellement toutes les tâches et 31 % ont déclaré qu'ils pouvaient automatiser de petites tâches, mais qu'ils pouvaient compter sur les humains pour les assembler et vérifier chaque étape de leur travail. Moins d'un tiers d'entre eux ont indiqué qu'ils pouvaient automatiser plusieurs tâches ensemble pour dématérialiser un processus métier plus large avec une intervention humaine uniquement dans le cas d'exceptions. De toute évidence, des progrès ont été réalisés, mais il reste encore du chemin à parcourir.

Le grand nombre de documents faisant référence à la production, au commerce, au transport, au développement et à la liquidation éventuelle des biens a explosé au cours des deux dernières décennies. La mondialisation a imposé aux entreprises la mise en conformité des produits avec les normes de différents pays. Les effets de ces réglementations sont particulièrement visibles tout au long de la chaîne d'approvisionnement : les documents tels que les lettres d'expédition, les listes d'importation, les déclarations d'exportation, les bons de livraison, les carnets et les certificats d'origine doivent être livrés à des moments prédéterminés, soit avec les marchandises soit en amont.

En même temps, de nombreux constructeurs ont encore en fait des "îlots d'information" - les sites de production, les succursales, les départements et les unités commerciales ne partagent souvent pas efficacement leurs documents et données. Comme tous les employés ne sont pas en mesure de travailler avec la bonne information au bon moment, il en résulte un traitement inefficace et sujet aux erreurs.

Des processus plus intelligents pour des parcours plus faciles


Le bon déroulement des processus ne devrait pas contribuer aux goulots d'étranglement, mais plutôt les éliminer et aider à établir un lien entre les personnes et l'information dont elles ont besoin pour gérer les opérations quotidiennes. Et une solution d'automatisation devrait contribuer à la bonne circulation des données. Pour ne citer que quelques principales fonctions de l'automatisation pour les fabricants : planification de l'offre et de la demande, traitement des commandes, suivi et traitement des stocks, suivi des contrats etc...

La relation employé-client est également importante. L'automatisation permet aux travailleurs d'être libérés des tâches manuelles fastidieuses afin qu'ils puissent se consacrer à un travail à plus grande valeur ajoutée et axé sur le client.

Un nombre important de fabricants interrogés ont déclaré que la satisfaction des employés s'était améliorée grâce à l'automatisation : 31 % ont fait état d'une amélioration de 5 à 15 %, 26 % d'une amélioration de 15 à 25 % et 25 % d'une amélioration de 25 % ou plus.

Bon nombre d'entre eux ont fait état d'améliorations similaires en ce qui concerne la satisfaction de la clientèle : 30 % ont fait état d'une amélioration de 5 à 15 %, 35 % d'une amélioration de 15 à 25 % et 17 % d'une amélioration de 25 % ou plus.

Créer et gérer une main-d'œuvre numérique grâce à l'automatisation intelligente


Exploiter toute la puissance de l'automatisation pour fonctionner comme l'organisation du futur, exige de combiner de façon harmonieuse des capacités humaines et celles des agents logiciels. L'objectif est de créer une main-d'œuvre agile qui améliore les relations avec les partenaires ou clients, les bénéfices, la conformité réglementaire, la qualité et la précision des résultats tout en réduisant les coûts. Bien que de nombreux fabricants entreprennent le virage de la transformation numérique avec l'automatisation robotique des processus métier (RPA), un bon nombre d'entre eux choisissent d'aller au-delà de la simple RPA, en intégrant à l'automatisation intelligente les technologies complémentaires, telles que la capture cognitive, l'orchestration des processus, les analyses avancées, la mobilité etc...

Associer les capacités numériques avec celles des employés offre de nombreux avantages : services améliorés, coûts opérationnels réduits et une productivité accrue sans pour autant augmenter l'effectif. Le résultat ? Une main-d'œuvre composée d'humains et de robots qui collaborent pour transformer la capacité et la performance des activités commerciales, permettant ainsi aux entreprises de travailler, dès aujourd'hui, comme demain.


Par Pierre Patuel, Co-fondateur de DPii Télécom & Services

Si, dans le passé, des détracteurs pouvaient critiquer l'investissement et la durée d'implantation que représentaient une procédure de dématérialisation de documents au sein de l'entreprise, cette époque est révolue. En effet, il faut bien avoir en tête qu'il existe aujourd'hui des solutions adaptées au TPE/PME, dont les bénéfices directs et indirects dépassent largement les inconvénients dans un projet de dématérialisation.

Au-delà des aspects législatifs, qui pourraient inciter les entreprises à sauter le pas, la dématérialisation est aujourd'hui incontournable car elle permet en plus d'une gestion de documents plus fluide et sécurisée, des gains de temps et d'argent non-négligeables, notamment dans une démarche RSE.

Un gain de temps pour les entreprises


La dématérialisation est le meilleur moyen pour l'entreprise du XXIème siècle de s'adapter aux enjeux de son époque : plus de productivité et plus de rentabilité. Grâce à son application dans les entreprises, elle permet de réaliser un gain de temps considérable sur toutes les démarches administratives qui ont tendance à ralentir les employés.

Ainsi, la dématérialisation est synonyme de raccourcissement des temps de traitement des documents ainsi que des délais de réponse. En effet, en passant par une solution à 100% électronique, l'entreprise n'est plus dépendante des contraintes des envois papiers, et du traitement du courrier les jours ouvrés. Le temps passé en déplacement, à la rencontre de clients ou de prestataires, est également sérieusement diminué alors qu'il n'y a plus besoin de se rencontrer pour signer un document nécessitant deux signatures. La dématérialisation et donc la numérisation des documents permet également, grâce à l'archivage des documents, un gain de temps considérable pour la recherche documentaire. En effet, rechercher un document parmi des milliers de dossiers papier prend parfois tellement de temps à un employé que sa recherche revient 10 fois plus chère1 que sa seule production. Et il devient aussi désormais possible, grâce à la dématérialisation, de consulter un document n'importe où, n'importe quand, et même en-dehors de son lieu de travail, pour peu qu'on y ait une autorisation d'accès, c'est une aide précieuse pour le télétravail.

La dématérialisation est donc aussi une solution idéale pour optimiser et valoriser le travail des employés. Si moins de temps est consacré aux tâches administratives et répétitives de classement, recherche et archivage des documents, l'employé pourra davantage se concentrer sur des tâches à plus forte valeur ajoutée. En concentrant ses efforts sur des missions de première importance, l'entreprise en ressort alors gagnante.

Aspect non négligeable également : le temps économisé sur la sécurisation des données. Les solutions électroniques permettent de conserver l'intégrité des documents concernés par la dématérialisation. Ils ne sont plus sujets à d'éventuelles erreurs humaines ou failles de sécurité. Le temps passé à corriger ces erreurs est donc entièrement supprimé.

Des bénéfices économiques non-négligeables

La liste des économies qu'une entreprise peut réaliser en dématérialisant ses documents est longue et couvre tous les aspects d'une activité. En effet, en observant les entreprises qui ont eu recours à la dématérialisation, on remarque que celles-ci ont réalisé des économies :

  • Les coûts de traitement des documents ;
  • Les coûts d'éditique ;
  • Les coûts de distribution ;
  • Les coûts du papier ;
  • Les coûts d'impression ;
  • Les coûts de mise sous pli et d'affranchissement des envois postaux.

Ainsi, la facture électronique entrante coûte jusqu'à 10 € de moins (Source: GS1 France 2010) que la même facture papier, et la facture électronique sortante coûte jusqu'à 6,50 € de moins que la même facture papier. Ainsi, le gouvernement estime - après étude - que la dématérialisation des factures représente une économie de l'ordre de 50% à 75% par rapport à un traitement papier et réduit le coût de traitement d'environ 30%.

A l'échelle européenne, les initiatives de dématérialisation sont très largement encouragées, voire plébiscitées. En effet, après des études menées sur l'ensemble des marchés publics européens, la Commission Européenne a dévoilé dans un communiqué ses directives en ce qui concernait la dématérialisation appliquée aux administrations publiques et aux marchés économiques (La facturation électronique dans le cadre des marchés publics: une nouvelle avancée vers la passation électronique de bout en bout des marchés publics et vers l'administration électronique en Europe.). Ces études mettaient en exergue les économies potentielles pouvant être réalisées si l'ensemble des acteurs des marchés publics européens avait recours à la dématérialisation. Un total de 2,3 milliards € pourrait être économisé rien qu'avec la seule numérisation des factures.

Un geste pour la planète, une démarche RSE intelligente !

La dématérialisation est une solution d'avenir dans un monde toujours plus soucieux de l'empreinte carbone laissée par ses activités. En effet, de plus en plus d'entreprises réfléchissent à développer leur activité en se faisant toujours plus respectueux de l'environnement.

D'après l'entreprise de solutions globales de dématérialisation DPii, il est estimé que 75% des déchets de bureaux sont du papier. En France, nos habitudes et notre culture font que nous sommes particulièrement friands de papier et de gestion matérielle des documents. Ainsi, la France à elle seule représente 3% de la consommation mondiale de papier.

C'est donc un travail de fond qu'il faut effectuer pour changer les habitudes des employés des entreprises françaises afin qu'ils ne tendent plus systématiquement vers le traitement matériel des documents. La dématérialisation peut être une des solutions pour transiter vers des modèles écologiques plus viables, en remplaçant la vaste quantité de documents papier par des versions numériques, par exemple.

Salles









Par Frédéric Salles, président de Matooma

L’été dernier l’ARCEP lançait le processus de test de la 5G en autorisant des licences expérimen-tales pour les industriels, valables un an et renouvelables.
Aujourd’hui ce sont essentiellement les grands opérateurs qui sont chargés d’expérimenter cette technologie dans les neuf villes-test dé-signées par l’ARCEP. Des relais vont ensuite y être définis afin de positionner les bornes 5G.

Cependant, plusieurs acteurs se préoccupent du manque de visibilité en la matière et se posent la question de la date exacte de son déploiement : la France ne devrait réellement commencer le déploiement à grande échelle qu’en 2022. Tout d’abord, parce qu’il est nécessaire de couvrir le territoire en 4G, mais aussi parce que l’ARCEP n’a pas encore lancé d’appel d’offres pour l’acquisition des licences 5G.

Dans ce contexte, nous pouvons aussi nous poser la question des conséquences de l’arrivée de la 5G pour les particuliers et les professionnels. D’un point de vue technique, la norme 5G est com-posée de deux canaux : un canal pour les usages très haut débit (entre 700Mb et 1Gb par seconde) et un canal pour les usages bas débit destinés aux applications de l’IoT et du M2M (objets connec-tés).
En clair, lorsqu’un utilisateur téléchargera un film HD sur un PC, une tablette ou un téléphone avec la 5G, cela ne lui prendra que 5 secondes.

Pour les objets se connectant à Internet (alarmes, panneaux photovoltaïques, horodateurs, distri-buteurs de boissons…), les utilisateurs auront le choix entre les réseaux 3G/4G, les réseaux bas débits ou le canal bas débit de la 5G qui sera aussi faible en consommation d’énergie. Cette nou-velle technologie permettra ainsi aux opérateurs d'adresser aussi bien les entreprises souhaitant du haut débit que celles aspirant à du bas débit. Deux normes en encadrent les usages, que sont la NB-IOT de Huawei et la LTE-M d’Ericsson.

Autre avantage, la latence de la connexion à Internet. Actuellement, lorsqu’un utilisateur se con-necte sur un site web à partir de son smartphone, le délai de chargement de la page est inférieur à 1 seconde. Avec La 5G, ce temps sera de 1 milliseconde, soit immédiat pour l’œil humain.

Dans le monde actuel, pour connecter un objet il faut choisir entre un réseau bas débit ou le ré-seau GSM (2G, 3G, 4G). Demain, la 5G simplifiera considérablement les choses avec un seul com-posant qui pourra accéder aux deux fréquences. Cela facilitera les déploiements IoT à grande échelle car jusqu'à présent, les entreprises pouvaient hésiter entre ces deux possibilités.

Toutefois, il y a un bémol. En effet, les coûts que vont payer les opérateurs de téléphonie pour acquérir des licences 5G vont se négocier en milliards d’euro (en Allemagne, nous en sommes à plus de 5 milliards d’euro) et pourraient influer sur la tarification des futurs forfaits 5G.

Selon les derniers chiffres annoncés par les organisateurs du Salon Mobile World Congrès 2019, le nombre de connexions IoT (cellulaires et non-cellulaires) triplera d'ici 2025 pour atteindre un nombre de 25 milliards de connexions . La gestion d’un nombre élevé d’objets connectés est donc un enjeu crucial que la technologie 5G pourra relever afin de gérer facilement ces flottes d’objets et d’assurer leur connexion.


alexa
La gamme d'enceintes connectées Echo d'Amazon



Avis d'expert de reichelt elektronik

Qu'il s'agisse d'Amazon, de Google, d'Apple ou de Microsoft, les grands noms de la tech cherchent tous à dominer le marché des assistants vocaux. La croissance annuelle des ventes d'enceintes connectées confirme l'appétence des consommateurs pour cette nouvelle technologie, dont certains prédisent déjà qu'elle finira par supplanter toutes les autres interfaces utilisateur. Il reste pourtant aux acteurs du secteur des défis majeurs à surmonter pour faire de la commande vocale l'interface de choix pour les utilisateurs. reichelt elektronik, l'un des plus grands distributeurs en ligne d'électronique et de technologie informatique en Europe, fait le point.

Défi n°1 : Surmonter les stéréotypes sexistes de la technologie


Alexa, Siri, Cortana – les assistants vocaux parmi les plus connus et les plus populaires sont tous dotés de voix féminines et considérés comme des femmes, dans le rôle d'assistantes patientes et dociles, qui obéissent au doigt et à l'œil des donneurs d'ordre. Selon l'Unesco, cette situation est préoccupante car elle contribue à véhiculer et à renforcer les stéréotypes sexistes. Dans un rapport publié cette année, l'Unesco s'inquiète notamment de la manière dont les assistants vocaux sont programmés pour répondre avec indulgence à la violence verbale ou même flirter en réponse aux commentaires à caractère sexuel.
L'IA qui équipe les assistants vocaux étant inévitablement influencée par les données dont elle apprend, elle hérite directement des préjugés, stéréotypes et des attitudes discriminatoires humaines. L'enjeu, pour les fabricants, est donc de parvenir à éliminer les préjugés sexistes de leurs systèmes afin d'offrir une expérience satisfaisante à tous les utilisateurs, indépendamment de leur sexe.

Défi n°2 : Utilisation de la commande vocale dans les lieux publics


La technologie de commande vocale fait face à une autre difficulté relativement peu abordée : celle de son utilisation dans les espaces publics, comme les trains ou les restaurants. Dans de tels scénarios, le premier problème qui se pose est évidemment celui de la confidentialité des informations qui, si elles sont dictées par la voix, seront de facto partagées à toute personne se trouvant à proximité.
Mais la perspective d'une utilisation en public pose aussi la question des nuisances sonores. Si au lieu de swiper, de cliquer et de taper sur leur clavier, les utilisateurs se mettaient tous à utiliser la commande vocale dans un wagon ou une salle de restaurant, les niveaux sonores deviendraient très vite excessifs. Difficile donc, dans un tel contexte, d'imaginer que la commande vocale pourrait venir remplacer les autres interfaces auxquelles nous sommes habitués.

Défi n°3 : Vers 100% de reconnaissance vocale


Si la technologie a fait des avancées considérables ces dernières années en matière de reconnaissance de la parole et que les fabricants travaillent d'arrache-pied pour la perfectionner, les assistants vocaux ne sont pas encore en mesure de comprendre la totalité des requêtes qui leur sont adressées. Et l'exercice s'avère encore plus délicat lorsque les assistants se retrouvent confrontés à un accent régional ou à certains dialectes.  Pour l'heure, l'utilisation réussie de la commande vocale requiert donc encore des efforts de la part des utilisateurs (répétition d'un énoncé, reformulation, ralentissement du débit de parole, adaptation du volume sonore). Mais, selon une récente étude reichelt elektronik / OnePoll, 32 % des Français affirment n'être pas convaincus que leurs requêtes seront comprises correctement.


La société spécialisée FireEye a identifié des activités de spearphishing (harponnage) conduites par le groupe de menaces iranien  APT33 en parallèle avec un climat de tension accru dans la région du Golfe et avec les Etats Unis. La campagne de spearphishing a ciblé à la fois les secteurs privé et public aux Etats-Unis. Cette activité est compatible avec la collecte de renseignements, et il est probable que le régime iranien utilise aussi du cyber espionnage pour réduire ses incertitudes entourant le conflit. A noter qu’APT33 a dans le passé effectué des attaques destructrices s’ajoutant à la collecte de renseignements.

Cibles aux Etats-Unis

Avant la signature de l’accord sur le nucléaire iranien, JCPOA, des acteurs iraniens ont mené des attaques destructrices et perturbatrices sur des cibles multiples aux Etats Unis. Toutefois, ces dernières années, des attaques similaires menées par des acteurs iraniens ont principalement eu lieu au Moyen Orient, ciblant des organisations du secteur privé telles que des compagnies pétrolières et gazières.

Le lancement d’attaques destructrices et perturbatrices est une capacité que l’Iran peut utiliser pour causer des dommages économiques sans provoquer une escalade significative du conflit, tout comme lors de ses précédents sabotages de compagnies maritimes. De plus, si les Etats Unis mènent des cyber attaques comme annoncé, l’Iran peut utiliser ses propres capacités comme un moyen de réponse proportionnée. S’il s’avère qu’une action américaine s’est concentrée uniquement sur des cibles militaires, l’Iran peut choisir d’attaquer des cibles moins stratégiques où il détient un avantage asymétrique.

L'avis d'expert de Ryan Kalember, vice-président directeur de la stratégie de cybersécurité chez Proofpoint
« Les tensions récentes entre l'Iran et les États-Unis soulignent la façon dont les gouvernements ont intensifié leur recours aux « cyber options » dans le traitement des conflits internationaux. Au cours des derniers mois, les chercheurs Proofpoint ont observé l'activité de l'APT iranienne ciblant principalement l'enseignement supérieur. Dans ces campagnes, les méthodes d'attaque reflètent le paysage mondial de la menace dans son ensemble, les cybercriminels poursuivant les individus plutôt que les infrastructures. Ces groupes tirent régulièrement parti des vols d’identifiants en usurpant les portails de connexion d’organisations ciblées et utilisent des services d'URL raccourcis pour ainsi livrer des charges utiles malveillantes et complexifier davantage les campagnes.
Nous avons également vu des acteurs iraniens usurper des logos du gouvernement américain dans des emails contenant des documents malveillants et utiliser une variété d'outils publics ainsi que leurs propres outils non publics pour livrer des charges utiles malveillantes à des individus spécifiques dans des organisations ciblées. »
ordinateur


Cédric O, secrétaire d’État chargé du Numérique, et Olivier Sichel, directeur de la Banque des Territoires, viennent d'annoncer les 11 projets lauréats de l’appel à projets « Hubs Territoriaux pour un Numérique Inclusif » mis en œuvre et financé par la Banque des Territoires en partenariat avec la mission Société numérique de l’Agence du numérique.



Parmi les lauréats, le projet Hub Occitanie, l'un des plus importants de France, sera chargé de l’accompagnement des aidants numériques pour la région Occitanie.

13 millions de Français éloignés du numérique


Le rapport de la Stratégie Nationale pour un Numérique Inclusif, publié en avril 2018, conclut que dans un contexte de numérisation des démarches et de transformation numérique des politiques publiques, l’offre de médiation n’est ni suffisante ni suffisamment coordonnée pour pouvoir répondre aux besoins croissants des citoyens en matière de formation.

En effet, malgré un contexte d’accroissement des équipements et de développement des usages, 13 millions de Français restent éloignés du numérique.

Enveloppe de 5 millions d’euros


Pensé pour fédérer les acteurs du numérique à l’échelle locale et aider les territoires à répondre aux besoins de leurs populations, l’appel à projets des Hubs Territoriaux pour un Numérique Inclusif a été doté d’une enveloppe de 5 millions d’euros. 

Il a pour objectif de financer une dizaine de projets de Hubs interdépartementaux répondant aux missions suivantes :
  • Recenser, articuler et coordonner les aidants numériques pour faire converger les projets vers des priorités territoriales définies avec les collectivités et les services de l’Etat 
  • Lever des fonds et aider à mobiliser toutes sources de financement (notamment européennes) en montant des projets à plus grande échelle 
  • Mutualiser et apporter de la valeur aux acteurs de terrain en créant des centres de services partagés (mutualisation de parcours de formations pour les aidants, partage d’outils et de ressources humaines…) 
  • Evaluer l’efficacité des services rendus sur le territoire et en informer les collectivités et les instances nationales concernées.
L’instruction des projets candidats a été effectuée par un jury composé d’une dizaine de personnalités indépendantes.

450000 € pour le Hub Occitanie


Le Hub Occitanie va recevoir une subvention de 450000€. L'association La Mêlée, réseau de lieux de l’écosystème numérique occitan, s’est associée à un collectif de cinq acteurs locaux de l’inclusion numérique regroupés sous la bannière Coll’in (Collectif pour l’Inclusion numérique).

L’appel à projets leur permet de coopérer ensemble pour mutualiser leurs actions et proposer leurs services à l’ensemble des acteurs de l’inclusion numérique sur le territoire visé, où le public éloigné du numérique est estimé à environ 430 000 personnes.




Le comédien Keanu Reeves au casting de Cyberpunk 2077 (CD Red Projekt) venu enflammer la scène de la conférence Microsoft. Un feu davantage allumé avec de l'alcool qu'avec des brindilles diront certains…
Guillaume Labrude, Université de Lorraine


Cette année, certaines questions obsèdent professionnels et joueurs : qu’en sera-t- il de la prochaine génération de consoles, du développement du cloud gaming – le fait de jouer en streaming sur des serveurs communs –, des fusions pour contrer l’arrivée de Google sur le marché ?
C’est donc Stadia, la fameuse « console » de Google, qui a ouvert les festivités. Ce service multi-écran coûte une dizaine d’euros par mois pour le pack pro et donne accès à un catalogue de jeux qui s’étoffera au fil du temps. Une trentaine de titres sera disponible à son ouverture en fin d’année 2019. En termes de hardware, une manette spéciale de plus d’une centaine d’euros sera lancée et Baldur’s Gate 3 fera partie des jeux pionniers. Difficile d’imaginer l’intérêt des joueurs déjà équipés pour cette offre qui ne possède à l’heure actuelle aucune exclusivité.

La manette Stadia, le contrôleur officiel du service vidéoludique de Google.

Des contenus attendus mais sans surprise

Le studio Electronic Arts se contente depuis quelques années de communiquer autour de ses licences phares et le programme des jeux abordés a été éventé en amont ; la bande-annonce de Fifa 20 a notamment été diffusée quelques minutes avant le lancement. Outre le retour d’un mode « foot de rue » dans cette nouvelle mouture, la majorité des simili-nouveautés proposées étaient des extensions. La saison 2 d’Apex Legends, concurrent essoufflé de Fortnite, et le nouveau contenu téléchargeable des Sims 4, un jeu datant tout de même de 2014, faisaient figures d’amuse-bouches.


On retiendra de cet EA Play la démonstration de 15 minutes de Star Wars Jedi : Fallen Order, nouvelle adaptation de l’œuvre de George Lucas s’inscrivant directement dans les canons de la licence cinématographique. Mais pour de nombreux joueurs, le jeu est graphiquement et physiquement daté et semble bien trop facile, l’intelligence artificielle des personnages non joueurs n’étant clairement pas au niveau. Les tests de Star Wars Jedi : Fallen Order réservés aux professionnels semblaient toutefois plus prometteurs même si le jeu est encore en version Alpha alors qu’il sort en novembre.


Chez Microsoft, un catalogue prometteur

Comme l’an dernier, la conférence Microsoft fût extrêmement riche en contenu entre une manette technologique vendue pour la modique somme de 180 $ directement sur dle site du constructeur et le projet Scarlett daté pour la fin 2020. Microsoft a laissé défiler les bandes-annonces de jeux bien souvent attendus comme Cyberpunk 2077 enfin daté pour le 16 avril 2020, The Outer World promettant un univers post-apocalyptique façon Fallout tout autant que Wasteland 3, dont le premier opus en 1988 avait servi de base à la licence initiée par Tim Cain.
Quelques jeux indépendants et conceptuels comme l’envoûtant Way to the Woods, la suite du poétique Ori and the Blind Forest baptisée The Will of the Wisps ainsi que le narratif 12 Minutes ont pointé le bout de leur nez entre deux super-productions. Mais c’est bien Halo Infinite (500 millions de dollars de budget pour le premier titre de la Scarlett) avec Gears 5, soit les deux plus grosses exclusivités de Microsoft, qui ont animé la soirée.
La rumeur voulait, depuis quelque temps, que George R.R. Martin, l’auteur de la saga A Song of Ice and Fire plus connue en tant que Game of Thrones pour la télévision, se soit associé avec le studio japonais From Software et son directeur Hidetaka Miyazaki pour la mise en chantier d’un jeu de rôle en monde ouvert lié à la mythologie nordique. Les premières images de Elden Ring sont venues le confirmer avec une esthétique visuelle et sonore plus proche de ce que faisait From Software avant Sekiro. Son dernier titre en date se déroulait dans le Japon de l’air Sengoku et s’est retrouvé au cœur de quelques polémiques rapidement éteintes autour de sa redoutable exigence en terme de gameplay, l’anglicisme désignant la façon de jouer à un jeu vidéo ainsi que ses règles intrinsèques.

Elden Ring, fruit de l’association entre Hidetaka Miyazaki et George R.R. Martin, serait un jeu de rôle en monde ouvert proposant plusieurs royaumes en ruines à explorer à dos de cheval dans un univers inspiré de la mythologie scandinave. From Software oblige, l’exigence sera au rendez-vous sous peine de mise à mort à répétition, mais également un haut potentiel pour les amateurs de speedrun.</movie.

Retours en grâce ?

Si l’on ne peut pas dire que l’E3 2018 ait été catastrophique pour les studios Bethesda, notamment grâce à une annonce en grandes pompes de The Elder Scrolls VI, l’année qui suivit ne fut pas de tout repos pour l’image de la firme. Son titre Fallout 76 fut l’un des plus cuisants échecs en terme de réception critique, aussi bien par les joueurs que par les professionnels.
Avec l’annonce d’un désormais classique mode Battle Royale pour ce jeu tant décrié, mais également la présentation de deux nouvelles licences, un jeu d’action tinté d’exploration intitulé Ghostwire Tokyo dont le moteur graphique semble merveilleux (mais ça n’est pas du in game) et le mystérieux Deathloop des Français de chez Arkane Studios, l’édition 2019 de l’Electronic Entertainment Expo a su se montrer plutôt rassurante pour les équipes de Todd Howard. Les studios soulignent un peu plus leur persistance dans le paysage vidéoludique en mettant à jour Fallout 76. On notera néanmoins une instrumentalisation maladroite de quelques joueurs et joueuses dans la vidéo de présentation du studio qui ressemble à une malheureuse propagande sentimentaliste.
En 2018, Square Enix avait déçu en présentant des jeux attendus mais au rendu graphique encore faible comme Shadow of the Tomb Raider ou tout simplement un titre que personne n’espérait, The Quiet Man, dont la technologie datée rappelait les jeux en FMV des années 1990. En 2019, le studio se renouvelle avec une licence adaptée d’Avengers, dont le rendu physique et la direction artistique plutôt tièdes ne sont pas sans rappeler le manque d’âme de la réalisation des frères Russo sur le pendant cinématographique de la série. Entre cinématiques et phases de gameplay, le remake du septième épisode de Final Fantasy a pallié son absence regrettée l’an passé. Le titre proposera une aventure épisodique dont le premier serait contenu sur deux disques Blu Ray, une place conséquente appelant à imaginer un jeu gourmand nécessitant des moyens optimaux pour vivre au mieux la refonte de cette légende vidéoludique.
Comme Final Fantasy XV, ce remake ne proposera pas de combats au tour par tour mais des affrontements en temps réel avec, cette fois-ci, la possibilité de contrôler différents personnages et de suspendre le temps pour se concentrer davantage sur la stratégie.

Du catastrophique Secret of Mana à l’excellent Resident Evil 2, les remakes de jeux vidéo se multiplient. Ici, une refonte complète de l’un des titres les plus adulés de l’Histoire vidéoludique qui sortira sous format épisodique.

Alors que le Nintendo Direct de 2018 avait déçu en se focalisant essentiellement sur les personnages de son Super Smash Bros Ultimate, devenu depuis un véritable incontournable de sa Switch, et en ne donnant aucune nouvelle du très attendu Metroïd Prime 4, toujours absent cette année pour cause de reboot du développement, le constructeur légendaire a su cette fois-ci conclure l’E3 en beauté. Luigi’s Mansion 3, le remake de The Legend of Zelda : Link’s Awakening, celui du culte Panzer Dragoon et le portage de The Witcher 3_ sur Switch confirmaient la tendance au recyclage très présente lors de cette édition.
Heureusement, le traditionnel « one more thing » en fin de conférence a su ravir la communauté du constructeur nippon : Breath of the Wild, le titre adulé qui marqua l’arrivée de la Nintendo Switch, aura droit à une suite directe, une première dans l’histoire éditoriale de The Legend of Zelda dont les opus demeuraient toujours indépendants. Cette année, Nintendo s’est à nouveau imposé et a marqué les esprits en prouvant, s’il était encore nécessaire de le faire, que sa dernière machine en date n’est en rien une console d’appoint, c’est-à-dire une console sur laquelle on s’attarde dès lors que le catalogue des autres comme Xbox et PS4 n’a rien de neuf à proposer, mais bien comme un outil incontournable de la grande histoire du jeu vidéo, de par ses œuvres phares.

La suite de The Legend of Zelda : Breath of the Wild est en développement… une véritable bonne nouvelle pour ce titre historique ou simplement de quoi nourrir les foules par manque de véritables nouveautés, comme Bethesda l’avait fait l’an dernier avec le teaser de The Elder Scrolls VI ?

Vers 2020, et au-delà

Comme à son habitude, le facétieux studio Devolver a proposé une conférence parodique taclant aussi bien la concurrence que ses propres productions à grand renfort de pastiches là où le PC Gaming Show est resté fidèle à sa réputation en proposant une conférence peu engageante réservée à une fange de joueurs bien précise. Non sans humour, Limited Run Games s’est encore une fois lancé dans un show différé pour dévoiler les différents portages en cours. Enfin, le VR Showcase avait la lourde tâche de convaincre public, journalistes et investisseurs que les casques de réalité virtuelle ont de beaux jours devant eux. Si de nombreux talents indépendants proposent des jeux plutôt originaux et décalés comme un Team Fortress invitant les joueurs à incarner des saucisses en guerre (intitulé de fait Meat Fortress) ou un simulateur de destruction de chambres d’hôtel façon rockstar (Hotel RNR), la majorité des titres demeurent de simples jeux de tir à la première personne.

Actif depuis la fin des années 1990, MisterMV est assurément l’une des personnalités françaises les plus importantes lorsqu’il s’agit de traiter du jeu vidéo. Musicien mais également streamer au grand cœur capable de lever des dizaines de milliers d’euros pour Médecins Sans Frontières lors du Z-Event, il commente avec précision l’E3 depuis quelques années, toujours avec une grande dose d’humour et de dérision.

Si l’on peut saluer quelques nouveautés encore non révélées mais annoncées officiellement comme le très politique Watchdogs Legion d’Ubisoft, ou Avengers de Square Enix, peu de surprises et peu de gameplay étaient au rendez-vous cette année. Cette édition fait office de transition avant que les véritables enjeux que sont le cloud gaming, la nouvelle génération de consoles et les différentes alliances entre les constructeurs ne soient abordés, sans doute en 2020. Au regard de l’an passé, la tendance s’est inversée : les géants ayant marqué l’E3 2018 se sont reposés sur leurs lauriers là où les firmes qui avaient déçu, comme Square Enix ou Nintendo, ont opéré une véritable opération séduction, le remake de Final Fantasy VII et la suite de Breath of the Wild ayant été deux des temps forts de ce cycle de conférences.The Conversation

Guillaume Labrude, Doctorant en études culturelles, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
password


Okta, fournisseur indépendant de solutions de gestion des identités pour les entreprises, vient de dévoiler les résultats de l’étude The Passwordless Future Report, qui décrit l’effet négatif des mots de passe sur la sécurité des entreprises et le bien-être des employés. Menée auprès de plus de 4 000 employés à travers le Royaume-Uni, la France et les Pays-Bas, cette enquête montre également que ces derniers sont prêts à adopter des méthodes d’authentification sans mots de passe.

Maria Bada, associée de recherche à l’Université de Cambridge, déclare à cette occasion : « Cette étude montre clairement que les employés peuvent éprouver des émotions négatives et du stress en raison de l’oubli de mots de passe et que cela peut avoir une incidence non seulement sur leur carrière, mais également sur leur santé émotionnelle ».

Les mots de passe sont la cible idéale de la cybercriminalité

La plupart des violations de données dues au piratage sont la conséquence de mots de passe réutilisés, volés ou trop faibles. D’après l’enquête d’Okta, 78 % des personnes interrogées emploient une méthode non sécurisée pour mémoriser leurs mots de passe, un chiffre qui passe à 86 % chez les 18-34 ans. Ces aide-mémoires prennent des formes diverses :

  • 34 % se servent des mêmes mots de passe pour différents comptes
  • 26 % les consignent sur papier
  • 17 % les enregistrent dans leur téléphone ou leur ordinateur
  • 6 % utilisent des mots de passe connus

Si l’on en croit le Dr Maria Bada, « Les pratiques professionnelles non sécurisées et le manque d’intérêt des utilisateurs pour la sécurité peuvent résulter de mécanismes et politiques de sécurité ne tenant pas compte des méthodes de travail des utilisateurs, des stratégies organisationnelles ni de la facilité d’utilisation. Les mots de passe sont souvent très révélateurs. Les utilisateurs les créent dans la hâte, si bien qu’ils choisissent ceux qui leur viennent spontanément à l’esprit ou qui revêtent une signification émotionnelle particulière. Les mots de passe relèvent en fait de l’inconscient. Les criminels le savent très bien et, avec un peu de recherche, parviennent à les deviner facilement. »

Les mots de passe influent sur le bien-être au travail

L’anxiété au travail est en hausse en raison de plusieurs facteurs, dont la sécurité qui est totalement passée sous silence. L’étude The Passwordless Future Report indique que 62 % des personnes interrogées se sentent stressées ou contrariées lorsqu’elles oublient leur mot de passe. Un chiffre plus élevé au Royaume-Uni (69 %) qu’en France (65 %) et aux Pays-Bas (53 %). Un employé doit en moyenne mémoriser 10 mots de passe dans la vie quotidienne, ce qui suscite des émotions négatives chez deux tiers des personnes interrogées (63 %).

 Selon le Dr Maria Bada, chercheuse associée à l’université de Cambridge, « L’impact potentiel d’un mot de passe oublié peut engendrer des niveaux de stress très élevés, et entraîner à la longue une dépression ou un burn-out. Ce phénomène s’explique par la sensibilité du cerveau aux menaces qu’il perçoit. En focalisant en permanence notre attention sur les menaces en ligne potentielles, nous devenons hypersensibles au stress, avec, à long terme, un risque pour notre santé mentale. »

Un futur sans mots de passe

D’après l’étude, une grande majorité des répondants utilisent toujours massivement les mots de passe pour s’authentifier sur leurs applications – qu’elles soient professionnelles, ou personnelles comme des applications de réseaux sociaux, bancaires ou encore de santé. Cependant lorsqu’on leur demande quelle méthode ils aimeraient pouvoir utiliser pour s’authentifier sur leurs applications personnelles, une bonne partie d’entre eux considèrent la double authentification comme un moyen fiable et pratique

Nicolas Petroussenko, Vice-président régional et Country Manager France d’Okta, reconnaît : « Nous pensons à tort que les mots de passe ont le monopole de l’authentification. Mais nous voyons de plus en plus des pratiques qui visent à démocratiser de nouvelles formes d’authentification tout en restant sur un niveau de sécurité accru tel que la biométrie, ou la reconnaissance faciale. Ces tendances sont également corroborées par les attentes des consommateurs eux-mêmes ».

Les entreprises peuvent combiner des techniques comme la biométrie et l’apprentissage automatique avec des méthodes traditionnelles sécurisées, et se libérer entièrement de moyens de protection devenus insuffisants tels que les mots de passe.

Pas moins de 70 % des personnes interrogées estiment que l’utilisation de la technologie biométrique présente des avantages professionnels. C’est en France que ce taux est le plus élevé (78 %) et grimpe encore plus chez les 18-34 ans (81 %). Près d’un tiers (32 %) pense que la technologie biométrique pourrait simplifier leur vie quotidienne, ou réduire leur niveau de stress et d’anxiété au travail. 86 % émettent toutefois des réserves en ce qui concerne le partage des données biométriques avec leurs employeurs. Autrement dit, les travailleurs disent oui à la facilité d’utilisation, mais n’ont pas confiance dans la capacité des entreprises à protéger leurs données.

Nicolas Petroussenko, Vice-président Europe du Sud d’Okta, conclut : « Cela fait maintenant bien trop longtemps que les mots de passe échouent à offrir une protection suffisante aux applications et à leurs utilisateurs. Si les cybercriminels parviennent à compromettre des comptes, c’est justement dû aux mots de passe volés ou trop faibles. C’est pourquoi cette forme d’authentification obsolète doit être abandonnée. En 2019, nous verrons émerger la première vague d’entreprises totalement affranchies des mots de passe, et les clients d’Okta seront aux avant-postes. »


Sigfox, pionnier toulousain du réseau 0G et premier fournisseur mondial de solution de connectivité dédiée à l’Internet des objets (IoT), annonce l’ouverture à Paris pour l’été 2019 de sa quatrième Hacking House, après San Francisco, Taipei et Chicago. Pour cette édition, six équipes auront pour objectif de répondre à d’importantes problématiques d’ordre logistiques, techniques ou sociétales en utilisant des solutions IoT et le réseau 0G de Sigfox.

Ces six équipes provenant du monde entier travailleront, du 11 juin au 30 août 2019, au développement de leur projet dans les locaux de Sigfox à Paris. L’enjeu ici est double : former une nouvelle génération d’experts aux technologies IoT, et faire émerger de nouvelles solutions IoT pour répondre à des problématiques d’ordres différents. Dans cette optique, les participants seront accompagnés par des mentors Sigfox pour les aider à mener à bien leur projet.

Au terme des 3 mois de réflexion et de travail sur leurs différents projets, ponctués de plusieurs phases d’échanges avec des partenaires, de Design Thinking, de prototypage et de tests, les six équipes viendront présenter le résultat de leurs travaux devant un jury composé d’investisseurs, de clients et d’experts. L’objectif final étant à termes d’envisager la production et la mise à disposition de leurs solutions sur le marché.

« J'ai découvert Sigfox pour la première fois lorsque j'ai commencé mon parcours d'entrepreneur en 2016 et que j'ai eu la chance de travailler en tant que co-fondateur d'une start-up dans l’IoT. Participer à la Hacking House est pour moi l’opportunité d'explorer et de comprendre la technologie de Sigfox en profondeur mais surtout de travailler sur un projet de A à Z du développement de l'architecture, au prototypage jusqu’à la présentation du rendu final. Cela va certainement améliorer, non seulement mes compétences techniques, mais aussi mes compétences Business en général. Je suis très excité par l’aventure Hacking House. » témoigne Biswajeet Kar, membre d’une des six équipes.

Les partenaires de la Hacking House de Paris sont : IMT Starter, Soracom, ST Microeletronics, Télécom ParisTech Entrepreneurs et Wisebatt.

Le lancement de la Hacking House Paris intervient quelques jours seulement après la fin de l’édition de Taiwan qui s’est achevée le 11 juin à Taipei par la présentation finale des projets des participants en présence notamment d'Audrey Tang, ministre du Numérique de Taïwan et Fleur Pellerin, ex-ministre française et initiatrice de la French Tech.

Plus d’informations sur la Hacking House Taipei :  https://thehackinghouse.com/taiwan/

Les six équipes

La majorité des participants sont des étudiants dont certains sont déjà entrepreneurs. Les autres débutent dans le milieu de l’entreprenariat. Ils sont répartis en équipe de 2 ou 3 et se sont vu attribuer les projets suivants :


  1. La première équipe est composée d’un étudiant brésilien de Polytechnique et d’un étudiant Chinois de Paris Diderot, l’un expert en algorithmique et l’autre en traitement du langage. Ils seront accompagnés par Olivier Isson, expert en Data Science chez Sigfox. Ensemble, ils devront trouver un moyen d’utiliser le réseau Sigfox en réseau de secours pour envoyer des SMS dans des situations où les réseaux traditionnels ne fonctionnent plus (en cas de catastrophe naturelle par exemple).
  2. La seconde équipe est composée d’une étudiante marocaine de l’ENSEA, un étudiant français de Polytech Sorbonne et un étudiant français de l’HKUST. Ils travailleront sur un projet dans le domaine du contrôle de la logistique pour le groupe Total et seront accompagnés pour cela par Hichem Zaafouri de l’IoT Agency de Sigfox.
  3. La troisième équipe est composée d’un étudiant brésilien de l’EISEE et d’un étudiant chinois de l’ISEN. Ils réfléchiront ensemble à une solution de compteur d’eau autonome en énergie. Leurs mentors seront Cyril Jouanlanne de l’IoT Agency & Nicolas Chalbos de la R&D de Sigfox.
  4. La quatrième équipe est un binôme d’étudiants indiens de l’ISEP et de Polytechnique. Leur mentor sera Clément Mannequin de l’IoT Agency. Leur mission consiste à trouver une solution pour offrir une meilleure assistance et supervision des décodeurs TV et routeurs Internet en utilisant une clé USB connectée au réseau 0G de Sigfox.
  5. La cinquième équipe est composée de deux jeunes entrepreneurs croates, accompagnés par Pauline Pham de la Sigfox Foundation. Ils chercheront à utiliser la technologie IoT pour surveiller les zones à fort risques d'inondation afin d’alerter la municipalité et la population locale en cas de catastrophe.
  6. La sixième équipe est composée d’un groupe d’étudiants français de l’ETNA repérés en ayant gagné un Hackathon avec leur idée de surveillance de la qualité de l’eau pour en éviter la pollution, particulièrement en Afrique. Sigfox leur propose du mentoring pour les aider à lancer leur start-up. Ils seront accompagnés dans cette aventure par Pauline Pham de la Sigfox Foundation et Maxime Schacht, Business Operation Manager chez Sigfox.


privacy


ForgeRock vient de divulguer un rapport sur les atteintes à la protection des données des consommateurs américains. Il révèle que les cybercriminels ont exposé 2,8 milliards de données de consommateurs en 2018. Ces fuites ont coûté plus de 654 milliards de dollars aux organisations américaines.
Les cyberattaques visant des sociétés de services financiers ont coûté plus de 6,2 milliards de dollars au premier trimestre 2019, en très forte hausse par rapport aux 8 millions de dollars au premier trimestre 2018. Même si les investissements dans les produits et services de sécurité de l'information sont en hausse (114 milliards de dollars investis en 2018), les cybercriminels parviennent encore à accéder aux données des consommateurs, quelle que soit l'industrie.

Selon l'étude, les renseignements personnels identifiables (RPI) étaient les données les plus ciblées en 2018, représentant 97 % de toutes les atteintes. En ciblant les RPI, les cybercriminels prouvent qu'ils recherchent avant tout les très grandes quantités de données sur les consommateurs. L'étude révèle également que la méthode d'attaque la plus fréquente est l'accès non autorisé à l'information. Elle représente 34 % de toutes les attaques. Les secteurs de la santé, des services financiers et gouvernementaux ont été les plus touchés par les cyberattaques.

"Nos recherches montrent clairement que les données personnelles des consommateurs sont très recherchées par les cybercriminels ainsi que très difficiles à protéger par les organisations", déclare Eve Maler, vice-présidente de l'innovation et des nouvelles technologies chez ForgeRock. "Les entreprises doivent protéger les données de leurs clients en mettant en place des programmes de gestion d'identité. Chaque industrie a intérêt à se prémunir des conséquences sur son image que peuvent avoir les fuites de données, ainsi que les coûts engendrés. Les organisations doivent donc utiliser des techniques modernes de gestion des identités et des accès pour sécuriser leur infrastructure, des serveurs dans les data centers, aux applications clients en passant par les appareils connectés."

Principales conclusions :

  • Près de la moitié (48%) de toutes les atteintes à la protection des données des consommateurs se sont produites dans le secteur des soins de santé, soit quatre fois plus que dans tout autre secteur ;
  • Les services financiers et le gouvernement étaient les deuxième et troisième industries les plus touchées, représentant collectivement 20% de toutes les atteintes à la vie privée ;
  • Bien que le nombre de fuites dans les services financiers ait diminué de 20 % au premier trimestre de 2019 par rapport au premier trimestre de 2018, plus de 26,9 millions de dossiers de consommateurs ont été compromis au cours du premier trimestre de 2019 seulement, soit une augmentation de 78 900 % par rapport au premier trimestre de 2018 ;
  • Les dates de naissance et/ou les numéros de sécurité sociale étaient le type de RPI le plus fréquemment compromis en 2018, 54% des atteintes ayant exposé ces données ;
  • Le nom et l'adresse physique (49%) et les renseignements personnels sur la santé (46%) étaient les deuxième et troisième types de RPI les plus souvent compromis en 2018.


Accédez au rapport complet (en anglais) ici

Facebook


On connaît surtout les cryptomonnaies (monnaies numériques cryptées) avec le bitcoin qui a donné lieu à quelques affaires d'escroquerie, de spéculation et à beaucoup d'interrogations par rapport à son cours en plein boom. Mais il en existe bien d'autres comme ethereum, XRP, litecoin, ou la française ARK ecosystem, etc., dont les transactions sont marquées par la rapidité, la simplicité et la sécurité via la technologie de la blockchain. Jusqu'à présent, ces monnaies restaient l'apanage de spécialistes ou de geeks et n'attiraient pas trop le grand public. Cela pourrait bien changer avec Libra, le projet de cryptomonnaie que veut lancer Facebook en 2020.

Après les scandales retentissants touchant à la protection des données de ses membres ou la prolifération de fake news sur ses groupes, qui ont sévèrement écorné l'image du réseau social américain, personne ne s'attendait à voir Marck Zuckerberg se lancer dans le domaine de la finance. Et pourtant, avec ce projet titanesque, le PDG de Facebook voit loin en diversifiant ses revenus dont 98 % viennent de la publicité ciblée. Avec sa propre monnaie, Facebook prend un véritable virage stratégique et change de dimension. Surtout avec plus de 2 milliards de membres, une monnaie a du sens pour permettre et faciliter les transactions.

27 partenaires dont Xavier Niel

C'est s ans doute cette force de frappe qui a permis à Facebook de séduire d'importants partenaires. 27 groupes ont d'ores et déjà signé avec Facebook dont plusieurs poids lourds de l'économie numérique (Uber, Spotify), des fintechs, les start-up spécialisées dans la finance (Paypal), mais aussi les deux grands réseaux Visa et Mastercard. Chacun a payé un ticket d'entrée de 10 millions de dollars pour avoir un «nœud» sur les réseaux blockchain de cette future monnaie. Et parmi eux, un français, Xavier Niel, le PDG d'Iliad, la maison mère du fournisseur d'accès à internet Free.

Concrètement Libra, qui sera adossée à un panier de monnaies et de valeurs jugées stables, comme des dollars et des euros, sera utilisable par les membres de Facebook, ou de ses messageries Messenger et WhatasApp. Grâce à une application sur leur smartphone, les consommateurs pourront acheter des Libra avec leur monnaie locale y compris s'ils n'ont pas de compte bancaire. Ensuite, ils pourront les utiliser pour payer sur Internet, sur des plateformes d'e-commerce comme dans l'univers Facebook. Libra pourra aussi être utilisée dans des boutiques physiques et même servir à du transfert d'argent entre membres, un service entrant en concurrence directe avec celui du célèbre Western Union.

On le voit, les ambitions de Facebook sont très importantes avec un intérêt tout particulier pour les pays en développement. Libra peut potentiellement dynamiter le secteur bancaire et l'ordre monétaire international car sa monnaie privée entrera en concurrence avec les états dont l'une des prérogatives majeures est de battre monnaie. Le projet de Facebook ne devrait ainsi pas faire taire les inquiétudes et les critiques de ceux qui, aux États-Unis, notamment chez certains démocrates, réclament un démantèlement de la société.
livre


Youboox, première application française de lecture en streaming, a voulu savoir comment les Français appréhendaient en 2019 l'accès à la lecture numérique. Un sondage mené auprès de plus de 16.050 personnes dévoile des informations nouvelles sur l'accès aux contenus, les acteurs possibles, les budgets et les raisons de cet engouement pour la lecture numérique.

Les lecteurs numériques grossissent les rangs

Avec l'avènement des technologies numériques, les Français sont de plus en plus nombreux à pouvoir accéder à la lecture. Ainsi, plus de 72% déclarent lire de plus en plus de contenus via des supports numériques. Dans le détail, il est intéressant de voir que les hommes sont en plus grand nombre (76%) que les femmes (68%).

Un accès payant ou gratuit ?

Si 47% des Français pensent que l'accès aux livres numérique doit être totalement gratuit, les 53% restant considèrent qu'il est tout de même nécessaire de payer. Ainsi, 28% préfèrent avant tout l'option d'un paiement à l'acte et 25% une solution d'abonnement.

Recherche lectures désespérément...

Malgré les nombreuses solutions physiques pour accéder à la lecture (librairie, bibliothèques, kiosques, etc.), 53% des Français avouent avoir des difficultés pour trouver facilement leur bonheur. Les hommes sont encore une fois plus nombreux (56%) à déclarer ne pas trouver facilement les lectures qui les intéressent ainsi que 51% des femmes.

Plus facile avec le numérique

Grâce au numérique, 55% des femmes et 59% des hommes déclarent pouvoir trouver beaucoup plus facilement les livres et les lectures qui les intéressent, soit au global plus de 57% des Français.

Le sauveur numérique

Presque 2 Français sur 3 pensent que l'accès aux livres numériques est une des solutions pour « sauver » la lecture. Un sentiment plus fort chez les hommes (66%) que chez la gent féminine (59%).

Quels acteurs pour le numérique ?

A la question, « quels sont les 3 acteurs les plus légitimes pour développer l'accès à des offres de contenus numériques ? », les Français sélectionnent clairement trois entités. A la première place arrivent les opérateurs et fournisseurs d'accès avec 58% des votes, juste devant les éditeurs avec 57% et suivis par les médias qui enregistrent 40%.

A quel prix ?

Côté budget, les Français ne sont pas prêts à dépenser toutes leurs économies pour lire. En effet, 31% seraient disposés à payer entre 2 et 5 euros par mois pour accéder à des contenus numériques. 27% pourraient aller jusqu'à 5 et 10 euros et 26% ne dépasseraient pas 2 euros.

Le fun d'abord !

Si les Français aiment lire, c'est avant tout pour le plaisir. En effet, plus de 59% des femmes et 51% des hommes se divertissent grâce à la lecture. Seulement, 42% des Français le font pour apprendre ou comprendre un sujet en particulier.
apple


Décryptage par Emmanuel Schalit, CEO de Dashlane

Même si l’on en connaît pas encore tous les détails techniques, l'initiative d’Apple semble être une bonne idée, car elle permet d’éviter le pire en gestion des mots de passe : de réutiliser le même mot de passe plusieurs fois.

Idéalement, vous devriez utiliser un gestionnaire de mots de passe pour créer des mots de passe longs et compliqués à votre place. Mais le plus important reste d’utiliser un mot de passe différent par site web.

L’usage des adresses e-mail à usage unique n’est pas une idée nouvelle, mais la question est de savoir si Apple peut les rendre suffisamment populaires. Pour le moment, nos études ont montré que les consommateurs ont toujours du mal avec l'idée d’utiliser des emails générés au hasard... Donc, nous allons voir si Apple sera capable de rendre cette technique attractive.

Même si le SSO (Single Sign On) est une bonne technologie, elle n’est pas exempte de tout reproche. Et l'idée de construire un gigantesque ensemble de clés universelles pour des millions de consommateurs représente un gros risque de sécurité, car elle sera compromise un jour ou l’autre. C’est ce qui est arrivé à Facebook récemment. En septembre dernier, le réseau social a révélé une faille massive dans laquelle des pirates ont volé des tokens (jetons d’accès) SSO concernant des dizaines de millions de comptes. Ces tokens, qui ne sont pas les mots de passe mais des clés numériques générées par le système SSO, évitent à l’internaute d’avoir à s’identifier auprès des serveurs de Facebook à chaque fois qu’il souhaite accéder à un site associé à ce système d’identification.

Les tokens volés permettent aux attaquants de faire croire aux serveurs de Facebook qu'ils se sont légitimement connectés, et ce sur l’ensemble des comptes compatibles, ce qui met en évidence une autre faille du SSO : vous n'avez pas seulement besoin de vous assurer que votre compte individuel est sécurisé - vous devez aussi avoir confiance dans la sécurisation des serveurs de l'entreprise qui l’utilise. Au vu des failles successives qu’a connu Facebook dernièrement, il semble difficile d’avoir une confiance aveugle dans la sécurité de leurs serveurs. Ce qui s’est passé chez Facebook pourra se répéter chez tous ceux qui utilisent le même principe.

Pour Google, Facebook ou Apple, même si la volonté de faciliter la vie des internautes en utilisant un système de SSO est louable car elle permet d’utiliser un mot de passe différent à chaque fois, le fait de stocker une clé capable d’ouvrir tous les autres comptes de manière centralisée est fondamentalement mauvaise. Car ce “coffre-fort” sera compromis un jour ou l’autre.
C’est pour cela que nous avons conçu notre solution de manière décentralisée. De ce fait les gestionnaires de mots de passe comme Dashlane ne sont pas vulnérables à ce type d’attaque et restent donc la meilleur solution pour gérer ses - toujours plus nombreux- mots de passe de façon simple et sécurisé.


La commission des Affaires européennes du Sénat estime encourageants les premiers résultats, un an après son lancement, de l’initiative européenne Wifi pour tous (Wifi4EU). Elle appelle le gouvernement à mieux faire connaître aux maires les aides disponibles, européennes et nationales, pour l’installation du wifi gratuit dans les espaces publics.

Pour rappel, le coupon WiFi4EU représente un montant forfaitaire de 15 000 euros par commune. Les communes bénéficiaires d'un coupon choisiront les "centres de la vie publique" où les points d’accès sans fil WiFi4EU (hotspots) seront installés. Les coupons WiFi4EU peuvent également servir à financer partiellement un projet de plus grande valeur. Le coupon peut servir à acheter de nouveaux équipements ou à mettre à jour du matériel ancien en le remplaçant par du matériel plus récent et de meilleure qualité.

6200 communes en Europe


"En un an, la Commission européenne a déjà attribué pour 93 millions d’euros d’aides à 6200 communes en Europe. En France, on constate une nette amélioration de la satisfaction des demandes, passée de 10 % lors du premier appel à projets en novembre 2018 à 40 % pour le second, qui a eu lieu les 4 et 5 avril 2019. Les sénateurs ont salué l’assouplissement des conditions d’attribution des coupons qui a favorisé cette amélioration. Ils ont également relevé l’augmentation du budget de 120 à 150 millions d’euros d’ici à 2020 pour aider un total de 9000 communes en Europe", détaille la commission sénatoriale, présidée le sénateur LR Jean Bizet.

Soulignant un lien direct entre les communes et la Commission européenne, M. Bizet a déclaré "C’est original et très simple. Nous avons là un contre-exemple à opposer à ceux qui trouvent que Bruxelles, c’est loin et c’est compliqué".

Colette Mélot, vice-présidente (Les Indépendants-République et territoires) a rappelé que Wifi pour tous est "une aide complémentaire, mais elle n’est pas censée se substituer à l’aménagement numérique du territoire".
ia


Avec Grenoble, Nice et Paris, Toulouse est devenue l'une des places fortes françaises de l'intelligence artificielle (IA). A l'heure où les investissements se multiplient partout dans le monde., l'institut interdisciplinaire 3iA va ainsi travailler sur quatre grands domaines : mobilité et les transports, puis la robotique-cobotique (relation robot-homme) pour l'industrie du futur, et enfin l'environnement et la santé.

Mais l'intelligence artificielle mobilise toute la société et si elle soulève des questions techniques elle interroge aussi des problème d'éthique. C'est tout le sens du colloque AI Summit, organisé par la chaire de recherches de l’INSEEC U. « Digital, Big data & Intelligence Artificielle » et l’agence Strategic Event, mardi 11 juin prochain à Lyon.

Tables-rondes et conférences


"L’IA représente bien plus qu’un programme. Elle devient un membre de la société qui doit être éduqué de façon responsable. Car si la technologie est neutre, ce sont bien les êtres humains qui en définissent les usages. L’IA n’a par nature pas de conscience, ni de morale : ce sont les Hommes qui en élaborent les principes et ses frontières", exposent les organisateurs qui ont convié un aréopage de personnalités qui s'exprimeront via des keynotes, des tables-rondes ou des conférences.

Parmi les intervenants, on peut citer Joël de Rosnay (ancien chercheur et enseignant au MIT, et président exécutif de Biotics International), le généticien Axel Kahn, Luc Julia, Senior Vice President Innovation chez Samsung Electronics, ou encore  Me Alain Bensoussan, avocat près la Cour d’appel de Paris et spécialiste en droit des nouvelles technologies.

Ce colloque est ouvert à tout public. Renseignements et billetterie ici .
fintech


Par David El Nouchi, cofondateur de ClubFunding

Après avoir levé 365 millions d’euros en 2018, un record, les fintechs françaises nourrissent toujours plus d’ambitions. Entre développement international accéléré et concurrence accrue avec les institutions financières traditionnelles, on fait le point sur un écosystème hyper dynamique.

Consolidation du marché et internationalisation


Selon les prédictions du cabinet KPMG, 2019 serait pour la Fintech française l’année de la consolidation sur ses secteurs arrivés à maturité. Le panorama 2019 de France Fintech fait notamment ressortir deux segments : les services de paiement et les services liés au financement, à l’investissement et à l’épargne, portés par le dynamisme du financement participatif (+20% en 2018).

Le chemin de la consolidation a d’ailleurs été ouvert par les success stories comme Lydia, Alan ou Ledger. Ces dernières ont toutes levé plus de 30 millions d’euros et Ledger apparait même dans le classement KPMG des 50 premières start-ups du monde. Autant dire que la quête de la première licorne de la Fintech française est en bonne voie. De plus, atteindre une certaine taille critique est essentiel pour le développement international, l’un des principaux objectifs des fintechs françaises cette année : 52% des structures souhaitent ainsi développer une activité à l’étranger et 70% envisagent une implantation au cours de l’année 2019.

L’autre conséquence de cette consolidation est l’accroissement de transactions plus importantes. En effet, à la suite d'une phase un peu euphorique, 2019 se traduira par une concentration du secteur autour des plateformes ayant fait leurs preuves. Sur le long terme, concernera donc uniquement celles disposant de larges volumes, aux millions voire aux dizaines de millions de clients.

Renforcer les liens entre les banques et les fintechs


L’entrée en vigueur de la deuxième Directive européenne des services de paiement (DSP2) en janvier 2018 a signé l’ouverture de « l’Open banking » en Europe et d’un bras de fer entre Fintechs et banques traditionnelles pour l’accès aux données de paiement des clients. Cependant, face à l'offensive des GAFA dans le secteur de la finance, les banques n'ont d'autres choix que de se moderniser, voire de se réinventer. Dans ce contexte, les Fintechs ne doivent plus être considérées comme un problème mais bien comme la solution pour le secteur bancaire contre cette montée en puissance des géants de la Tech.

La fin de l’année pourrait ainsi se conclure avec la confirmation de plusieurs partenariats entre banques traditionnelles et Fintechs. Début mai, Orange Digital Ventures, le fonds de capital-risque de l’opérateur télécom a confirmé son entrée dans le capital de la Fintech allemande Raisin. L’ambition de ce partenariat ? Créer « la première marketplace financière mondiale pour les produits d’épargne et d’investissement ».

Cette volonté d’établir des ponts entre la finance traditionnelle et la Fintech se traduit également par la création d’incubateurs au sein des banques. Récemment, La Banque postale a par exemple ouvert « plateforme 58 », un incubateur pour Fintechs, assurtech et regtech. Pour la banque, l’objectif est à la fois d’accompagner de jeunes pousses dans l’aboutissement de leur projet et de favoriser les interactions entre les collaborateurs de l’entreprise et les start-ups.

Des solutions toujours plus innovantes


Un coup d’accélérateur est attendu sur le marché de l’Insurtech encore émergent en France mais déjà en plein boom en Asie. Selon le rapport 2019 sur le marché international de l’assurance réalisé par le cabinet Capgemini, 55% des clients seraient prêts à explorer de nouveaux modèles d’assurance et 37% seraient disposés à partager des données supplémentaires en échange de meilleurs services de contrôle et de prévention des risques. Pourtant les assureurs investissent encore peu pour innover (26%) et n’ont pas toujours la capacité d’exploiter des données en temps réel à des fins de modélisation des risques (27%). Le marché est encore à conquérir.

Autre marché en grand développement : celui de la blockchain, qui bénéficie de l’attention du gouvernement. Outre les mots doux lancés par Bruno Le Maire lors de la Paris Blockchain Week en avril dernier, ce soutien s’est traduit concrètement dans la loi PACTE, adoptée définitivement au printemps : entre autres dispositions favorisant le développement de la blockchain, elle prévoit ainsi une labélisation des échanges pour les levées de fonds réalisées en crypto-monnaies.

Selon le cabinet KPMG, la Regtech est l’autre marché à suivre de près. Elle pourrait bénéficier dans les mois à venir des évolutions réglementaires qui conduiront à une hausse des coûts de conformité des institutions financières. Pour l’instant, le marché français représente moins d’une centaine de start-ups, mais une accélération pourrait suivre. D’autant que l’innovation est en marche. Aux États-Unis, IBM et Thomson Reuters viennent d’annoncer leur association pour le lancement prochain d’une solution regtech reposant sur l’intelligence artificielle pour aider les banques à mieux gérer les exigences réglementaires croissantes. Avec de telles perspectives, les start-ups tricolores devraient bientôt être dans les starting-blocks.
train_frenchtech


L’initiative en est déjà à sa 3e édition mais elle n’en reste pas moins originale. Le 19 juin prochain en gare de Perpignan va s’élancer le train French Tech by Pyrénées Méditerranée Invest. A son bord va embarquer une sélection de start-up de la région Occitanie (Montpellier, Toulouse, Perpignan) qui vont converger à grande vitesse vers l’écosystème espagnol. Ce train d e l’innovation numérique prendra la direction de Gérone, puis Barcelone pour terminer son trajet à Madrid.

Start-up toulousaines

L’objectif est de permettre à chaque start-up voyageuse de présenter son projet à des investisseurs, des coachs et des institutions. « Les projets jugés les plus novateurs et ambitieux seront récompensés par un jury spécialement composé pour l’occasion dans un lieu unique à Madrid, le 19/06 au soir », précise les organisateurs.
Parmi les start-up toulousaines, on compte :
  1. Hydle. Hydle, c'est la possibilité de faire ses meubles en bois soi-même, sans outils et très facilement. 100% Made in France, les meubles sont réarrangeables et réutilisables à l'infini. Hydle permet à tout le monde de designer, monter, démonter et transformer son meuble pour qu'il soit unique et parfaitement adapté.
  2. Servicoo. Servicoo est une plateforme qui propose du service à domicile, des cours particuliers, et bien plus à prix abordables en quelques clics, grâce à la force du réseau d’une ville. Elle permet d’être rémunéré en proposant ses services et ses compétences. La plateforme est accessible grâce à une Web Application disponible sur mobile, tablette et PC.
  3. Speaknate. Speaknate est une plateforme linguistique qui permet à ses utilisateurs d’apprendre et de pratiquer une langue étrangère au sein d’une communauté mondiale en échangeant avec des Natifs sur leurs passions et/ou activités professionnelles par le biais de la visioconférence.
  4. Mon ordo. Mon ordo est une application mobile gratuite permettant de géolocaliser la pharmacie la plus proche de chez vous, d’envoyer ses ordonnances en ligne afin de commander des médicaments et d’être averti au moment du renouvellement de ces derniers. L’application permet également de prendre rendez-vous ou de contacter son pharmacien directement sur la messagerie.
  5. TOPO. TOPO propose plusieurs services d’accompagnement à la naturalisation. Entre la constitution du dossier, la prise de rendez-vous, la préparation de l’entretien, la rédaction d’un recours hiérarchique, TOPO facilite la demande de nationalité française.

Les chiffres du Train French Tech

Plus de 60 participants au départ de Perpignan
- Environ 100 participants arrivent à Madrid avec 10 de + à Gérone et 30 de + à Barcelone
- Près de 150 participants à la soirée de remise de prix sur Madrid
- Une vingtaine start-ups, 10 coaches, 5 investisseurs
- 2 heures de pitchs
- 6 prix décernés, près d’une vingtaine de partenaires
cloud


Par Thomas Leconte, Directeur technique chez MTI France

On ne présente plus le cloud, ses aspects techniques, son modèle économique et les avantages que les entreprises y voient, en matière de scalabilité par exemple. Son succès ne se dément pas et désormais, même les systèmes les plus critiques y sont installés. Dans les faits, le choix est plus complexe qu'il n'y paraît et il n'existe pas de formule toute faite pour chaque entreprise.

La direction est souvent convaincue que le cloud, notamment public, est incontournable pour le système d'information de leur organisation, de par un accès illimité à des ressources ou des prix adaptés à l'usage... d'où une pression sur la DSI de faire basculer une partie ou la totalité du système d'information dans le Cloud public, tout en respectant de nombreuses contraintes.

Infrastructure IT : le choix du roi

Mais le Cloud, s'il est aujourd'hui essentiel dans la transformation IT d'une entreprise, promettant flexibilité et prix attractifs, ne peut à lui seul répondre à tous les enjeux de la DSI. Pour faire un choix avisé entre Cloud public, infrastructure traditionnelle ou hébergée, les responsables informatiques doivent tenir compte de plusieurs facteurs. Ils doivent notamment prendre en considération les spécificités de chaque workload et de chaque typologie de données traitées dans l'organisation, afin de concevoir le système le plus judicieux, tant sur le plan technique, que financier ou de la sécurité.

Chaque solution d'infrastructure possède en effet sa valeur ajoutée, en contrepartie d'une certaine inadaptation à certains cas d'usages spécifiques. De même, le cloud public ne convient pas à tous les environnements et son coût peut - contre toute attente - rapidement dépasser le budget initialement prévu et même largement dépasser le coût d'une infrastructure on premise. Le prix à l'usage peut paraître attractif dans un cloud public sur une courte durée, mais il est toujours plus élevé sur une période de 3 à 5 ans. C'est particulièrement le cas pour les prix du stockage : le prix du teraoctet stocké est prévisible, mais le nombre d'opérations de lecture, suppression ou déplacement peut faire varier la facture.

L'infrastructure traditionnelle, quant à elle, offre une grande souplesse dans les solutions utilisées par les métiers. Pour autant, cela ne répond pas aux attentes des utilisateurs en termes d'agilité : ces derniers souhaitent en effet davantage avoir accès à des offres packagées pour simplifier et accélérer leurs cycles de décision ainsi que le "time-to-market" de l'entreprise. Le sur-mesure, souvent perçu comme une force, devient alors une faiblesse par l'absence de standardisation. Côté budget, ce modèle implique une capacité prévisionnelle des ressources qui seront consommées dans les années à venir.

Enfin, les services hébergés, s'ils permettent d'accéder à des solutions avancées comme PCI-DSS ou HADS sans en acquérir les compétences, ne sont pas généralisables à l'ensemble de l'IT au risque de pénaliser fortement le budget.

Une Iaas sur-mesure, la maîtrise en plus

Pour les DSI, difficile donc d'opérer un choix franc tant chaque formule répond à des besoins et des contraintes spécifiques des entreprises. De la même façon, les avantages proposés par chaque typologie d'infrastructure sont nombreux et capillaires.

Une Infrastructure-as-a-Service on premise, mixant judicieusement les avantages de toutes les formules selon le principe du multi-cloud (ou cloud hybride), constitue aujourd'hui la meilleure solution. Une condition cependant : être en mesure d'inventorier et de qualifier précisément ses workloads, et de savoir identifier clairement les atouts et faiblesse de chaque approche, afin de déterminer les types d'infrastructures les plus appropriés à chaque usage.

Concrètement adaptée à la structure de l'organisation, l'IaaS on premise conserve les avantages propres au cloud public, (notamment le paiement à l'usage), tout en y ajoutant ceux de l'infrastructure on premise : une meilleure prédictibilité des coûts et des performances, mais également une maîtrise de la disponibilité et de la sécurité des données. Cela tout en permettant de choisir le bon support pour le bon workload.

Construire une véritable solution d'IaaS on premise implique une transformation profonde de l'IT et donc une maîtrise complète des environnements et des workloads de l'entreprise. Comme tout projet de transformation, pour que ce nouveau modèle soit couronné de succès, mieux vaut ne pas s'engager « à tâtons » et s'appuyer sur une expertise franche en matière d'infrastructure informatique, gage d'une transformation IT réussie !