team


Par Thomas Leconte, Directeur technique chez MTI France

Une image contenant homme, personne, complet, murDescription générée automatiquement
Si les collaborateurs sont souvent considérés comme le maillon le plus faible de la sécurité, bien formés et équipés, ils peuvent au contraire devenir la première ligne de défense de l'entreprise.

L'email, première porte d'entrée des malveillances

La plupart des études et chiffres livrés par les grands éditeurs de solutions de sécurité le montrent : la messagerie électronique constitue l'un des principaux moyens utilisés par les cybercriminels, et notamment via le phishing, qui exploite (ou tente d'exploiter) l'ignorance ou la naïveté des employés.

Leur technique : les inciter à cliquer sur des liens frauduleux ou à ouvrir des pièces jointes contenant des logiciels infectieux. Très utilisé pour la récupération de données d'identité, l'email est aussi l'un des vecteurs d'attaque par ransomware, crypto-jacking ou encore de transferts de fonds frauduleux (en se faisant passer pour un membre de la direction). Les pertes mondiales dues à ces attaques dites BEC (Business Email Compromise) sont colossales, et ont atteint, selon la dernière estimation, 12,5 milliards de dollars.

Au côté du phishing, on trouve également des techniques beaucoup plus sophistiquées pour contourner les filtres de sécurité de l'entreprise, comme les malwares sans fichier qui utilisent des process légitimes de l'entreprise pour se nicher en mémoire des machines infectées évitant ainsi d'être détectés par une simple signature de fichier. Ils permettent aux malwares de gagner en résistance et ne pas se faire repérer, comme l'ont fait les ransomwares NotPetya ou WannaCry.

Derrière l'email, les collaborateurs

Quelle que soit sa taille, toute organisation est une cible potentielle. La formation des utilisateurs de la messagerie électronique est donc la première étape à suivre afin de les aider à identifier toute tentative de phishing.

Il existe à ce titre de nombreux simulateurs de phishing, pour les entraîner à l'aide de scénarios très réalistes. Un dispositif à renouveler régulièrement pour gagner en sécurité et maintenir la vigilance des collaborateurs.

Bien sûr, face à des attaques de plus en plus complexes, la meilleure défense consiste à éviter qu'elles atteignent l'usager. Ce qui est désormais possible via des outils avancés d'analyse de liens URL et de fichiers joints. Ceux-ci peuvent également être complétés par les technologies de Machine learning, capables d'identifier des attaques de type BEC, en apprenant le style d'écriture des principaux cadres de l'organisation.

La surveillance réseau au cœur du dispositif de défense

Surveiller les principaux points clés du réseau (comme la vidéosurveillance qui scrute les lieux stratégiques d'un site), garantit également une meilleure ligne de défense. D'autant plus si cette surveillance est associée à de l'apprentissage automatique, afin de permettre aux solutions de sécurité de détecter des activités suspectes.

Souvent exploité dans les attaques utilisant des logiciels de vol de mots de passe (tels que Mimikatz), Windows Management Instrumentation (WMI) peut ainsi bénéficier de ces techniques complémentaires d'apprentissage de façon à repérer les premiers signes d'alerte et ainsi faire échouer une attaque. On peut aussi les coupler avec des solutions de déception (Threat Deception) qui sont d'ailleurs très prometteuses dans ce domaine. Elles permettent de détecter et de rediriger une attaque vers une machine fictive qui va laisser celle-ci se terminer en vase clos pour en comprendre le comportement, l'objectif et déterminer ainsi la menace réelle qu'elle représente.

En complément, la surveillance et l'apprentissage sauront également accompagner l'entreprise dans le respect du RGPD pour détecter d'éventuelles fuites d'information.

Quoi qu'il en soit, pour se protéger des attaques qui arriveront inexorablement, mieux vaut se préparer, préparer ses collaborateurs et agir en amont pour identifier les problèmes et les corriger. Tandis qu'en cas d'attaque avérée, notamment de malwares cherchant à se propager sur le réseau, une surveillance de précision permet d'identifier rapidement les hôtes infectés et leurs typologies, pour contenir et nettoyer l'infection, afin d'en limiter les dégâts.
iot


Fondé et présidée par Ludovic Le Moan, PDG de SIGFOX, l’IoT Valley, l'incubateur spécialisé dans l'internet des objets (IoT), vient de lancer un appel à candidature pour son nouvel incubateur "inter-écoles" qui sera ouvert en septembre 2019.  "Destiné aux étudiants souhaitant lancer leur startup dès la fin de leurs études,  ce programme de six mois peut remplacer leur stage de fin d’études, leur premier emploi  ou même être poursuivi avec un aménagement des cours sur la dernière année de master", explique l'IoT Valley.

"Ce n’est pas un énième programme d’incubation de startups. Ici, nous nous focaliserons  sur l’humain et non sur le projet. C’est pourquoi nous recherchons avant tout de l’ambition  et un mental, plutôt que des idées et des projets déjà conçus", détaille Roxane Régnier,  responsable du programme, qui rajoute "Ici, pas besoin d’avoir une équipe ni un  projet en tête. Il est possible de trouver ses coéquipiers au sein du programme et de monter  son projet par la suite. Nous nous positionnons en véritable accélérateur de talents pour  étudiants."

Le soutien de la région Occitanie


L’incubateur inter-écoles est le premier en France à réunir plusieurs établissements d’études supérieures au sein d’un même écosystème de startups. Parmi eux : l’ENSEEIHT (École nationale supérieure d'électrotechnique, d'électronique, d'informatique, d'hydraulique et des télécommunications), l’INSA Toulouse (Institut national des sciences appliquées de Toulouse) et l’ICAM.

Le nouvel incubateur bénéficie d'ores et déjà du soutien du conseil régional. "Voilà quelques années que nous observons en Région Occitanie un intérêt croissant des étudiants pour l'entrepreneuriat. Pour les mener à la réussite, les entrepreneurs  de l'IoT Valley souhaitent aujourd'hui partager leurs connaissances, savoir-faire et savoir- être entrepreneuriaux en ouvrant le premier incubateur inter-écoles de France. À l'IoT Valley,  se créeront ainsi des équipes entrepreneuriales multidisciplinaires qui construiront le futur de nos entreprises et de l'emploi de notre région", explique Carole Delga, présidente de la région Occitanie.

Les étudiants pourront d’ailleurs continuer de développer leur startup au terme des 6 mois d’incubation en intégrant le programme d’accélération de l’IoT Valley.

retail


Par Sébastien Verger, CTO Dell Technologies

Avec une progression annuelle stable entre 12% et 15% depuis plus de 10 ans, le e-commerce fait l’objet de toutes les attentions. Il faut dire qu’entre les promesses d’expérience utilisateur intelligente, de parcours client personnalisé et des offres promotionnelles imbattables, il ne manque pas d’atouts pour ringardiser l’expérience d’achat en magasin. Pour autant, la part des ventes du commerce en ligne sur l’ensemble du commerce de détail reste faible (9,7%) et n’a progressé que de 1 point entre 2017 et 2018.

Le lèche vitrine a donc encore de beaux jours devant lui… à condition de savoir s’adapter à l’arrivée sur le marché d’une nouvelle génération de consommateurs : la génération Z. Nés entre 1995 et 2010, ces jeunes adultes sont encore à l’école ou débutent à peine leur carrière et leur budget limité n’en fait pas des clients rêvés. C’est sans compter leur forte influence sur les décisions d'achat de leurs amis et de leur famille.

Contrairement aux autres générations, ils recherchent des produits uniques au lieu de produits de masse, et des marques socialement engagées, produisant écologiquement et agissant équitablement.

Le défi des produits uniques


Toute la difficulté pour les marques est alors d’arriver à industrialiser la production de produits uniques.  Derrière cette désignation se cachent plusieurs réalités, comme les produits configurables et individualisés sur le web mais aussi les éditions limitées de grandes marques de mode ou des offres attrayantes de petites marques moins connues qui ne sont pas disponibles à tous les coins de rue. Des changements d'assortiment plus fréquents et des délais de livraison plus courts pour les collections de mode, des fournisseurs de plus en plus nombreux et de plus en plus petits, cependant, imposent des exigences élevées à la chaîne logistique et à la gestion des stocks afin que les marchandises soient également disponibles. Cela inclut une observation plus intensive du marché et des ventes ainsi qu'une réaction rapide aux tendances émergentes.

Dans la boutique, les clients attendent des services de haute qualité, tels que de meilleures informations sur les produits, aussi utiles que dans les boutiques en ligne. S'adresser aux clients par e-mail et marketing en ligne, WLAN client gratuit, systèmes de divertissement et d'information en magasin, promotions de prix plus fréquentes et utilisation de caisses enregistreuses mobiles sont d'autres moyens par lesquels le commerce de détail peut se positionner pour l'avenir.

Créer une expérience authentique grâce aux nouvelles technologies


Au final, qu’il s’agisse de personnaliser son produit, son contenu ou de construire sa marque, les entreprises qui sortent du lot seront celles qui auront compris leurs clients et qui sauront leur montrer.

Pour cela, les marques doivent mettre à disposer toutes les données à leur disposition. Plus question ici d’opposer vente en magasin et vente sur Internet. Chaque canal apporte des informations différentes et complémentaires, qui permettent d’affiner la compréhension des clients et de toujours mieux personnaliser leur expérience.

Toutes les données ne se valent pas. Et la personnalisation chère à la génération Z n’est possible que lorsqu’une entreprise dispose de suffisamment de données pour les comparer et étudier les corrélations. Dans cette course à l’information, les marques récentes qui ont émergé grâce à leur maîtrise des nouvelles technologiques partent avec une longueur d’avance. Elles savent collecter les données et surtout les mettre au service de leurs efforts marketing et commerciaux. Mais les données dont elles disposent sont aussi récentes que l’entreprise elle-même. Or, la collecte des données est un exercice à long terme, dont la valeur augmente avec le temps car il devient possible d’anticiper l’évolution des clients, de leurs comportements, leurs envies ou même leur mode de vie. Il ne faut pas non plus les données externes, qui concernent la météo, l’économie locale ou encore des événements particuliers.

Afin de ne pas perdre de vue les données les plus utiles, l’informatique joue évidemment un rôle clé. Les entreprises doivent s’équiper d’une architecture capable d’accueillir toutes ces données au même endroit, ce qui peut sembler simple mais ne l’est pas lorsque l’on parle de millions de téraoctets de données non structurées, qui viennent de sources et prennent des formes différentes. Comment comparer des données émanant d’un logiciel de CRM de données récoltées via un miroir connecté placé en magasin ou encore des capteurs RFID qui assurent la traçabilité des livraisons de marchandises ?

Aujourd’hui, seuls les data lakes sont capables d’offrir la flexibilité nécessaire pour répondre à ce défi. Une fois qu’une donnée trouve sa place dans ce lac, elle peut être conservée dans son format et utilisée dans toutes les analyses nécessaires. Au-delà du coût initial de collecte et d’intégration, l’usage de cette donnée dans des scenarios futurs revient donc à zéro pour l’entreprise. C’est loin d’être négligeable lorsque l’on veut calculer le retour sur investissement des technologiques analytiques.

Les données ont souvent été comparé au pétrole mais contrairement au pétrole, elles ne perdent pas de leur valeur et ne s’abiment pas. Il est plus juste de dire que les données sont comme un baril de pétrole qui pourrait servir à l’infini. C’est un atout incroyable pour une entreprise qui entend survivre au passage des générations.



File 20190313 123534 nt9r5m.jpg?ixlib=rb 1.1
Le drone modulaire Pop.Up Next d'Italdesign, Audi et Airbus. Italdesign


Par Oihab Allal-Chérif, Neoma Business School


Si on a beaucoup parlé de l’affrontement des deux géants de l’aéronautique Airbus et Boeing dans le domaine des super-jumbo jets, avec l’annonce récente de la fin de l’A380, cette guerre s’étend aussi à un domaine émergent qui représente à la fois le futur de l’aviation, de l’automobile, du transport en commun, de la mobilité interurbaine, de la logistique et des premiers secours : le drone autonome. Les applications sont innombrables, du transport de personnes aux services de secours, et le potentiel commercial énorme, estimé à plus de 127 milliards de dollars.
En effet, Boeing et Airbus ont chacun testé dans les derniers mois des véhicules aériens électriques et sans chauffeur. Ces drones taxis autonomes transformeraient Airbus et Boeing en prestataires de services de mobilité aérienne. Les deux groupes sont loin d’être les seuls à s’intéresser aux voitures volantes : de nombreux acteurs de l’automobile et du numérique ainsi que des start-up développent aussi des drones concurrents.

Boeing mise sur le PAV

En janvier 2019, Aurora Flight Sciences, filiale de Boeing depuis 2017, a testé pour la première fois son véhicule volant de transport de passagers PAV (Passenger Air Vehicle), électrique et autonome, à Manassas, en Virginie. S’il peut théoriquement parcourir 80 kilomètres, cet engin, avec lequel Boeing veut révolutionner la mobilité aérienne, n’a pour l’instant fait que décoller, rester en vol stationnaire et atterrir. La prochaine phase sera la plus sensible : passer du déplacement vertical au déplacement horizontal.

Cependant, faire décoller et voler un avion entièrement électrique est déjà une performance, compte tenu de la quantité d’énergie considérable requise. Un des principaux challenges est d’ailleurs la consommation importante d’énergie et l’installation de stations de recharge pour les batteries de ces appareils dont l’autonomie risque d’être limitée. D’autres difficultés techniques sont le pilotage par une intelligence artificielle, le système anticollision, la protection contre le piratage, la sécurisation des données, la coexistence des véhicules avec et sans pilote, ainsi que la coordination des drones par flotte.
Boeing est partenaire d’Uber Elevate qui souhaite lancer un réseau de taxis aériens, Uber Air, dès 2023, bien que l’administration fédérale de l’aviation américaine risque de mettre bien plus longtemps pour donner l’autorisation à ces taxis aériens de survoler les villes.
Boeing veut également tester en 2019 un drone de transport logistique autonome dit CAV (cargo air vehicle), pour transporter des charges jusqu’à 230 kilos, ainsi qu’un drone à énergie solaire Odysseus de télécommunication et d’analyse météorologique, géologique et topographique, qui pourra voler presque indéfiniment.



Vahana, le taxi volant d’Airbus

Le 12 février 2019, Airbus, via sa filiale A³, a réussi le premier vol longue durée de son drone eVTOL (electric-powered vertical take off and landing, ou aéronef électrique à décollage et atterrissage verticaux) à Pendleton, dans l’Oregon. Après une cinquantaine de vols d’essai plus courts effectués depuis le premier essai du 31 janvier 2018, le prototype Alpha One a pu effectuer certaines manœuvres plus complexes plus rapidement, comme décoller verticalement à 70 mètres de haut, avancer à 90 km/h, tourner sur place à 180 degrés, reculer, faire du surplace et atterrir en douceur.
Vahana est un taxi volant d’une place au design futuriste, mélange de drone et d’hélicoptère, qui paraît plus abouti que celui de Boeing. Ses huit rotors inclinables sont pilotés par un système innovant dont l’algorithme optimise le guidage tout en réduisant les risques. Si les transitions entre les différentes phases, pendant lesquelles les ailes s’inclinent de 30 degrés, paraissent chaotiques, nul doute que les tests effectués permettront de gagner en fluidité. Avec ses 6 mètres d’envergure et 750 kilos, il est imposant, mais son aérodynamique lui permettra de se déplacer avec précision en minimisant la consommation d’énergie.


Vahana - Passenger Experience from Vahana on Vimeo.

« Vahana, l’expérience passager » (Vahana, 2018).

L’objectif d’Airbus est de proposer des vols de courte distance pour un coût équivalent à un déplacement en voiture ou en train dès 2020. D’autres types de drones sont en développement comme le Skyways d’Airbus Helicopters, un livreur de colis qui a été testé à l’Université nationale de Singapour.

Et pourquoi pas un drone modulaire ?

Le concept Pop.Up Next a été annoncé il y a deux ans par Italdesign, filiale de Volkswagen, d’abord en association avec Airbus, puis également avec Audi depuis 2018. Les trois entreprises européennes proposent un véhicule modulaire révolutionnaire, à la fois terrestre et aérien. Il se compose de 3 parties qui peuvent se clipser les unes aux autres : un châssis avec 4 roues, une capsule avec un habitacle pour deux personnes, et un drone de 8 rotors. Le système de verrouillage entre les différents éléments permet de les connecter à la fois mécaniquement, électriquement et numériquement les uns avec les autres. La capsule peut se déplacer selon 3 configurations différentes : sur la route clipsée sur le châssis roulant, suspendue sous le drone volant, et dans des tunnels ou sur des wagons sans les autres modules.
Équipée de technologies de pointe – comme la reconnaissance faciale et vocale ou des batteries de dernière génération – et conçue en fibre de carbone pour être à la fois légère et résistante, la capsule pourra rouler à 100 km/h pendant 130 kilomètres et voler à 540 km/h sur 50 kilomètres. Les premières images montrent comment, grâce à l’application Pop.Up Mobility Service, on peut commander un déplacement en choisissant parmi plusieurs scénarios et plusieurs tarifs, de la même façon qu’avec Uber. Cette application est testée à Mexico et São Paulo par la filiale Voom spécialisée dans les déplacements en hélicoptères. Grâce à une intelligence artificielle, le trajet est optimisé selon les conditions en temps réel et les préférences de l’utilisateur.



Italdesign et Airbus dévoilent Pop.Up Next, un concept de véhicule modulaire d’avant-garde qui peut rouler et voler.

L’association entre deux groupes aussi innovants et visionnaires qu’Airbus et Volkswagen fait rêver et on imagine le potentiel que cela représente d’associer les compétences et les moyens des leaders mondiaux de l’aéronautique et de l’automobile. Des prototypes ont été présentés conjointement lors du Salon de l’automobile de Genève en 2017, puis du salon Viva-Tech 2018 à Paris. Une maquette à l’échelle ¼ a par ailleurs été testée en public chaque jour pendant l’Amsterdam Drone Week en novembre 2018. L’objectif est de pouvoir mettre en service Pop.Up avant 2030.

Une concurrence qui s’annonce rude

Les deux géants de l’aéronautique ne sont pas les seuls à vouloir faire voler la planète silencieusement, sans polluer, sans effort, et en toute sécurité. Google compte aussi plusieurs projets de voitures volantes, via sa filiale Kitty Hawk, dirigée par Sebastian Thrun, professeur de Stanford, génie de l’intelligence artificielle et pionnier de la voiture autonome. Après avoir dirigé Google X, il s’occupe maintenant de cette start-up de l’aéronautique voulue par Larry Page où il développe Flyer et Cora. Plus proche d’une moto volante que d’un avion ou d’un hélicoptère, Flyer est un drone monoplace de loisir capable de voler entre 8 et 12 minutes à 30 km/h et à 10 mètres de haut. Bien que l’on ne connaisse ni son prix ni sa date de disponibilité, il est déjà possible de le réserver. Cora est un drone autonome biplace qui ressemble à un petit avion sur les ailes duquel sont fixés 12 rotors, et avec une grande hélice verticale à l’arrière. Entièrement électrique, il peut parcourir 100 km à 150 km/h.





« Le Flyer : la machine volante de Google » (CNN Business, 2018).

Bell Helicopter, filiale de Textron Inc., a présenté le 7 janvier 2019 son projet de taxi volant autonome au CES 2019 de Las Vegas. Le Bell Nexus est le deuxième drone qui pourrait voler sous la bannière Uber dès l’année prochaine en plus de celui de Boeing. Plus puissant car fonctionnant avec un moteur hybride, il sera capable de transporter 5 personnes dans une cabine futuriste qui avait déjà été présentée au CES 2018. Ce nouveau BellAirTaxi se positionne clairement sur le segment du luxe, comme l’indique la vidéo de présentation du concept.
Parmi les autres grands groupes sur les rangs, on peut compter les américains General Motors et Ford, les allemands Volocopter, partenaires de Daimler, et Volkswagen avec Porsche, le britannique Rolls-Royce et le japonais Toyota. Mais le tout premier drone de transport de passagers a été présenté par une entreprise chinoise, eHang, au CES de 2016. Le eHang 184 a été développé en trois ans par une équipe de 150 ingénieurs avec des technologies 100 % chinoises. En février 2018, il avait effectué des centaines de vols avec un ou deux passagers, y compris dans des conditions extrêmes, jusqu’à 300 mètres d’altitude à une vitesse de 130 km/h. Le nouveau modèle, eHang 216, est déjà commercialisé pour 200 000 euros.
Ce dernier exemple semble indiquer que la Chine a pris une longueur d’avance technologique sur les États-Unis et l’Europe à la fois pour les drones à usage militaire, commercial et de loisir.




« EHang AAV Manned Flight Tests » (eHang, 2018).

Si dans certains pays, la réglementation sur le survol des villes risque de retarder le déploiement des drones de transport de passagers, comme aux États-Unis et en Europe, d’autres pays sont déjà prêts à les accueillir, comme la Chine, le Japon, le Brésil, ou les Émirats arabes unis. Chaque pays privilégiera probablement dans un premier temps les machines produites par ses entreprises nationales, mais à terme, ce sont vraisemblablement les technologies les plus fiables, durables, silencieuses et économiques qui l’emporteront.
Boeing bénéficie du partenariat avec Uber. Airbus maîtrise le transport urbain aérien à la demande avec sa filiale Voom. Google est à la pointe des véhicules autonomes avec son système adopté par Volkswagen et Toyota. Les trois géants devraient donc a priori devenir incontournables… sauf en Chine.The Conversation

Oihab Allal-Chérif, Full Professor, Information Systems, Purchasing and Supply Chain Management, Neoma Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
tgv


La SNCF vient de signer un partenariat avec Facebook pour permettre la réservation et l'achat de billets de trains dans l'application de messagerie du réseau social Facebook Messenger, utilisée pa 35 millions de Français.
Grâce au chatbot Ouibot, le client peut rechercher un train (aller simple ou aller-retour) puis se laisser guider.
"OUIbot sur Messenger permet également de recevoir des notifications automatiques : des confirmations de commande et de réservation ; des alertes TGV Max, des alertes Petits Prix,des alertes Top Départ et le numéro de quai 20 mn avant le départ. Ces fonctionnalités connaissent un franc succès : chaque mois, près de 400 000 push de confirmations de commandes et 20 000 alertes Top Départ et TGV Max sont envoyées", explique la SNCF dont le chatbot est déjà utilisé par 50 000 utilisateurs chaque mois.



Un partenariat stratégique 


OUI.sncf bénéficiera d'un accompagnement personnalisé par les équipes innovation et analyse de Facebook dans le développement de nouveaux services à venir.

Ce partenariat se construit sur trois volets :


  • Innover autour des contenus - via un accompagnement des équipes marketing de OUI.sncf dans la création de contenu pour inspirer les communautés sur les réseaux sociaux, avec Instagram comme point d'ancrage et le format Stories ;
  • Innover autour de la messagerie - et notamment simplifier les conversations sur Messenger et WhatsApp pour faciliter et fluidifier le processus de sélection et d'achat des billets et finalement simplifier la vie des voyageurs ;
  • Innover autour de la curation d'un voyage - et permettre aux équipes OUI.sncf de proposer aux communautés sur Facebook et Instagram des offres commerciales pertinentes pour les personnes en recherche active d'un weekend ou de vacances à la mer comme à la neige.


 "L'innovation est le moteur de Facebook, mais ce qui compte le plus pour nous, c'est qu'elle soit toujours placée au service de notre mission : rapprocher les gens. C'est 2,6 milliards de personnes qui utilisent chaque mois une application de notre famille, que ce soit Facebook, WhatsApp, Instagram or Messenger. Nous offrons donc à toutes les entreprise, petites et grandes, la possibilité de faire du marketing personnalisé à grande échelle", explique Jennifer Labau Genot, Client Partner Facebook France.

Par ailleurs, il est possible de converser avec OUIbot depuis WhatsApp, propriété de Facebook

En signant un tel partenariat, Facebook renforce sa stratégie hors son pré-carré historique : la multiplication de chatbots dans Messenger ou WhastApp, la possibilité d'acheter des produits directement depuis Instagram sont de nouveau axes de développement pour la société de Mark Zuckerberg.
ai


Pascal Le Digol, Country Manager France, Watchguard Technologies

Les approches traditionnelles de protection contre les cyberattaques se basent principalement sur des processus manuels et les stratégies préétablies de blocage desdites attaques peinent souvent à suivre le rythme auquel apparaissent les nouvelles menaces, par nature toujours plus sophistiquées. Sans oublier le volume des alertes et des faux positifs avec lequel les entreprises se débattent au quotidien, tant et si bien que nombre d’attaques peuvent passer inaperçues de longs mois durant. Et c’est précisément là que l’Intelligence Artificielle (IA) est en mesure d’apporter une valeur ajoutée considérable ! En se reposant sur l’IA, les entreprises peuvent gagner un temps conséquent, mettre en corrélation davantage de données, prendre des décisions éclairées plus rapidement, réduire le risque d’erreurs humaines et prédire les tendances futures des menaces tout en améliorant drastiquement leur posture globale en matière de sécurité.

Retour vers le Futur

Si pour beaucoup, l’IA représente l’une des plus récentes innovations disruptives, ce concept n’a en réalité rien de bien nouveau puisqu’il est apparu dans les années 50. Les effets de mode et les espoirs entourant l’IA ont quant à eux pris leur envol à mesure que les progrès informatiques ont rendu possible l’analyse d’ensembles de données conséquents, ouvrant ainsi la porte à de nouvelles applications.
L’Intelligence Artificielle fait désormais partie intégrante de nos vies et l’adoption de nouvelles technologies reposant sur l’IA va très probablement connaître une croissance exponentielle dans les années à venir ; selon un rapport récent de PWC, l’impact économique total de l’IA devrait même atteindre les 15,7 milliards de dollars d’ici 2030.
Toutefois, l’adoption et l’évolution de l’IA ne sont pas sans susciter de fortes inquiétudes.

L’IA, au service du Bon ou du Truand ?

L’automatisation de tâches traditionnellement manuelles que permet d’envisager l’IA pourrait fort bien donner la possibilité aux cybercriminels d’améliorer leur ciblage, d’élargir l’impact de leurs attaques et d’accélérer considérablement la vitesse à laquelle ils pourront créer de nouveaux malwares. Car, si l’IA incarne une formidable opportunité pour sécuriser les systèmes, prévenir les intrusions et réagir plus rapidement, en prédisant notamment les attaques avancées de type « Zero Day », elle représente en même temps une source de menace des plus inquiétantes, de par sa vélocité et la possibilité d’être exploitée par des entités malveillantes.
Il y a fort à parier pour que nous assistions, dans un avenir très proche, au développement d’attaques automatisées hyper-évoluées grâce aux avancées de l’Intelligence Artificielle. Sans doute devrons-nous même, tôt ou tard, faire face à des batailles « Intelligence Artificielle » contre « Intelligence Artificielle », et on peut légitimement se demander si l’efficacité de ce nouveau paradigme, faisant appel aux mécanismes du Machine Learning et du Deep Learning, résistera à la réalité des cyberattaques à venir.
Dans tous les cas, 2019 connaîtra vraisemblablement l’avènement de l’IA et des technologies afférentes au sein de l’ensemble du système d’information : celles-ci contribueront notamment à augmenter considérablement le niveau du curseur de sécurité au sein des entreprises qui adopteront ces technologies, ce qui est une excellente chose !
cloud


Par Bertrand Masson, Co-Fondateur et Directeur Stratégie de Moskitos 

Guidées par des enjeux business toujours plus critiques et urgents, de nombreuses entreprises se sont jetées avec une confiance aveugle dans les filets d’un unique fournisseur de cloud public. Elles font aujourd’hui marche arrière en prenant conscience que la meilleure défense contre certaines pratiques hégémoniques des GAFAM est une approche multicloud.

L’intérêt de déplacer une partie de ses infrastructures et services informatiques dans le cloud public ne fait désormais plus débat, tant les avantages générés en termes de productivité ont été prouvés après plus d’une décennie de tests, essais et projets concluants. Le phénomène s’accélère aujourd’hui avec la migration de nombreuses offres existantes vers le cloud, l’arrivée sur le marché d’éditeurs et de start-ups « cloud native » ou bien encore l’émergence de la Data Science ou de l’IA, consommatrices de données et de puissance de calcul.

Les données et applications les plus sensibles ou qui n’ont pas d’utilité à basculer dans le cloud sont, elles, restées dans le système d'information à demeure, sur les clouds privés des entreprises, qui optent massivement pour une stratégie que l’on qualifie de « cloud hybride ». Si les services cloud de type SaaS sont souvent souscrits auprès de multiples fournisseurs (CRM chez Salesforce, gestion des talents chez Talentsoft…), il n’en va pas de même lorsque les décideurs informatiques doivent faire le choix stratégique d’un partenaire pour une infrastructure cloud (IaaS/PaaS). 

De prime abord, il peut paraître plus simple de ne faire appel qu’à un seul fournisseur sur un marché du cloud public dont les leaders se nomment Amazon (AWS), Microsoft (Azure) ou Google (Google Cloud), ceci afin de ne pas ajouter de complexité là où il y en a déjà beaucoup. Et pourtant, faire le choix d’une stratégie que l’on qualifie de « multicloud », à savoir utiliser plusieurs fournisseurs de cloud public, est aujourd’hui l’option la plus pertinente. Voici pourquoi.

La dépendance envers un fournisseur crée un risque économique

Les grands acteurs américains du cloud opèrent dans d’autres marchés grand public (B2C) où ils ont déjà démontré leur capacité à inventer et exploiter des modèles d’écosystèmes fermés, et ils les appliquent aujourd'hui au marché du cloud pour entreprises (B2B). Si un abonnement Amazon Prime donnant accès à de multiples services réussit à garder captifs des millions de particuliers, pourquoi ne pas appliquer la même recette avec les entreprises ? Mais si les conséquences restent mesurées et facilement rectifiables pour un individu, elles s'avèrent bien plus impactantes et engageantes pour une entreprise, quelle que soit sa taille.

Ce genre de pratiques commerciales agressives, que l’on a pu constater aussi chez d’autres géants du logiciel, est un piège qu’il faut éviter si l’on ne souhaite pas se retrouver pieds et poings liés contractuellement avec une politique tarifaire fluctuante à la hausse. Choisir un unique fournisseur de cloud, c’est devenir dépendant de ses décisions unilatérales.

En revanche, en choisissant une logique multicloud, l’entreprise instaure entre ses fournisseurs un rapport de force, permettant une saine mise en concurrence des conditions contractuelles et des tarifs. La question des coûts est en effet sensible car derrière une apparence séduisante, le cloud public sans contrôle ni concurrence peut se révéler plus onéreux qu’envisagé. D’après une étude récente de Kentik, 30% des entreprises affirment ainsi que leur plus grand challenge dans la gestion du cloud est la maîtrise des coûts. En disposant de plusieurs clouds, il devient plus aisé de faire baisser le prix du stockage de données ou la consommation d’algorithmes d’IA, par exemple.

Profiter du meilleur de chaque cloud selon ses besoins

Choisir le multicloud permet donc d’échapper aux engagements exclusifs avec un seul fournisseur. C’est aussi le moyen de conserver son agilité en profitant des forces et avantages de chacun. Qui peut en effet croire que tous les fournisseurs de cloud public répondent à tout, sont bons sur tout et sont même les meilleurs partout ? Si IBM est réputé pour l’IA avec Watson, l’est-il pour les bases de données ? Google Cloud est-il reconnu pour autre chose que le Big Data et AWS est-il le meilleur en dehors de ses infrastructures solides ?

L’intérêt du multicloud est de pouvoir remédier au fait qu’aucun fournisseur de cloud n’offre une couverture complète de fonctionnalités, une qualité exemplaire sur chaque service et une performance optimale partout dans le monde. Le multicloud permet d’aller chercher le meilleur là où il est et se donner également la possibilité d’avoir recours à des start-ups pouvant répondre de manière plus précise qu’un fournisseur généraliste à un besoin particulier ou innovant.

C’est pourquoi il est impératif de bien définir les besoins de l’entreprise en termes d’usages technologiques et de proposition de valeur (Big Data, IA, IoT…), de fonctionnalités requises, de coûts et de qualité de service recherchée, afin d’être en mesure de choisir les partenaires de cloud public les plus adaptés.

S’ouvrir à de multiples marchés plus ou moins contraignants

Les considérations d’ordre géographique ne doivent pas non plus être oubliées. En misant sur plusieurs fournisseurs cloud, on acquiert la possibilité d’utiliser un éventail de réseaux de data centers plus vastes, et donc d’être présent partout sur la planète. Dans le domaine du retail à l’ère de l’omnicanal par exemple, cela peut permettre de garantir une même performance à tous ses clients dans le monde. Et si l’on souhaite opérer en Chine, passer par un fournisseur local comme Alibaba ou Tencent devient obligatoire pour passer les barrières protectionnistes et se plier aux contraintes réglementaires.

La réglementation, c’est en Europe qu’elle est la plus forte concernant les données. Est-on sûr que chaque fournisseur de cloud public soit parfaitement conforme au Règlement Général sur la Protection des Données (RGPD) ? Il peut ainsi s’avérer utile de travailler avec des acteurs domestiques comme OVH pour la France ou T-Systems en Allemagne pour pénétrer un marché vigilant sur le traitement des données de ses citoyens.

Enfin, dans le contexte géopolitique actuel et la forte expansion de l’espionnage industriel, difficile de ne pas prendre en considération les risques pour une entreprise européenne de conserver ses données critiques sur un cloud américain ou chinois. La non-porosité entre certains gouvernements et des fournisseurs de cloud n’est pas garantie à 100%. Il semble donc sage pour l’entreprise d’associer ses solutions de cloud public mondiales à celle d’un cloud français ou européen, lui permettant de stocker ses données sensibles loin du regard des acteurs économiques trop curieux.

Bien s’outiller pour gérer la complexité du multicloud

Décider de basculer en multicloud paraît donc être une décision pertinente pour des raisons de maîtrise des coûts, de liberté de choix, d’agilité et de contrôle de ses données. La tendance devrait d’ailleurs s’accélérer fortement puisque selon le cabinet Gartner, 75% des entreprises à la recherche de solutions cloud d’ici deux ans réclameront des fonctionnalités multicloud, contre 30% aujourd’hui. En revanche, cette stratégie « multisourcing » n’est pas sans conséquences organisationnelles et technologiques pour l’entreprise.

En premier lieu, à charge de la DSI de l’entreprise de mettre en place une gouvernance et un suivi des opérations menées avec chaque fournisseur, et de la facturation qui en résulte. Ce qui ne représente pas un défi majeur, d’autant qu'il existe des outils packagés pour répondre à ce besoin.

C’est davantage au niveau de l’architecture du système IT de l’entreprise que se situe le challenge du multicloud. L’objectif est en effet de déployer des interconnexions temps réel entre les différents cloud, qu’ils soient privés ou publics, de manière totalement sécurisée. Une plateforme d’API Management permet de faire le premier pas en exposant les API de l’entreprise en un point centralisé, plus simple à sécuriser et gouverner.

La problématique s’étend toutefois au-delà de la simple exposition des API. Il est essentiel aussi de pouvoir orchestrer les données hétérogènes au sein d'un système d’information devenu hybride. Le recours à une plateforme d’intégration de type iPaaS doit ainsi être envisagé. Cet outil, véritablement dédié au multicloud, va se charger de composer, enrichir et agréger les données de multiples sources, afin d’organiser l’ensemble des informations internes et externes de l’entreprise, de manière performante et conforme aux réglementations.

L’entreprise ainsi outillée, il devient alors plus simple et rapide d’exploiter les technologies consommatrices de données, comme l’IA, l’automatisation RPA ou bien l’Open Data et ce, partout dans le monde. Pour au final développer sa capacité d’innovation et lui permettre de bénéficier avant ses concurrentes des opportunités business générées par la transformation numérique.
File 20190318 28487 17euj98.jpg?ixlib=rb 1.1
Quel contrôle des frontières numériques en Russie ? Wikimedia, CC BY-SA

Par Francesca Musiani, Sorbonne Université; Benjamin Loveluck, Télécom ParisTech – Institut Mines-Télécom, Université Paris-Saclay; Françoise Daucé, École des hautes études en sciences sociales (EHESS) et Ksenia Ermoshina, Centre national de la recherche scientifique (CNRS)


L’infrastructure Internet obéit à un principe d’internationalisation des équipements et des flux de données et d’information. Les parties d’Internet qui se trouvent physiquement sur chaque territoire national ont besoin de ressources physiques et informationnelles hébergées sur d’autres territoires pour pouvoir fonctionner. Cependant, dans ce contexte mondialisé, la Russie œuvre depuis 2012 à l’augmentation progressive des contrôles nationaux sur les flux d’information et les infrastructures, dans une atmosphère de méfiance politique croissante à l’égard des mouvements protestataires à l’intérieur du pays et de ses partenaires internationaux à l’extérieur. De nombreuses lois ont déjà été votées en ce sens, comme celle en vigueur depuis 2016 obligeant les entreprises traitant des données de citoyens russes à les stocker sur le territoire national, ou encore celle encadrant l’utilisation des réseaux privés virtuels (VPN), proxys et outils d’anonymisation depuis 2017.
En février 2019, un projet de loi dit « sur l’isolement du segment russe de l’Internet » a été adopté en première lecture à la Douma (334 voix pour contre 47 contre) à l’initiative des sénateurs Klichas et Bokova et du député Lugovoï. Dans la note d’intention qui accompagne ce texte, il est précisé qu’il répond au « caractère agressif de la stratégie pour la cybersécurité nationale des États-Unis » adoptée en septembre 2018. Le projet porte principalement sur deux points : le contrôle du système de noms de domaine (DNS, le système d’adressage de l’Internet) et le routage du trafic, le mécanisme qui sélectionne des chemins dans le réseau Internet pour que les données soient envoyées d’un expéditeur à un ou plusieurs destinataires.

La Russie veut se libérer des contraintes étrangères

Parmi ses préconisations, figurent notamment deux mesures clés. La première est la création par la Russie de sa propre version du DNS, pour pouvoir fonctionner si les liens vers les serveurs situés à l’international sont coupés – aucune des douze entités actuellement responsables des serveurs racines du DNS n’étant située sur le territoire russe. La deuxième consiste, pour les fournisseurs d’accès Internet (FAI), à montrer qu’ils sont en mesure de diriger les flux d’information exclusivement vers des points de routage contrôlés par le gouvernement, qui devraient filtrer le trafic pour que seules les données échangées entre les Russes atteignent leur destination.
Cette législation est la pierre angulaire des efforts du gouvernement russe visant à promouvoir leur « souveraineté numérique » ; selon les législateurs russes, il est souhaitable de développer une façon d’isoler l’Internet russe sur commande, qui permettrait de répondre par l’autosuffisance aux agissements de puissances étrangères et de garantir la continuité de son fonctionnement. Inversement, une telle configuration faciliterait aussi les possibilités de blocage de tout ou partie des communications.
L’état russe n’est évidemment pas le seul à viser une plus grande capacité de contrôle sur le réseau. L’Iran essaie de faire de même depuis des années, et la Chine bien sûr avec le « Great Firewall of China ». De nombreux états cherchent à renforcer leur autorité sur « leur » Internet, au point dans certains cas de couper partiellement voire totalement le réseau (des mesures connues en anglais comme « shutdowns » ou « kill switch »). Ce fut le cas en Égypte lors de la révolution de 2011, au Congo récemment à l’occasion des élections, et c’est aussi régulièrement le cas dans certaines régions de l’Inde.
Dans le prolongement de ces projets législatifs, une initiative récente, rendue publique le 12 février dernier par l’agence de presse russe TASS, a suscité une attention particulière. Sous l’impulsion de l’état russe, un groupe qui réunit les principaux opérateurs télécom publics et privés (piloté par Natalya Kasperskaya, la co-fondatrice de la célèbre entreprise de sécurité Kaspersky), a décidé de conduire un test afin de couper temporairement l’Internet russe du reste du réseau mondialisé et notamment du World Wide Web. Cela arrivera en principe avant le 1er avril, date limite pour présenter des amendements au projet de loi, qui demanderait aux FAIs russes d’être en mesure de garantir leur capacité à fonctionner de façon autonome du reste du réseau.

Des implications techniques, économiques et politiques

Cependant, et au-delà de la charge symbolique que peut revêtir une autonomisation par la déconnexion d’un pays aussi important, de nombreuses raisons d’ordre technique, économique mais aussi social et politique, plaident en défaveur de telles tentatives, à la fois pour l’Internet mondial et russe.
D’un point de vue technique, même si la Russie essaie d’anticiper un maximum cette déconnexion, des effets inattendus se produiront inévitablement si elle cherche à se séparer du reste du réseau mondial, en raison du degré d’interdépendance de ce dernier au-delà des frontières nationales et à tous les niveaux de protocoles. Il faut préciser ici que, contrairement à la Chine qui a pensé et conçu son réseau avec un projet bien précis de gouvernance centralisée en interne, la Russie compte plus de 3 000 FAIs, et une infrastructure ramifiée et complexe, avec de nombreuses connexions physiques et économiques avec l’étranger. Dans ce contexte, il est très difficile pour les FAI et les autres opérateurs Internet de savoir précisément à quel degré et comment ils dépendent d’autres composantes infrastructurelles (points d’échange de trafic, réseaux de distribution de contenu, data centers, etc.) au-delà de leurs frontières. Cela pourrait conduire à des problèmes très importants – non seulement pour la Russie elle-même mais également pour le reste du monde.
Le test pourrait notamment poser des difficultés pour les autres pays qui acheminent le trafic à travers la Russie et ses infrastructures – quelque chose qu’il est difficile de connaître a priori. Les effets du test seront certes suffisamment étudiés et anticipés pour ne pas mener à une véritable catastrophe (par exemple, compromettre pendant longtemps le fonctionnement d’une importante infrastructure de transport ou autre). Mais les conséquences probables seraient plutôt le dysfonctionnement ou le ralentissement de sites Web fréquemment utilisés par l’utilisateur lambda. La plupart d’entre eux fonctionnent en effet à partir de multiples serveurs situés de façon distribuée sur la surface du globe. Le magazine Wired prend l’exemple d’un site d’information qui pourrait dépendre « d’un serveur cloud d’Amazon Web Services, un logiciel de traçage de Google, et un plug-in Facebook pour laisser des commentaires », tous les trois opérant en dehors de la Russie.
Sur le plan économique, en raison de l’infrastructure complexe de l’Internet russe et de ses liens très forts avec le reste de la toile, un tel essai serait difficile et coûteux à mettre en œuvre. La Cour des comptes russe s’est très récemment opposée à cette législation au motif que cela entraînerait une augmentation des dépenses publiques, nécessaires pour aider les opérateurs à mettre en œuvre la technologie et à engager du personnel supplémentaire au sein de Roskomnadzor, l’agence de surveillance des communications, qui ouvrira un centre pour la supervision et l’administration du réseau de communication. Le ministère des Finances s’inquiète aussi des coûts entraînés par ce projet. La mise en œuvre de la loi pourrait coûter cher aux entreprises et favoriser la corruption.
Enfin, du point de vue des libertés politiques, la nouvelle initiative suscite la mobilisation des mouvements citoyens. La « souverainisation » porte des risques de censure encore accrus. Le système devrait être supervisé et coordonné par l’agence de surveillance des communications de l’État, Roskomnadzor, qui centralise déjà le blocage de milliers de sites web – et notamment des sites d’information critiques. La mise en œuvre de ce projet élargirait les possibilités d’inspection et de censure du trafic en Russie, affirme l’association Roskomsvoboda. Comme évoqué plus haut, il pourrait faciliter la possibilité de couper l’Internet ou de contrôler certaines de ses applications, comme Telegram (que le gouvernement russe a cherché à bloquer sans succès au printemps 2018). Un essai d’une telle coupure ou « Internet black-out » a eu lieu en République d’Ingouchie, dans le cadre d’une mobilisation de masse en octobre 2018 où le gouvernement avait réussi à couper presque totalement le trafic. Une manifestation « contre l’isolation du runet » a rassemblé 15 000 personnes à Moscou le 10 mars 2019 à l’initiative de nombreux mouvements et partis de défense des libertés en ligne, témoignant des inquiétudes qui s’expriment dans la société.
Est-il possible de divorcer de l’Internet mondial aujourd’hui, et avec quelles conséquences ? Il est difficile d’anticiper toutes les implications de changements aussi importants sur l’architecture globale d’Internet. Lors de la discussion du projet de loi à la Douma, le député Oleg Nilov, du parti Russie juste, a qualifié l’initiative de « Brexit numérique » dont souffriront d’abord les simples utilisateurs en Russie. Comme on a pu le voir (et étudier) à nombre d’occasions dans un passé récent, les infrastructures des réseaux d’information et de communication sont devenus des leviers décisifs dans l’exercice du pouvoir, sur lesquels les gouvernements comptent bien peser de tout leur poids. Mais comme ailleurs, l’espace numérique russe est de plus en plus complexe, et les résultats des expérimentations isolationnistes en cours y sont plus que jamais imprévisibles.The Conversation

Francesca Musiani, Chargée de recherche, CNRS, Institut des sciences de la communication, ISCC, Sorbonne Université; Benjamin Loveluck, Maître de conférences, Télécom ParisTech – Institut Mines-Télécom, Université Paris-Saclay; Françoise Daucé, Directrice d'études, École des hautes études en sciences sociales (EHESS) et Ksenia Ermoshina, Docteure en socio-économie de l’innovation, Centre national de la recherche scientifique (CNRS)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
cyber


Par Frederic Rivain, directeur de la technologie de Dashlane, et Cyril Leclerc, responsable de la sécurité de Dashlane.

Notre rapport sur les tendances 2019 dévoile 6 prédictions audacieuses pour le secteur de la sécurité numérique. Certaines sont les bienvenues, comme l’influence des lois de type RGPD au-delà de l'Europe, tandis que d'autres paraissent nauséabondes, comme la perspective d'une attaque terroriste menée par un criminel assis derrière un bureau sans que l’on sache où il se trouve.


Voilà les 6 grandes tendances en matière de sécurité numérique que nous prévoyons :

  1. Les scandales en matière de protection de la vie privée donneront lieu à des amendes massives.
  2. L'influence du RGPD va s'étendre.
  3. Les problèmes de confidentialité des données de Facebook continueront d'affaiblir son emprise en tant que leader des médias sociaux.
  4. Une brèche sera fatale.
  5. La cryptographie quantique va changer le paysage.
  6. La cryptographie post-quantique suivra de près.


Quoi qu'il advienne, nous sommes tous d'accord : l'évolution de l'industrie de la sécurité numérique en 2019 aura des effets durables sur la façon dont les gouvernements et les entreprises envisagent et abordent les questions de protection des renseignements personnels et de sécurité numérique.

1. Les scandales en matière de protection de la vie privée donneront lieu à des amendes massives

Sur la base du pouvoir réglementaire conféré par la réglementation RGPD (Règlement général sur la Protection des Données), les pays européens vont commencer à infliger des amendes aux contrevenants. Ils vont utiliser ce levier comme moyen de taxation pour les géants technologiques américains qui utilisent des montages financiers pour échapper à la taxation en Europe. D’ailleurs, le gouvernement français vient de présenter un projet de loi pour la mise en place d’une taxe ciblant les grandes entreprises du numérique, avec en ligne de mire les GAFA. En dehors des géants de la technologie, nous nous attendons à des amendes découlant de violations du RGPD - comme l'amende de 400 000 euros infligée à un hôpital au Portugal récemment - pour accélérer les investissements réalisés par les entreprises afin de protéger les données des utilisateurs.

2. L'influence du RGPD va s'étendre

Dans la foulée du déploiement du RGPD par l'Union européenne, un plus grand nombre de pays commencera à adopter des lois pour protéger la vie privée de leurs citoyens. La Californie a déjà adopté une loi qui entrera en vigueur le 1er janvier 2020. Nous nous attendons à l'apparition de lois similaires en Asie, même si la Chine restera une exception forte à la tendance générale. Plus il y aura d'infractions et de fuites, plus les organismes de réglementation exerceront des pressions sur les consommateurs pour qu'ils protègent leur vie privée.


3. Les problèmes de confidentialité des données de Facebook continueront d'affaiblir son emprise en tant que leader des médias sociaux

C'est probablement la prédiction la plus facile à faire. Pour des raisons de protection de la vie privée et parce que les jeunes générations se tournent vers d'autres canaux de communication et d’autres plateformes de médias sociaux, nous pensons que Facebook sera en déclin en 2019 et aura du mal à se réinventer à l'avenir.


4. Une brèche sera fatale

PREMIERS DÉCÈS DUS À DES CYBERATTAQUES
La cybersécurité deviendra de plus en plus une arme à la fois pour les activités criminelles et pour la guerre. Nous pourrions voir des rançons de cybersécurité réclamées pour des services vitaux - comme le système informatique d’un hôpital, qui alimente également du matériel de survie, des logiciels de système ferroviaire ou même des logiciels qui contrôlent des centrales nucléaires.
PREMIER ATTENTAT TERRORISTE AVEC UNE FONDATION POUR LA CYBERSÉCURITÉ
Les terroristes pourraient également mettre en place des cyberattaques directes pour menacer et endommager des systèmes essentiels. Elles sont potentiellement plus inquiétantes que celles déjà advenues, car les terroristes pourraient se livrer à des complots confortablement depuis chez eux, partout dans le monde.


5. La cryptographie quantique va changer le paysage

Il y a actuellement beaucoup de Recherche & Développement autour de l'informatique quantique et de ses applications en matière de cryptographie. L’aspiration de la cryptographie quantique est de résoudre des problèmes considérés aujourd'hui comme insolubles ou très complexes à résoudre en utilisant l'informatique classique. Cependant, cela se limite encore aujourd'hui aux expériences et aux laboratoires. En 2019, nous pourrions voir la première application réelle de la cryptographie quantique. Bien qu'il soit peu susceptible d'avoir des applications dans le monde des consommateurs, nous pourrions voir un scénario où les entreprises de cybersécurité commenceraient à utiliser la cryptographie quantique dans le monde des logiciels d'entreprise.


6. La cryptographie post-quantique suivra de près

Si l'informatique quantique est capable de briser toutes les règles de la cryptographie d'aujourd'hui, certains chercheurs en cryptographie recherchent la technologie qui pourrait alimenter la cryptographie hybride dans un monde où la cryptographie quantique et non quantique existe. Le but est d'éviter ce qui a été présenté comme “le passage à l’an 2000 quantique" et ses dérives. Nous nous attendons à ce que 2019 soit l'année où les théories et les applications concrètes commencent à prendre forme.


Si les nouveaux profs ont une pratique courante du numérique, il ne sont pas si partants qu’on l’imagine pour guider leurs élèves dans les méandres du web. Shutterstock




Par Anne Lehmans, Université de Bordeaux


Ce lundi 18 mars 2019 débute la trentième semaine de la presse à l’école, sur le thème de « l’information sans frontière ». Accompagnés de leurs enseignants, les élèves s’apprêtent à découvrir les coulisses des rédactions, à monter leur propre journal, à manier micros et caméras. Un point d’orgue dans leur formation à la culture de l’information ?
Inscrite dans les programmes scolaires et, depuis 2015, dans le décret fixant le socle commun de connaissances, de compétences et de culture que doivent maîtriser les jeunes en fin de collège, l’éducation aux médias et à l’information est censée s’échelonner tout au long de l’année scolaire. Les enjeux sont considérables, et ils ont surgi avec violence au moment de l’attentat de Charlie Hebdo.
Pourtant, si théories du complot et « fake news » sont au cœur des discours, et font l’objet de réflexions pédagogiques, les enseignants se sentent en général désarmés pour accompagner leurs élèves dans les méandres de l’information, de la communication et des réseaux sociaux.

Un terrain complexe

Dans les textes, l’éducation aux médias et à l’information (EMI) est intégrée dans le parcours de formation des enseignants. Sur le terrain, elle est abordée très inégalement. Ainsi, il n’est pas impossible qu’un enseignant qui entre dans son métier ne sache pas vraiment que l’EMI fait partie de ses missions. Et même lorsque c’est le cas, la grande majorité des nouveaux enseignants ne se sentent pas armés pour former les élèves.
Naviguer dans une masse d’informations pour construire des connaissances, s’assurer du pluralisme des points de vue possibles, faire de l’information un moyen de comprendre l’autre et le monde, savoir douter et critiquer sans remettre en cause la possibilité même de connaissance, voilà qui est compliqué.
Comment utiliser des techniques sans introduire de confusion entre information et numérique ? Quels gestes pédagogiques privilégier pour faire entrer les élèves dans une démarche et une pensée complexes ? Ce sont deux pierres d’achoppement pour les enseignants qui s’engagent dans un métier exigeant.
Ainsi, si l’inscription de l’EMI dans les programmes est indubitable, rien n’assure que tous les élèves trouvent l’occasion, dans leur parcours scolaire, de travailler sur des questions d’information et de communication. Au sortir de l’école, les représentations et les pratiques médiatiques des jeunes risquent donc de dépendre beaucoup plus de l’environnement social et culturel de leur famille et de leurs amis que de l’action du système scolaire. Ce constat n’est pas celui d’une défaite mais une invitation à travailler plus activement à la formation des futurs enseignants.

Des outils familiers

Menée par une équipe de recherche en sciences de l’information et de la communication et financée par la Fondation MAIF, une enquête autour de la perception des risques numériques par les nouveaux enseignants permet d’approfondir cette question. Les jeunes enseignants se perçoivent désormais comme des « digital natives », ils ont toujours connu les outils numériques, les réseaux sociaux, ils ont grandi avec des consoles de jeux et des téléphones portables, consulté Wikipédia sans le dire et les vidéos de YouTube pour apprendre.
La presque totalité des répondants (3 132 dont on a isolé 724 néo-titulaires) à l’enquête, réalisée en 2017 dans les académies de Bordeaux et Créteil, se considèrent comme compétents, performants ou experts avec le numérique, quelle que soit leur discipline de référence. Leur rapport au numérique est essentiellement utilitaire, lié à l’usage d’équipements techniques et de logiciels performants pour faire la classe.
Ils passent également un temps important en ligne, plus d’une heure et demie par jour pour 86 % d’entre eux. Presque tous font quotidiennement des recherches d’informations, et ils sont très nombreux à déclarer communiquer (92,2 %), lire en ligne (86,7 %), utiliser les réseaux sociaux (83,7 %), écouter de la musique (80,9 %), regarder des vidéos (72,1 %). Le numérique est aussi pour une grande majorité d’entre eux un moyen de préparer leurs enseignements (93,9 %), de communiquer par messagerie avec leurs collègues (90,3 %) et d’illustrer leurs cours (85,5 %).

Des risques surévalués

Malgré ce sentiment d’expertise et la diversité de ces pratiques numériques, les entretiens qui suivent l’enquête montrent que le rapport de ces enseignants à l’éducation à l’information est plus complexe qu’il n’y paraît. Tout se passe comme si l’usage de dispositifs numériques les prédisposait plutôt au cloisonnement entre leurs usages personnels et la classe. Ils ne sont plus que 50 % à déclarer former leurs élèves au numérique – avec une différence entre hommes et femmes, ces dernières plus sensibles aux risques numériques pour leurs élèves.
Sur cette question des risques numériques, la protection des données personnelles et de la vie privée est majoritairement citée comme une préoccupation importante (89,2 %), suivie par le droit à l’image cité par 67,3 %. L’éducation aux médias n’est citée que par la moitié des enseignants. Leur expérience personnelle ou celle qu’ils ont avec leurs propres enfants les invite à surévaluer les risques et notamment celui de perdre le contrôle des situations. Par voie de conséquence, ils n’abordent l’éducation à l’information qu’avec la plus grande prudence.
Ils sont pourtant bien conscients que les risques informationnels (manipulation, évaluation de l’information et lisibilité des controverses, enfermement dans des bulles de filtres) sont importants pour leurs élèves, qu’ils voient comme plus vulnérables qu’eux-mêmes. Et, pourtant, ils se considèrent insuffisamment (ou pas du tout) formés aux usages numériques en situation pédagogique, leur principale demande visant la formation plus que l’information.

Une posture à repenser

Plusieurs obstacles bloquent la route de l’EMI. Le premier est celui de l’identification des compétences en jeu. Les formateurs entendent souvent des groupes d’enseignants stagiaires demander des boîtes à outils numériques dans les formations à l’EMI, alors que celle-ci ne peut évidemment pas se limiter à des dispositifs techniques.
Un second obstacle est celui de la perception de la norme enseignante. Cette question de la normativité est centrale dans l’école. Or le numérique bouscule les frontières entre le personnel et le professionnel, l’affectif et le cognitif. Il complique infiniment la représentation du monde portée par les élèves. La norme d’un espace scolaire fermé et protégé perd son sens.
Pour les enseignants, ces conflits de normativité exigent une capacité d’adaptation, la construction de critères d’autorité qui ne vont plus de soi, une capacité d’écoute et d’attention peu compatible avec la lourdeur des programmes, une acceptation de l’incertitude et de la complexité contradictoire avec l’image de l’enseignant, incarnation de savoirs et de valeurs solides, dans l’école de la République.
Les professeurs documentalistes, parce que ces questions sont au cœur de leur formation et de leur mission, sont susceptibles de donner l’impulsion, avec les partenaires de l’école. Ainsi, l’exigence de considérer l’EMI comme une priorité s’impose, mais sa mise en œuvre nécessite une réflexion de fond sur les priorités pédagogiques, les parcours de formation des enseignants, et la place faite à l’apprentissage de la critique.
Au-delà des textes d’intention, l’école doit créer des dispositifs en complément des disciplines traditionnelles, instiller l’ambition éducative, sociale et politique d’inclure l’analyse compréhensive et critique de l’information tant en matière de production, que de diffusion et de réception.
L’enjeu est bien celui d’apprendre à déconstruire et à décrypter l’information tout en évitant la seule réaction affective et sporadique aux évènements. Aucune formule magique n’est à notre disposition, aucun acteur plus légitime ou plus efficace que les autres, aucune ressource suffisante, la responsabilité est collective et culturelle.The Conversation

Anne Lehmans, Maître de conférences HDR, Université de Bordeaux

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
pager


Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) :

Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains.

La fin du bipeur dans les hôpitaux britanniques ?

Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être comptés. Dans le cadre de sa mission de numérisation du secteur médical, le ministre britannique de la santé Matt Hancock veut s’en débarrasser. Supprimer une technologie désuète semble une chose évidente. Mais est-ce le cas concernant les bipeurs ?

En tant que professeur de comportement organisationnel, je vois des raisons claires de se débarrasser des bipeurs et de les remplacer par des téléphones portables permettant d’envoyer des SMS ou utiliser des applications de messagerie instantanée. Le système d’exploitation de bipeurs n’utilise qu’une seule voie de communication. Sa technologie est très basique et ne vous permet de partager que des messages les plus simples. Bien entendu, le personnel hospitalier est déjà familiarisé avec les téléphones portables.

Une enquête menée auprès de médecins d'un hôpital du Royaume-Uni a révélé qu'ils utilisaient déjà leur téléphone mobile pour échanger avec leurs confrères sur les sujets cliniques (professionnels). Parallèlement,  une petite enquête d'observation a révélé que les médecins utilisant un assistant numérique réagissaient plus rapidement à un incident que ceux utilisant un bipeur. Ces derniers, considéraient la messagerie SMS comme pratique, discrète, fiable et efficace. L'utilisation du téléphone mobile a amélioré l’échange d'informations parmi le personnel médical.

Et si ce n’était pas fini....

Pourquoi on les utilise encore ?

Avant que le NHS ne se précipite pour « mettre à la poubelle » les 130 000 bipeurs, il vaut la peine de s’interroger sur les raisons qui poussent les gens à continuer à utiliser cette technologie dite dépassée ? Les bipeurs ont de gros avantages techniques. Ils utilisent des piles bénéficiant d’une longue durée de vie. Ils utilisent des ondes radio qui pénètrent mieux les murs épais que l'on trouve dans certains endroits des hôpitaux. Ils fonctionnent également sur leur propre réseau dédié qui est moins susceptible d'être submergé en cas d'urgence.

Il y a aussi des raisons sociales (sociétales) pour lesquelles les bipeurs peuvent être plébiscités. Justement parce que leur utilisation est si simple, ils permettent de partager difficilement de l'information qui porterait atteinte à la vie privée des patients.

Mais lorsque le personnel médical a commencé à utiliser des téléphones portables dans le cadre professionnel, de nombreux problèmes ont vu le jour : la communication entre les médecins est devenue moins fréquente et on ne savait plus reconnaitre des messages urgents et ceux qui ne l'étaient pas. Parallèlement, on a noté une augmentation significative d'interruptions auxquelles le personnel médical a été confronté pendant qu'il travaillait. Cela pourrait également être néfaste pour les patients. Après tout, nous savons que les médecins distraits sont plus susceptibles de commettre des erreurs.

En plus des interruptions de plus en plus fréquentes, les médecins qui utilisent des téléphones portables parlent moins avec leurs confrères des différentes spécialités. En effet, les téléphones mobiles et les systèmes de messagerie peuvent éclipser les échanges en face à face. Cela peut se révéler source de problèmes, car c'est souvent au cours d'interactions réelles que l'information complexe est communiquée.

De plus, comme les téléphones portables peuvent transmettre beaucoup plus de données (y compris des photos et des vidéos), le risque de partager par inadvertance des informations qui enfreignent les lois sur la vie privée des patients est beaucoup plus élevé.

Bannir les bipeurs peut sembler une évidence. Mais il y a des conséquences involontaires importantes dont les hôpitaux doivent tenir compte, notamment en ce qui concerne la protection de la vie privée, la réduction des échanges directs et l'augmentation des interruptions. Tout cela nous rappelle que des technologies parfois dépassées et simples, comme le bipeur, peuvent être davantage bénéfiques pour certains métiers que des technologies modernes plus sophistiquées.

Cet article a été publié dans The Conversation. Lire l’article original.
data


Par Yves Benchimol, Président de WeWard

Les données personnelles sont devenues un sujet sensible, tout particulièrement à la suite de l'affaire Cambridge Analytica qui a suscité de nombreuses polémiques autour du traitement des données. Aujourd’hui, le consommateur est devenu le point focal de la collecte et l’exploitation des données. Des géants comme Google ou Facebook dominent le marché de la publicité ciblée et engrangent des milliards de dollars, notamment grâce à l’émergence des technologies dites de « Big Data ».
La donnée est devenue l’actif stratégique des géants du Web. Nous acceptons à titre gracieux de la partager, en échange d’un service gratuit. Bien que la plupart d’entre nous ont conscience que ces acteurs utilisent nos données en échange de leur service numérique, très rares sont ceux qui ont la connaissance du type d’informations qui peuvent être déduites par l’analyse de nos données, et encore plus rares sont ceux qui peuvent en estimer la valeur.

L'Europe est pionnière

De nombreuses initiatives politiques obligent les acteurs concernés à fournir toujours plus de transparence quant à l’utilisation de nos données. L’Europe est pionnière sur ce sujet avec la mise en place du RGPD (Règlement Général sur la Protection des Données). Aux États-Unis, Gavin Newsom, gouverneur de Californie, va encore plus loin et affirme que « les consommateurs californiens devraient aussi être en mesure d’avoir leur part de la richesse créée par leurs données ». Autrement dit, il envisagerait de forcer les géants du Web à rémunérer leurs utilisateurs.

Il est donc légitime de se demander si à l’avenir, nous serons en mesure de monétiser nos données personnelles et d’en tirer des bénéfices monétaires, et quelle en serait la valeur. Tout d’abord, il faut se poser la question du type de données personnelles que ces acteurs collectent et essayer de comprendre ce qu’ils peuvent en déduire sur nous. La réponse est simple : à peu près tout. Les articles que vous consultez, vos conversations, votre géolocalisation, les pages que vous suivez/likez permettent à ces acteurs de construire un profil général à votre sujet, mais également de détecter ce qu’on appelle les « moments de vie ». Il s’agit des évènements importants dans la vie d’un consommateur, ayant un impact fort sur ses besoins (un déménagement, une naissance, un mariage, l’achat d’un véhicule…).

Et c’est essentiellement pendant ces moments-là que vos données prennent beaucoup de valeur, parfois plusieurs centaines d’euros ! En effet, pour un distributeur alimentaire, la « life-time value » d’une femme enceinte est largement supérieure à celle d’une consommatrice lambda. Détecter une période de grossesse afin de tenter de fidéliser le client est une opportunité qui a une valeur marchande claire, identifiée, et chiffrée.

La donnée à l'échelle individuelle ne vaut rien

Cependant, il faut se rendre compte que revendre nos données telles-quelles, de manière individuelle, serait une illusion. « La donnée à l'échelle individuelle ne vaut rien ! Sa valeur marchande provient uniquement de l'agrégation de masse », déclare Valérie Peugeot, membre de la CNIL, présidente de l'association Vecam et chercheuse à Orange Labs. La valeur des données augmente plus vite que leur volume, et plus généralement en fonction de l’aptitude à les utiliser pour influencer les comportements d’achats. Et c’est bien sur cette aptitude que les géants du Web ont construit leur position dominante. La maîtrise du ciblage à travers l’intelligence artificielle leur permet de nous influencer dans nos décisions d’achat, avec une meilleure probabilité que n’importe quel acteur auparavant.

La connaissance de nos besoins n’est rien sans la capacité à nous influencer dans nos décisions. Une société ayant connaissance de mon besoin d’un véhicule ne pourra en tirer profit qu’à partir du moment où elle est capable d’influencer mon choix quant à la marque du véhicule qui fera de moi un consommateur satisfait. C’est pourquoi la métrique la plus importante dans le monde publicitaire est le taux de conversion. Ce taux de conversion est directement lié à la capacité de ciblage d’une entreprise.

Les réseaux sociaux et les moteurs de recherche ont su exploiter les données que nous fournissons en consommant les médias qu’ils ont constitué autour d’eux, pour nous solliciter constamment et nous influencer dans nos décisions quotidiennes (quel est la meilleure pizzeria autour de moi ? quel type de bougie parfumée vais-je offrir à ma tante ?).

Le marché de la donnée n’est pas nouveau

Ce marché de la donnée n’est cependant pas nouveau. Les acteurs traditionnels de la grande distribution avaient compris son importance il y a plus de 60 ans lorsqu’ils ont instauré les premiers programmes de fidélité. Cette petite carte vous influence chaque semaine au travers de coupons et promotions « réservés aux encartés », tout en vous rendant captif à une enseigne. Ils utilisent nos historiques d’achat pour en déduire nos besoins présents et futurs, et nous inciter à consommer différemment (en général plus, ou plus cher).

Pour conclure, monétiser sa donnée « brute » de manière individuelle serait une illusion car sa valeur réside dans la capacité d’une entreprise à influencer un grand nombre d’individus dans leurs choix. Cependant, des initiatives, à l’instar de WeWard, envisagent de réattribuer une grande partie de la valeur monétaire de nos données personnelles en regroupant au sein d’une même plateforme un grand nombre d’individus et offrant aux annonceurs une capacité de ciblage basée sur les données personnelles. Le succès de ce type d’initiative restera directement corrélé à l’influence des comportements consommateurs qui en découle.
kindle


Lorsqu'en 2007, Amazon – qui n'était pas encore le géant du cybercommerce actuel mais qui avait déjà bousculé le marché du livre – lance sa liseuse Kindle, nombreux sont ceux qui pensent voir dans cet appareil le successeur du livre. Légère, avec un écran en niveaux de gris fonctionnant à l'encre électronique pour reproduire la sensation d'une page de livre, et avec une mémoire capable de contenir plusieurs centaines d'ouvrages numériques vendus moins cher que leur version traditionnelle : la liseuse ne manquait pas d'arguments. Mais depuis, le succès rouleau compresseur n'a pas eu lieu. La diversité de formats de livres électroniques incompatibles entre différentes marques de liseuses a été un handicap fort de départ. La qualité des écrans, devenus rétro-éclairés comme les tablettes, s'est sans cesse améliorée mais n'a jamais égalé celle du papier. Et le plaisir d'avoir un vrai livre est sans commune mesure avec la froideur d'une liseuse. «Les Français restent attachés à l'objet livre. La lecture de livres numériques évolue de manière marginale et ne cannibalise pas le format papier», note Vincent Monadé, président du Centre national du livre (CNL).

Le marché tiré par les 15-24 ans


Après une nette progression entre 2015 et 2017 (24 % de lecteurs de livres numériques en 2019 et 2017 contre 19 % en 2015), le taux de lecteurs de livres numériques marque un palier en 2018 : 4 livres lus au format numérique en 2018 contre 3 en 2017 et 2 en 2015, selon le dernier baromètre 2019 «Les Français et la lecture». Le taux de lecteurs de livres numériques est en revanche toujours plus élevé chez les 15-24 ans, qui plébiscitent notamment les BD. 47 % ont lu au moins un livre numérique au cours des 12 derniers mois, contre 13 % chez les 65 ans et plus. Cette classe d'âge consomme 8 livres numériques par an tandis que chez les 65 ans et plus, on est à 1 livre en moyenne. Les femmes lisent tendanciellement plus de livres : 5 contre 3 en 2017.

Le marché du livre numérique en France reste toutefois dynamique. La dernière enquête menée par OpinionWay en 2018 sur le livre numérique montre que les usages des lecteurs de livres numériques se diversifient et s'intensifient : lecture sur smartphone, tablette ou liseuse, prêt numérique en bibliothèque et adoption rapide du format audio. Seule ombre au tableau l'hégémonie d'acteurs américains : Amazon, Rakuten, Apple, Google s'accaparent 90 % du marché. En France, les libraires hexagonaux sont sous-représentés avec à peine 10 % de part de marché, ce qui, à terme, pourrait remettre en cause l'équilibre du marché du livre français.

Face à ce défi, des acteurs prennent des initiatives. Bookeen (spécialiste des liseuses depuis 2003) et Tite-Live (pionnier des logiciels de gestion de libraires et des bases de données culturelles depuis 1983) ont décidé de s'allier. En septembre prochain, ils entendent proposer une nouvelle gamme de liseuses, des applications mobiles de lecture et d'écoute, un nouveau standard de protection anti-copie, et une plateforme pour la distribution de livres numériques et audio. Cette solution technique disponible pour tous les libraires leur permettra de vendre des livres dématérialisés aux particuliers comme aux professionnels.