airbus


L'Institut National de la Propriété Industrielle (INPI) a comptabilisé 771 demandes de brevets venant d'Occitanie, publiées en 2018, soit 5,9 % des demandes publiées en France.

"Le TOP 15 représente la diversité des typologies de déposants en région Occitanie, avec quatre grandes entreprises (Airbus, Continental, Safran et Horiba ABX SAS), une entreprise de taille intermédiaire (Liebherr-Aerospace Toulouse SAS), six PME et quatre établissements d’enseignement supérieur et de recherche", indique l'INPI.



3 entreprises dans le Top 10 national

Enfin, la région Occitanie accueille trois PME du TOP 10 des PME national : Sigfox, Distraimed et Fogale Nanotech.
impot


Faire sa déclaration de revenus par internet peut vous exposer, comme toute activité en ligne, à la malveillance de cybercriminels. Tel est l'avertissement de Proofpoint, spécialiste de la sécurité informatique.

Recrudescence des campagnes de malware et de phishing

«Les experts Proofpoint ont en effet observé une recrudescence des campagnes de malware et de phishing (hameçonnage) élaborées pour dérober les données fiscales des particuliers. Une augmentation du nombre de RAT (Remote Access Tool, outil de contrôle à distance), est observée depuis 2018. NetWire, un RAT multiplateforme, a été particulièrement utilisé dans certaines cyberattaques via des pièces jointes et des emails contenant des fichiers Microsoft Office piégés», indique la société.

Les cybercriminels adoptent également des techniques d'ingénierie sociale, c'est-à-dire qu'ils se font passer pour le service impots.gouv.fr. De tels agissements s'observent aussi aux États-Unis ou en Nouvelle-Zélande.

«En finalisant leurs déclarations de revenus cette année, il est essentiel que les particuliers traitent avec prudence les appels téléphoniques non sollicités, les emails, les sms ou messages diffusés via les réseaux sociaux. Leur déclaration doit se faire directement auprès des organismes fiscaux par des voies fiables», explique Kevin Epstein, vice-président de l'exploitation des menaces chez Proofpoint.

Proofpoint délivre trois conseils avant de remplir sa télédéclaration :

  1. avoir à l'esprit que le service des impôts ne demande jamais aux particuliers de partager leurs informations personnelles par email, par sms ou via les réseaux sociaux ; 
  2. les particuliers doivent être prudents à la réception d'un email qui prétend venir des impôts (ne pas cliquer sur des liens ou ouvrir des pièces jointes. Le suivi de la déclaration se fait auprès du bureau local des impôts en utilisant les coordonnées fournies sur le site officiel) ; 
  3. enfin, si quelqu'un appelle en prétendant appartenir au bureau des impôts, ne fournissez aucune information, raccrochez rapidement.
mobile


L'Afutt (Association Française des Utilisateurs de Télécommunications) vient de publier ce lundi 15 avril son 15e Observatoire des plaintes et insatisfactions dans le secteur des télécommunications (téléphonie, accès internet fixe et mobile).

Moins de plaintes en 2018

"L’année 2018 est marquée par un reflux du volume des plaintes dans le secteur, qui nous ramène sur les niveaux de 2015, après 2 années de hausse, en particulier celle de 2016", explique l'Afutt. "L’amélioration du traitement des plaintes chez SFR (groupe Altice) est pour une bonne part dans ce reflux même si l’opérateur demeure sur l’année plus générateur de plaintes que ses concurrents. À noter que la baisse dans le secteur du mobile est plus marquée que dans le secteur de l’internet fixe de sorte que le fixe repasse devant le mobile en volume", poursuit l'association qui précise que "seule une faible part de l’ensemble des plaintes que génère [le] secteur arrive jusqu’à l’Afutt."

Les pannes au centre des litiges

"L’interruption de service arrive en tête des problèmes rencontrés par les utilisateurs de l’internet fixe et les litiges de facturation sont en tête dans le secteur du mobile", a constaté l'Afutt. "Les abus du démarchage téléphonique et la fraude aux numéros surtaxés restent des pratiques inadmissibles qui génèrent beaucoup de mécontentements au point que le gouvernement envisage à nouveau de légiférer sur le premier point et que des alertes ont été lancées au cours de l’année 2008 par la DGCCRF sur le deuxième", précise l'association.

Le démarchage abusif dans le collimateur du Parlement

Il est vrai que le service Bloctel, liste d'opposition au démarchage téléphonique sur laquelle tout consommateur peut s'inscrire gratuitement afin de ne plus être démarché, est particulièrement perfectible depuis son lancement le 1er juin 2016. Un sondage publié le 20 juin 2018 par l'UFC-Que choisir révélait que 92% des Français trouvaient toujours les appels par démarchage commercial «trop fréquents».
Une proposition de loi de Pierre Cordier, député LR des Ardennes, a été adopté par le Sénat en février et prévoit de multiplier les sanctions par cinq à l'encontre des démarcheurs ne respectant pas la loi de mars 2014 ayant institué Bloctel.

Les délais de mise en service à l'index

Cette année l’Afutt complète son Observatoire par la publication d’une analyse portant sur les délais de mise en service, les délais de réparation et les taux de pannes signalées dans le secteur de la téléphonie et de l’accès internet fixe.
"Les graphiques sont pleins d’enseignements et montrent par exemple, toutes technologies confondues, que les délais d’installation avec rendez-vous sont élevés, de 5 à 6 semaines, que les taux de pannes au cours du premier mois après l’installation sont importants, autour de 15% en moyenne, et que les temps de réparation dépassent allègrement les 15 jours dans beaucoup de cas", estime l'association.
password


Par Arnaud Gallut, Directeur des Ventes Europe du sud, Ping Identity 

Le 4 mai prochain marquera la troisième édition du World Password Day, dont l’objectif est de mobiliser l’opinion publique sur la nécessité de disposer de mots de passe robustes. Le fait que les mots de passe sont aujourd’hui omniprésents dans la nouvelle économie numérique n’échappe à personne, et surtout pas aux cybers criminels, qui s’y attaquent en priorité, et savent d’une part qu’ils sont simples à usurper dans la grande majorité, et d’autre part qu’ils sont la porte d’entrée aux informations et aux ressources les plus précieuses. D’après le Data Breach Investigation Report 2017 de Verizon, 81% des cyber attaques réussies ont exploité des mots de passe insuffisamment robustes ou volés. La faible robustesse des mots de passe est de notoriété publique. Bien plus, d’après une récente enquête OVUM, 80% des utilisateurs conservent le même mot de passe pour différents comptes, et 46% des employés utilisent des mots de passe personnels pour leurs comptes professionnels. La raison est simple. Plus les mots de passe sont complexes et multiples, plus ils sont difficiles à mémoriser. Beaucoup d’organismes officiels, la CNIL en France par exemple, recommandent des bonnes pratiques pour limiter les risques, telles que des mots de passe d’au moins 12 caractères de 4 types différents, un mot de passe par compte, des mises à jour régulières, l’absence de tout lien entre le mot de passe et son propriétaire, ou encore l’utilisation d’un gestionnaire de mots de passe. Mais ces pratiques sont peu respectées car elles sont contraires aux attentes des utilisateurs, qui privilégient l’ergonomie et la simplicité d’accès.

Ceci étant dit, ne nous y trompons pas. Quelle que soit leur robustesse et les bonnes pratiques utilisées, les mots de passe n’offrent plus un niveau de sécurité suffisant pour protéger les données les plus sensibles. Dans l’immense majorité des cas, ils sont devenus simples à usurper, et n’importe quel cyber criminel sérieux, s’il y met les moyens, mettra moins d’une journée par y parvenir. Sans compter qu’il pourra se servir sur le ‘dark web’, où des milliards d’identifiants sont disponibles à un prix modique.

De nouveaux standards à la rescousse du mot de passe


Le W3C (World Wide Web Consortium) et la FIDO Alliance, à l’origine des standards les plus répandus d’Internet, ont récemment finalisé l’API WebAuthn, dont l’objectif avoué est de généraliser une authentification sans mot de passe (Passwordless). WebAuthn est disponible gratuitement et déjà supportée par tous les principaux navigateurs, ainsi que par Android et Windows 10. Il permet aux fournisseurs de services de remplacer le mot de passe par une validation de l’authentification de l’utilisateur sans transmettre de données sensibles en y procédant localement sur son poste de travail (tablette, périphérique ou smartphone). La validation de l’authentification s’effectue alors par des moyens tiers interfacés avec cette API, tels qu’une clé de sécurité USB ou une montre connectée par exemple. L’intérêt de cette API est de ne plus avoir de mot de passe à véhiculer sur les réseaux.

La biométrie, remède miracle ?


Beaucoup d’acteurs de l’industrie high tech prédisent la disparition totale des mots de passe comme méthode d’identification, et son remplacement notamment par des systèmes biométriques. Les systèmes de lecture d’empreintes digitales et de reconnaissance faciale se multiplient ainsi depuis plusieurs années, en particulier sur les terminaux mobiles. Toutefois, les solutions biométriques ne sont pas non plus immunisées contre les attaques. La technologie de lecture des empreintes digitales s’est certes grandement améliorée ces dernières années, mais n’est toujours pas infaillible. Elle peut notamment être prise en défaut par des solutions d’intelligence artificielle et de machine learning qui permettent de réaliser des empreintes ‘passe partout’. Même chose pour les solutions de reconnaissance faciale, dont certaines peuvent être trompées à l’aide d’une simple photo d’identité.

Authentification multifacteur et SSO : le duo gagnant


La biométrie utilisée seule a donc elle aussi ses faiblesses. Cela ne veut pas dire qu’elle est inutile, mais simplement qu’elle souffre des même défauts qu’un mot de passe en tant qu’authentification unique. Que ce soit en utilisant un visage imprimé en 3D, en créant de fausses empreintes, ou en craquant simplement un mot de passe de secours trop faible, il est beaucoup plus facile pour un attaquant de s’emparer d’un compte utilisateur qui n’est pas protégé par au moins deux facteurs d’authentification.

L’authentification multifacteur, associant par exemple biométrie, mot de passe et terminal identifié, est ainsi seule capable d’offrir un niveau maximum de sécurité car elle impose à l’attaquant de prendre le contrôle de non pas un mais plusieurs facteurs. La solution idéale aujourd’hui est de l’associer à des solutions d’authentification unique, ou SSO (Single Sign On) qui permet à un utilisateur d'accéder à de nombreuses applications sans avoir à multiplier les authentifications. Il lui de s’authentifier en début de session, et il peut ensuite accéder à de nombreuses applications sans être contraint de devoir s'identifier sur chacune d'entre elles. On obtient ainsi une solution qui associe une grande simplicité d’utilisation, notamment pour des applications grand public, et un haut niveau de sécurité.
opendata


L'ouverture des données publiques est un enjeu démocratique majeur pour nos sociétés et les pouvoirs publics doivent pouvoir s'emparer de ces questions. C'est dans cette optique que la Région  Occitanie et 16 organisations publiques et privées lancent l'association Occitanie Data jeudi 18 avril à Montpellier.

"L'intelligence artificielle et les données massives, qui sont désormais au cœur de la révolution du numérique, sont devenues en quelques années un enjeu stratégique pour la France et l'Europe.  Berceau de filières d'excellence reconnues mondialement, le territoire régional est d'ores et déjà un acteur reconnu du Big Data et de l'Intelligence Artificielle grâce à l'excellence de ses laboratoires de recherche, de ses formations supérieures à Montpellier comme à Toulouse, ainsi que de son tissu industriel", explique la Région, qui a donc décidé, avec des acteurs importants de la donnée, régionaux ou nationaux, de créer une structure innovante : Occitanie Data.

Communauté de chercheurs, d'administrations et d'entreprises

Présidée par Bertrand Monthubert, conseiller régional délégué à l'enseignement supérieur et à la recherche, Occitanie Data permettra d'animer et structurer une communauté importante de chercheurs, d'administrations, d'entreprises et d'entrepreneurs, en créant des synergies entre les acteurs publics et privés du territoire pour couvrir l'ensemble de la chaîne de valeur depuis la production des données jusqu'aux services les utilisant.

La structure proposera des actions, services et solutions de nature à répondre aux besoins identifiés auprès des acteurs. Elle s'articule par ailleurs avec le projet d'Institut Interdisciplinaire d'Intelligence Artificielle de Toulouse.

Economie de la donnée et intelligence artificielle

"Faire de la Région Occitanie un territoire de pointe en matière d'économie de la donnée et d'intelligence artificielle : voilà le défi que nous nous sommes donné avec 17 acteurs publics et privés et de nombreux partenaires afin de coordonner nos forces sur ces enjeux stratégiques, notamment en assurant la circulation des données dans un cadre de confiance. Occitanie Data sera le levier du développement d'une Intelligence Artificielle éthique, respectueuse de la population et de l'environnement, et du soutien aux initiatives des acteurs locaux, éléments indispensables au rayonnement de notre territoire. » a déclaré la présidente Carole Delga à quelques jours de l'évènement.

A noter que ce mouvement pour l'ouverture des données publiques touche de nombreuses collectivités partout en France. A Toulouse par exemple, a été mis en place le projet « Toulouse Métropole Data ». La Métropole toulousaine concourt par ailleurs au développement de l'Open Data au niveau national par sa participation active dans l'association Open Data France, dont le Toulousain Bertrand Serp est vice-président pour la délégation « Prospective et modernisation numérique de l’administration ».


Les membres fondateurs d'Occitanie Data 

Les membres fondateurs d'Occitanie Data sont Agropolis International, Airbus, ATOS, Caisse des Dépôts et Consignations, CNES, COMUE Languedoc-Roussillon Universités, ENEDIS, IGN, IRT Saint Exupéry, Météo France, ORANGE, Pôle Aerospace Valley, Qwant, Région Occitanie, Sopra Steria, Toulouse Métropole, Université fédérale Toulouse Midi-Pyrénées. Une centaine de partenaires ont exprimé leur intérêt dans la démarche et sont les invités de cette journée de lancement.


Par Thierry Besrest, Sales Data Center France de Rosenberger OSI

Véritables cerveaux de nos smart cities, les data centers sont devenus indispensables à nos existences rythmées par l’Internet. Depuis deux ans, ils sont le théâtre de profonds renouvellements, qui engagent notamment leur infrastructure de câblage.

Leur présence est discrète, et pourtant ils sont au cœur de nos vies numériques : depuis plusieurs années, les data centers jouent un rôle majeur dans le développement de l’Internet. Constituant la partie matérielle – et à ce titre, très concrète –  du numérique, ils se développent aux abords de nos villes et de nos métropoles, de nos villages et de nos entreprises. Regroupant tout à la fois des ordinateurs centraux, des serveurs, des baies de stockage, des équipements réseaux et télécommunications, ils sont loin d’être anodins. Les data centers sont les centres névralgiques de nos territoires, de nos services et de nos informations ; ils constituent les cerveaux de nos villes désormais smart.

De 10 à 400 Gigabit/s Ethernet

L’histoire de ces data centers a démarré il y a une trentaine d’années – une éternité au regard des progrès technologiques accomplis depuis. Nous sommes dans les années 1990 : la bulle Internet commence à se développer, et, avec elle, la nécessité de faire circuler l’information à la vitesse de cette nouvelle modernité qu’est le World Wide Web. Déployées au sein de chaque data center, les premières synapses de ces cerveaux technologiques ont la teneur du cuivre, avant que la fibre ne vienne offrir de nouvelles alternatives. Au fil des ans, les systèmes de câblage s’adaptent à l’essor exponentiel de nos data, véhiculant les données suivant le protocole Gigabit Ethernet puis 10 Gigabit Ethernet. Las ! Tout change à partir de 2017. Multiplication de nos besoins oblige : une nouvelle génération de serveurs apparaît, capable de gérer toujours plus d’informations simultanément. Particularité de ces machines : elles supportent désormais des débits de transmission non plus de 10 mais de 100 à 400 Gigabits par seconde (400 000 000 000 de 1001010010 en 1 seconde) via le protocole Ethernet. Une révolution est en marche : elle passe par une évolution majeure au sein des data centers, partout dans le monde.

Des process à respecter

Voici donc nos cerveaux technologiques transfigurés dans leur fonctionnement même. Les exigences sans cesse croissantes en termes de puissance et de débit de transmission que doivent respecter les data centers les obligent à transformer leur infrastructure de câblage. Il faut en quelque sorte déployer de nouvelles synapses, supportant des puissances de 100 à 400 Gigabit/s Ethernet. Le câblage mis en place passe ainsi de 2 à 32 fibres, voire à 64. Le prix à payer de ces connections renouvelées ne représente qu’une petite part « du cerveau » : 2% du budget total d’un data center. En revanche, l’intervention est décisive, y compris en termes « green ». Car, si ces nouveaux câbles permettent à de grands comptes tels que de grandes banques ou des compagnies aériennes de bénéficier de services plus rapides et plus fiables, ils répondent également aux nouvelles normes environnementales en vigueur – étant entendu qu’un data center, comme un cerveau humain, est hautement consommateur en dépenses énergétiques.

N’est pas chirurgien qui veut : ces opérations d’installation doivent respecter des normes spécifiques. Phase de test, phase de certification… Les process sont rigoureux et assurés par des techniciens spécialisés et spécifiquement formés. L’enjeu est de taille : une installation mal faite et c’est tout un écosystème de vies, d’activités, de produits et de services, qui se trouve paralysé en une fraction de seconde.

Ici se situe peut-être l’une des difficultés que nous rencontrons actuellement : si nous bénéficions avec ces nouveaux câbles d’outils techniquement performants, il convient d’être vigilant quant à la compétence des personnels en charge du renouvellement de nos « data synapses ». La stratégie n’est pas seulement dans la technologie : elle est aussi dans la justesse du geste humain qui l’accompagne.
change.org


Alors qu'Emmanuel Macron va s'exprimer ce lundi 15 avril à 20 heures à la télévision, la plateforme de pétitions en ligne sur internet Change.org dévoile son "Agenda des solutions" reprenant là une expression d'Edouard Philippe.

5 pétitions à plus d'un million de signatures

Change.org a joué un rôle important dans la montée en puissance du mouvement des Gilets jaunes, en hébergeant, notamment la pétition de Priscilla Ludosky "Pour une Baisse des Prix du Carburant à la Pompe", aujourd'hui signé par plus de 1,2 millions de personnes.
L'"Agenda des solutions" de Change.org reprend les solutions plébiscitées par les utilisateurs : "au total, 5 pétitions ont comptabilisé plus d’un million de signatures : Prise en compte des votes blancs, interdiction du glyphosate, transparence des dépenses des élus, loi contre l’évasion fiscale, et moratoire sur l’usage des armes dites “moins-létales” par les policiers lors des manifestations."

320 pétitions lancées pendant le Grand débat

Ce matin à 9h, Jean-Sébastien Nicolas, Johan Reboul, Christophe Grébert, Laurent Thines, 4 des 5 lanceurs de pétitions les plus populaires devaient être présents place de la Concorde à Paris pour présenter l’Agenda des solutions, "un agenda à taille humaine, à la hauteur de leurs attentes." Muni d’un mégaphone, et d’un objet symbolisant leur campagne, ils devaient prendre la parole chacun leur tour afin de faire entendre leurs revendications.
Change.org a été au coeur de ces derniers mois de Grand débat.  "Plus de 320 pétition ont été lancées", explique la branche française de la plateforme utilisée par plus de 265 millions de personnes à travers 196 pays, dont plus de 11 millions en France.

cloud



Avis d 'expert par Commvault

Les environnements multi-cloud peuvent favoriser l'agilité, mais seulement si la gestion et la protection des données font partie d’une même stratégie. Il s'agit d'une question cruciale pour de nombreuses organisations.

Aujourd'hui, la majorité des clients du Cloud en utilisent plus d'un et leur nombre pourrait augmenter encore plus dans les années à venir. Comment une structure informatique, même la plus agile, peut-elle faire face aux différents SLAs et politiques de protection des données et faire en sorte que son organisation puisse utiliser les données stockées dans ces clouds ?

Commvault a listé les 5 étapes clés pour rationaliser le processus de gestion des données multi-cloud.


  1. Consolider les outils.  Si l'entreprise utilise plusieurs produits pour gérer la sauvegarde, la restauration, la découverte et la reprise d'activités, il n'est pas possible d'avoir une structure informatique agile. Une plate-forme unique de gestion des données rationalise le traitement, la gestion et l'utilisation des données dans les différents clouds et les infrastructures sur site.
  2. Appliquer une vision unique pour les données. Avec un seul tableau de bord pour gérer les cycles de vie des données, les équipes informatiques peuvent être rapides, efficaces et peuvent respecter les SLAs, y compris à une grande échelle.
  3. Automatiser. Un produit de protection des données qui offre des options d'automatisation, d'orchestration, d'intelligence artificielle et de machine learning, peut libérer du temps pour les équipes informatiques. Cela va leur permettre de se concentrer sur des projets plus stratégiques.
  4. Travailler dans le cloud. Il est conseillé de choisir un produit qui a une intégration native avec les clouds. De cette façon, il est possible de travailler à partir d'une seule interface pour les tâches courantes de sauvegarde et de restauration et permet d'éviter de devoir basculer d'une interface à l'autre.
  5. Voir grand. Les volumes de données constituent le principal obstacle à l'adoption du Cloud Computing. Il est préférable d'opter pour une plate-forme de protection des données qui offre la possibilité de déplacer rapidement des charges de travail volumineuses vers le cloud. Il faut privilégier des solutions telles que AWS Snowball ou Azure Data Box et une plate-forme de gestion de données pouvant supporter des migrations de données à grande échelle.


Lorsqu’une organisation décide de mettre en place une stratégie de protection des données multi-cloud, elle doit consacrer le temps nécessaire à une planification en amont afin de gagner du temps, économiser les efforts et réduire le stress lié à la disponibilité des données. En utilisant les meilleures pratiques en matière de protection des données, il est possible de maximiser la flexibilité de l'environnement multi-cloud d'une entreprise.
data


Par Emmanuel Schalit, CEO de Dashlane

Vos données personnelles n'ont jamais été aussi précieuses maintenant qu’elles sont en ligne.

Aujourd'hui, nos vies numériques sont aussi essentielles que nos vies réelles. Les données personnelles que vous stockez sur vos comptes en ligne et l'empreinte que vous laissez à travers votre historique de recherche et de navigation sont partie intégrante de votre identité, et c'est à vous de la protéger.

Une explosion des menaces pour le respect de notre vie privée

En matière de vie numérique, l'année dernière a été hors normes, non seulement en raison de la quantité et de l’étendue des piratages et des atteintes à la protection des données, mais aussi par l'ampleur de la perte de confiance entre Internet et le monde qui en dépend. En quelques mois seulement, les trois plus grandes sociétés d’Internet que sont Facebook, Google et Amazon, ont toutes annoncé qu'elles avaient été piratées.

Indéniablement, nos données et informations sont de moins en moins sécurisées, les transactions en ligne sont loin d'être transparentes et la légitimité des actualités est désormais remise en question. Au lieu d’encourager le bien - permettant aux individus de se relier entre eux, de partager des connaissances et de grandes idées - Internet est devenu, dans certains cas, une source de frustration voire de peur.

Comment aider les consommateurs à se protéger contre ces risques ?

Internet n'appartient à personne, il appartient à tout le monde. Résoudre les problèmes que cela induit constitue un défi sans précédent. Les gouvernements peuvent influer positivement par le biais de la réglementation, comme dans le cas du RGPD. Cependant, nous savons également que la construction d'un meilleur monde numérique passe par l'autonomisation de chacun d'entre nous.

Nous utilisons un nombre croissant de comptes en ligne au quotidien, nombre qui double tous les cinq ans. La gestion des mots de passe de tous ces outils est devenue incroyablement complexe. La plupart d'entre nous réagissent à ce problème avec indifférence et ont tendance à utiliser le même mot de passe partout. Nous nous enfouissons la tête dans le sable en pensant que tout va bien ; jusqu'au jour où nous sommes piratés. Vous n'êtes peut-être pas en mesure de contrôler l'architecture de sécurité des services numériques que vous utilisez tous les jours et qui contiennent vos données, mais vous pouvez prendre des mesures concrètes pour vous assurer d'avoir le meilleur comportement pour protéger vos données personnelles sur ces comptes. Cette approche est la version numérique de la doctrine du "confinement".

Les bons réflexes pour sécuriser votre identité numérique

Nous pouvons tous prendre des mesures simples et fondamentales pour sécuriser nos comptes numériques.
Premièrement, créez un mot de passe unique pour chaque compte. Cela garantit que même si l’un de vos comptes est piraté, vos autres comptes seront quant à eux sécurisés. Certains piratages ne sont découverts ou divulgués que des années plus tard, comme ce fut le cas avec le piratage de Yahoo qui s'est produit il y a deux ans. Vous ne savez jamais à quel moment vos informations peuvent être vulnérables. Nous avons constaté qu’un utilisateur moyen a plus de 150 comptes, il est donc impossible de mémoriser tous ses mots de passe - les gestionnaires de mots de passe le feront très bien pour vous.

Assurez-vous que tous vos mots de passe sont forts. Le mot de passe idéal est un enchaînement unique et aléatoire de lettres et de chiffres. À nouveau, les gestionnaires de mots de passe peuvent facilement générer des mots de passe forts, et donc plus sécurisés, pour tous vos comptes.

Enfin, changez régulièrement vos mots de passe car les piratages passent souvent inaperçus pendant des mois, voire des années, de sorte que vous ne savez jamais quand votre compte a pu être exposé. L'utilisation d'outils appelés changeurs de mots de passe est très utile dans ce processus car ils peuvent changer instantanément vos mots de passe sur des centaines de sites en un seul clic. Il est ainsi extrêmement facile de s'assurer que vos comptes soient toujours protégés contre des menaces inconnues.

Nous savons que la construction d'un monde numérique meilleur passe par le fait donner aux gens, c’est à dire à nous tous, les moyens de reprendre le contrôle sur nos identités numériques. Ainsi nous pourrons garder la main sur nos données personnelles, qui nous appartiennent.

Ce n'est qu'à cette condition que nous pourrons vivre dans un monde numérique sûr et utiliser à nouveau Internet à bon escient, comme initialement destiné.
password


Par Hervé Liotaud, Regional Director Southern Europe chez SailPoint

Le dernier cas de piratage d’un milliard de données personnelles nous rappelle à quel point il est crucial de mieux sécuriser les mots de passe, et il est nécessaire de mieux les gérer. Des mesures d’autant plus indispensables que de plus en plus de vols de données personnelles ont des conséquences massives sur les entreprises.

Ce problème est lié à une habitude bien enracinée qui consiste à utiliser les mêmes mots de passe pour différents comptes utilisateur. Par exemple, 75 % des personnes interrogées dans le cadre de la récente étude SailPoint Market Pulse Survey ont confirmé utiliser les mêmes mots de passe pour plusieurs de leurs comptes (aussi bien professionnels que personnels). Il s’agit d’un facteur de risque inutile alors que nous constatons que d’anciens vols de mots de passe continuent de produire leurs effets, et que de nouvelles menaces telles que le « credential stuffing » permettent aux pirates de profiter de la négligence de certains utilisateurs qui ne respectent pas les bonnes pratiques en matière de mots de passe.

Bien sûr, il est impossible de protéger des données qui ont déjà été compromises, mais il existe bel et bien des mesures de sécurité très simples que les utilisateurs peuvent mettre en place afin de protéger leurs informations personnelles d’une nouvelle intrusion. A commencer par adopter systématiquement des mots de passe plus solides, avec au moins huit caractères, et comportant des majuscules et minuscules, et des caractères spéciaux. Ou de ne plus jamais utiliser le même mot de passe pour différents sites. Sans oublier de rester vigilants, en surveillant ses mouvements sur Internet, et en prenant garde à chaque demande d’identifiant d’accès ou de données personnelles.
supermarche


Comment en finir avec les files d'attente aux caisses des supermarchés, alors que selon un sondage OpinionWay, 40 % des Français trouvent le temps d'attente en caisse «trop long» dans les supermarchés, et 24 % vont jusqu'à renoncer à acheter pour cette raison ? Peut-être avec des magasins… sans caisses.

Le concept est arrivé à maturité avec le géant Amazon qui a ouvert sa supérette Amazon Go l'an dernier après deux ans de tests avec ses propres employés (lire page suivante). Avec ce nouveau type de magasins, le géant du net entend bien révolutionner les courses alimentaires comme il a révolutionné le marché du livre à ses débuts, puis l'ensemble du commerce en ligne en suivant. Surtout, ces magasins participent d'une nouvelle stratégie de Jeff Bezos, l'emblématique PDG de la société de Seattle : créer des boutiques physiques. Il a déjà ouvert une dizaine de librairies Amazon Books aux Etats-Unis et prévoit d'accélérer l'ouverture d'Amazon Go, estompant un peu plus la frontière entre cybercommerce et commerce traditionnel.

Les ambitions d'Amazon dans la distribution alimentaire – la société a récemment racheté Whole Foods Market, une chaîne de supermarchés «bio», pour 13,7 milliards de dollars – ont de quoi inquiéter les concurrents numériques d'Amazon comme Google (qui multiplie les partenariats avec des chaînes) et bien sûr les acteurs traditionnels de la grande distribution.

Les Français innovent aussi

Mais ces derniers n'ont pas dit leur dernier mot. D'une part, les commerces traditionnels misent sur le smartphygital, un concept permettant d'introduire dans les boutiques nombre d'activités numériques venues du cybercommerce (lire ci-dessous). Et d'autre part, les géants de la grande distribution tablent eux aussi sur des magasins automatiques comme ceux d'Amazon Go. Aux Etats-Unis, le géant de la distribution Walmart travaillerait ainsi en collaboration avec Microsoft.

En France, Carrefour doit tester auprès de ses employés du siège de Massy (Essonne) sa première supérette automatisée, sans caisses ni caissiers, qui fonctionnerait grâce à des caméras équipées d'un système de reconnaissance faciale mis au point par le géant chinois Tencent. Carrefour doit aussi expérimenter à Bruxelles une supérette entièrement automatisée : pas de rayons mais des écrans pour sélectionner ses produits dont la préparation sera robotisée. Ce magasin high-tech disposera aussi de casiers de retrait pour les commandes passées en ligne.

Le groupe Casino s'est lui aussi lancé dans des boutiques sans caisse. Pour l'heure, le groupe en est à la réflexion expérimentale avec son espace «Le 4», dans le quartier des Champs-Elysées.
D'autres acteurs plus modestes sont également en lice sur des projets plus petits mais non moins innovants. Comme le groupe Neovendis qui veut développer son concept Ximiti : un distributeur automatique de grande taille, accessibles 24 heures sur 24 et 7 jours sur 7, qui propose 800 références. Une borne permet aux clients de passer commande et de régler leurs achats, à moins qu'ils aient fait ces opérations auparavant depuis leur smartphone. Six magasins de ce type sont ouverts, une dizaine devrait rapidement voir le jour.

Bien évidemment cette course au magasin automatisé est mondiale, et les solutions se multiplient au Japon ou en Chine. Un engouement qui n'est pas près de s'arrêter : une étude Jupiner Research publiée l'an passé estimait que le marché des solutions de paiement sans caisse devrait passer de 253 millions de dollars en 2018 à 45 milliards en 2023.

Des livraisons par drone ou robot


Autre problème du commerce que le temps d'attente aux caisses (que peut éventuellement régler un magasin sans caissiers) : le délai de livraison. D'où l'idée qui fait son chemin de livraison s par drone ou par robot. Le gouvernement américain doit autoriser les «vols de routine» à très basse altitude, permettant cette livraison par drone que veulent mettre en œuvre Amazon, Google mais aussi Fedex, Uber ou CNN. Cet assouplissement de la réglementation, initialement prévu en 2016, a été retardé, notamment pour prendre en compte d'éventuelles menaces terroristes. La nouvelle réglementation pourrait entrer en vigueur en 2020.

Amazon – toujours lui – explore aussi une autre piste avec la livraison par robot. Il a conçu Scout, robot de la taille d'une «petite glacière». Depuis janvier à Seattle, six exemplaires circulent sur le trottoir à la vitesse d'un homme qui marche, évitant les obstacles. Le groupe décidera à partir de ce test grandeur nature de l'extension du système, qui permet de limiter les coûts de livraison et régler le casse-tête du «dernier kilomètre».

statista

Le «smart phygital», eldorado du petit commerce ?

Le salon Paris Retail Week, qui a réuni des centaines d'acteurs de la distribution en septembre dernier, a mis à l'honneur un nouveau concept : le «smart Phygital», phygital étant la contraction de physique et digital (numérique en bon français) et smart pour intelligent. Derrière le terme marketing anglo-saxon se trouve l'effacement des frontières entre les canaux d'achats physiques et en ligne. Une tendance en plein boom qui pourrait devenir un véritable eldorado pour les moyennes et grandes boutiques confrontées à la concurrence des grandes plateformes d'achats comme Amazon.

Le lèche-vitrines a donc encore de beaux jours devant lui

«Une enquête menée en 2018 par 421 Research pour Ayden auprès de 5 033 Européens (Royaume-Uni, Allemagne, Espagne, France et Pays nordiques), rend compte de l'importance de la vision Smart Phygital pour les acteurs de la distribution qui met en avant les attentes des consommateurs vis-à-vis de l'expérience d'achat autour de 3 axes : la personnalisation, la stratégie omnicanal et l'innovation digitale», explique Statista.

Le «smart phygital» acte aussi que les magasins physiques ont encore de beaux jours devant eux. «Avec une progression annuelle stable entre 12 % et 15 % depuis plus de 10 ans, l'e-commerce fait l'objet de toutes les attentions. Il faut dire qu'entre les promesses d'expérience utilisateur intelligente, de parcours client personnalisé et des offres promotionnelles imbattables, il ne manque pas d'atouts pour ringardiser l'expérience d'achat en magasin. Pour autant, la part des ventes du commerce en ligne sur l'ensemble du commerce de détail reste faible (9,7 %) et n'a progressé que de 1 point entre 2017 et 2018», explique Sébastien Verger, CTO chez Dell Technologies. «Si 33 % des consommateurs français débutent leur recherche sur Internet, ils sont 79 % à finaliser leur acte d'achat en boutique», rajoute une étude d'Ucopia, leader mondial de la gestion d'accès, de la monétisation et du marketing Wi-Fi. «Le lèche-vitrines a donc encore de beaux jours devant lui… à condition de savoir s'adapter à l'arrivée sur le marché d'une nouvelle génération de consommateurs : la génération Z», estime l'expert.

Retrouver dans la boutique des expériences numériques

«Dans la boutique, les clients attendent des services de haute qualité, tels que de meilleures informations sur les produits, aussi utiles que dans les boutiques en ligne. S'adresser aux clients par e-mail et marketing en ligne, avoir le wifi gratuit, des systèmes de divertissement et d'information en magasin, des promotions de prix plus fréquentes et l'utilisation de caisses enregistreuses mobiles sont d'autres moyens par lesquels le commerce de détail peut se positionner pour l'avenir», estime Sébastien Verger.


primenow

Quand la grande distribution s'allie aux géants du web

Après l'annonce d'une alliance entre Monoprix et Amazon, Carrefour s'est allié en juin dernier avec un autre géant d'internet : Google. Le partenariat stratégique s'articule autour de trois piliers : le déploiement de l'offre Carrefour sur une nouvelle interface du site de Google Shopping et sur l'Assistant Google en France, la création d'un Lab Carrefour-Google et l'accélération de la digitalisation du groupe Carrefour.

Nouvelle expérience de commande vocale

Si l'ouverture du Lab d'innovation en partenariat avec Google Cloud et la formation de plus d'un millier de collaborateurs de Carrefour à la culture numérique n'ont rien d'extraordinaire, en revanche le déploiement de l'offre commerciale avec l'assistant Google est l'illustration d'une importante bataille qui fait rage autour des assistants vocaux et des enceintes connectées.

Carrefour et Google veulent ainsi proposer une nouvelle expérience d'achat aux clients du roi des hypermarchés en France. «Les utilisateurs français pourront effectuer leurs courses – dont les achats alimentaires – que ce soit via l'enceinte connectée Google Home, ou via l'Assistant Google depuis leur téléphone portable, ou enfin sur le web via la nouvelle interface du site Google Shopping en France, et ainsi se faire livrer à domicile ou récupérer les marchandises en magasin», explique Carrefour. Dicter ses courses sera donc une nouvelle façon de consommer.

Auchan allié à Alibaba en Chine

Carrefour s'engage donc dans les commandes vocales de la même manière que le géant américain Wallmart, qui donne souvent le «la» en matière d'innovations dans la grande distribution. Auchan s'est également allié avec un géant du numérique. Sun Art, co-entreprise détenue par Auchan Retail et Ruentex s'est, en effet, alliée avec Alibaba, l'Amazon chinois. Cette alliance entre les trois acteurs doit participer à la construction «du commerce phygital alimentaire en Chine», et «permettre à l'ensemble des activités de Sun Art de bénéficier de l'écosystème digital d'Alibaba» selon le communiqué commun publié lors de l'annonce de l'opération en novembre dernier.

Monoprix en partenariat avec Amazon

Le groupe Monoprix a scellé de son côté une alliance de ses magasins Monoprix avec Amazon. Certains des produits de l'enseigne française (Monoprix Gourmet ou Monoprix Bio) doivent être commercialisés sur la plateforme du géant américain et proposés à ses clients Amazon Prime Now, qui comprend une livraison en moins de deux heures à Paris et proche banlieue. Aux Etats-Unis, Amazon Prime Now peut d'ailleurs fonctionner avec Alexa, l'assistant vocal d'Amazon qui est présent dans les enceintes Echo commercialisées depuis juin dernier en France.

AmazonGo

Amazon Go, supérette sans caisses

C'est un peu la fiction qui rejoint la réalité : des supérettes sans caisses ni caissiers. Et il fallait bien la capacité d'innovation et l'aisance financière d'un géant du web comme Amazon pour se lancer dans une telle aventure qui pourrait bouleverser la grande distribution, en premier lieu en supprimant des milliers d'emplois. La société de Jeff Bezos avait annoncé son concept d'Amazon Go le 5 décembre 2016 en inaugurant un magasin de 167 mètres carrés au rez-de-chaussée du nouveau siège d'Amazon à Seattle, dans l'Etat de Washington. Initialement réservé aux employés de la société, ce magasin a été ouvert, avec un an de retard, au grand public, le 22 janvier 2018. Comment fonctionne cette supérette ? Tout d'horizon.

AmazonGo

Un simple QR code pour entrer dans le magasin

Pour entrer dans le magasin, le client doit ouvrir son application Amazon Go sur son smartphone. Cette application est reliée à son compte Amazon. Le client doit sélectionner alors un moyen de paiement. L'application génère un QR Code qu'il suffit de scanner sur l'un des portiques à l'entrée du magasin (comme on le fait aux portiques des aéroports).

Une fois à l'intérieur du magasin, qui peut accueillir au maximum 90 personnes simultanément, le client remplit son panier avec les produits qu'il désire. Il est surveillé en permanence par une batterie de capteurs et une centaine de caméras qui observent tout ce qu'il fait. Le système est capable de faire la différence entre deux clients devant une même étagère, le premier mettant un yaourt dans son panier quand l'autre ne fait que regarder le rayon. Mieux, le système est capable de détecter quand un client choisit un produit et le remet en rayon… Amazon a pensé à tout : lors d'achats avec plusieurs membres de sa famille, chacun peut se connecter au compte principal sur un autre téléphone.

AmazonGo


La capacité d'analyse du parcours client est une mine d'informations pour Amazon qui peut ainsi connaître quels sont les produits achetés durant certains créneaux horaires, de savoir quand commander de nouvelles marchandises, quand les remettre en rayon, et par exemple comment les présenter pour déclencher un acte d'achat, etc.

On sait peu de choses sur les technologies déployées par Amazon, réunies sous l'intitulé «Just Walk Out» et qui n'utiliseraient ni la reconnaissance faciale, ni le suivi téléphonique. La société explique qu'il s'agit des mêmes technologies utilisées dans les voitures autonomes : vision par ordinateur, fusion de capteurs et apprentissage en profondeur (deep learning).



Les clients peuvent faire leurs courses sans croiser de présence humaine. Car dans le premier magasin Amazon Go, il n'y avait que deux vendeurs : l'un au rayon bières et vins pour vérifier la majorité légale des clients, et l'autre à l'entrée du magasin pour accueillir les clients.
Une fois les produits achetés, le client peut quitter le magasin en scannant à nouveau le QR code sur l'un des portiques. L'ensemble de son panier lui sera facturé sur son compte Amazon. Il peut également vérifier son ticket de caisse et le corriger le cas échéant.

Durant la période de test avec les employés d'Amazon, le concept a toutefois connu quelques déboires. Le système de caméras a notamment eu du mal à distinguer les personnes de même corpulence. Les enfants amenés dans le magasin provoquaient des difficultés en déplaçant les produits aux mauvais endroits. Pas de quoi doucher les ambitions de Jeff Bezos, qui a depuis ouvert d'autres magasins de ce type, notamment à New York. Et qui, surtout, a fait des émules chez ses concurrents de la grande distribution traditionnelle.
File 20190329 71016 ba352d.jpg?ixlib=rb 1.1
Que réveille en vous une photographie de vos dernières vacances postée sur Facebook ? Alesia Kan/Shutterstock
Par Bruno SALGUES, Institut Mines-Télécom (IMT)


La nostalgie est étymologiquement une maladie. Ce terme vient des deux mots grecs nostos et algia, qui signifient le retour et la maladie. La nostalgie est alors l’ennui créé par le désir du retour au passé ou dans son pays. La plus ancienne description connue de cette maladie est celle du médecin Gerbois le 29 prairial, an 11.

Éradiquer la maladie

Pour combattre la nostalgie, il suffirait d’abandonner une perception de la vie qui transforme le passé en période sacrée, la perception du temps sous forme de périodes qui se suivent les unes aux autres et dont les plus anciennes seraient les plus valorisées. Le spleen baudelairien exprime un mal de vivre qui comprend l’ennui, la nostalgie, la solitude et la culpabilité. Dans les faits, nostalgie et ennui sont liés, car s’ennuyer, c’est avoir la nostalgie de quelqu’un ou de quelque chose. Les réseaux sociaux et le relais des plates-formes dans ceux-ci sont une source d’activité indéniable à travers différents ressorts : faire agir l’individu, la force de l’ennui ou encore tout simplement des formes invisibles du travail des données.
Le point de départ reste le fait que des usagers alimentent gratuitement des plates-formes et des réseaux sociaux de données personnelles, des propositions, des liens entre individus, organisation, concepts et contenus créatifs. Les plates-formes sont monnayées dans l’instant par les acteurs du web. La question se pose alors de savoir que faire des vieilles données. Pourquoi les informations d’un voyage posté il y a quatre ans sur BlaBlaCar peuvent-elles être utiles ? Que réveille dans vos souvenirs la photographie d’un jardin posté sur Facebook, Snapchat ou Twitter ? Une ancienne location à la mer louée sur Airbnb peut-elle vous inviter à revoir « la belle bleue » ? La réponse est clairement oui, réveiller la nostalgie fait agir.

Vos anciennes données ont plus de valeur que vous ne le pensez… . Everydaytextures/Shutterstock

La monétisation ne passe quasiment pas par la vente de données, mais par le ciblage de l’internaute, et ce afin de lui envoyer des informations et des publicités comme le souligne Mark Zuckerberg dans une tribune publiée en début d’année dans le journal Le Monde. Il est important alors que l’internaute réagisse et se connecte sur le site. La nostalgie est d’abord utilisée comme réveil ! Ce réveil précède un sentiment de culpabilité, celui de n’avoir rien fait sur le site.

Faire agir l’individu


Anikei/Shutterstock.

Mettre en ligne des activités du passé consiste à activer des « inversions infrastructurelles » comme le décrit Jérôme Denis, professeur à l’École des Mines de Paris. En effet, « les formes d’écriture les plus standardisées sont toujours énactées, c’est-à-dire ancrées dans des pratiques concrètes, inscrites dans des écologies socio-matérielles complexes ».
Annoncer un anniversaire permettra à une plate-forme de repérer les liens qui réagissent, pour Facebook, cela permettra de mettre en avant les posts de ces personnes et des publicités des entreprises plutôt que d’autres, et la connaissance des liens est une valeur marchande. Pour des sites comme Airbnb ou BlaBlaCar, réveiller les souvenirs d’un voyage passé est encore plus efficace. Ce réveil donne envie de refaire le voyage et donc, soit de réserver des services sur la plate-forme, soit tout au contraire de proposer des services, par exemple en offrant un covoiturage pour ce trajet. Dans les deux cas, il y a génération du business.

Réveiller le désir

Pascal s’est intéressé très tôt à l’ennui. Dans « Les Pensées », il écrivait :
« Rien n’est si insupportable à l’homme que d’être dans un plein de repos, sans passion, sans affaires, sans divertissement, sans application. Il sent alors son néant, son abandon, son insuffisance, sa dépendance, son impuissance, son vide. Incontinent, il sortira du fond de son âme l’ennui, la noirceur, la tristesse, le chagrin, le dépit, le désespoir. »
L’ennui est vraiment seulement possible parce que chaque chose, comme on dit, a son temps. Selon Alfred de Vigny, le remède contre l’ennui était l’action. Les philosophes comme Heidegger font la distinction entre s’ennuyer à propos de quelque chose et s’ennuyer soi-même en faisant quelque chose.
Réveiller la nostalgie, c’est également montrer que le réseau social a changé, c’est donc empêcher que l’ennui se mette en œuvre. Dans le cas où l’internaute agirait, « le client » du site pourrait quitter le site ou l’application, ce qui n’est pas souhaitable pour ces plates-formes dont la valeur boursière, mais aussi sociale, dépend du nombre d’abonnés ou d’inscrits. Cette notion est nommée « churn ») ou attrition. Elle a été mise en avant dans le développement de la téléphonie mobile dans les années 1990.
Schopenhauer a pensé que la vie oscille entre la douleur et l’ennui. Quand on subit un manque, que l’on désire des choses, on est malheureux. Quand on comble un manque, on est malheureux du fait que l’on n’a plus de désir. Mettre en œuvre des aspects « nostalgiques » consiste alors à réveiller le désir, et par conséquent les besoins, les attentes et créer la demande.

Rompre avec la société de la routine

Une grande part de l’ennui est due à la répétition. C’est pour cela que dans les moments d’ennui, les acteurs du web cherchent à gérer des petites innovations. Celles-ci permettent tout d’abord de fidéliser le « client ». La société actuelle dans laquelle nous vivons se caractérise par une recherche de l’efficacité. Comme je le souligne dans mon dernier ouvrage, « société 5.0 », cette société est à la fois digitale, désire respecter l’environnement, et avoir un fort niveau de productivité. L’ennui est donc insupportable, et, réveiller les souvenirs, faire appel à la nostalgie est un moyen d’occuper cet espace pour le rendre « productif ». La distraction générée ainsi est une des formes de lutte contre l’ennui et donc la nostalgie. C’est alors une source d’activité de la société 5.0. Historiquement, ce processus date des amuseurs du roi au XVIIe siècle, dont les châteaux où ils exerçaient le pouvoir étaient éloignés de leur lieu d’origine.
Les réseaux sociaux doivent également éviter que l’on se sente aliéné. L’ennui comporte toujours la conscience d’être emprisonné dans une situation donnée, ou tout simplement dans la globalité d’un monde. On pourrait qualifier cet enfermement d’aliénation. L’aliénation ne peut être un idéal, car cela pose la question de savoir vis-à-vis de quoi, l’homme est aliéné. L’aliénation impose que l’on explicite un autre élément, objet de l’aliénation. Il s’agira de l’élément qui a été perdu ou qui reste attaché à l’homme. L’ennui a, selon le philosophe norvégien Lars Svendsen, un effet déshumanisant, qui est une forme d’aliénation.

Les réseaux sociaux sont-ils avant tout un remède contre l’ennui ? Jirapong Manustrong/Shutterstock

Pour Bertrand Vergely, l’aliénation caractérise le fait de devenir étranger à soi. L’aliénation, surtout celle qui concerne les technologies, est toujours mise en avant par ceux qui s’opposent à la société 5.0, cette société qui est digitale. C’est pour cela qu’il faut l’éviter en réveillant les souvenirs. Autrement dit, la maladie nostalgie cache la maladie aliénation.

Travail gratuit

Les données associées à la nostalgie mise en avant ne sont pas désincarnées et n’existent pas à l’état pur ; elles ne sont par ailleurs pas autonomes. Elles sont toujours affaire de mélanges, de bricolages, d’accommodements, d’agencements hybrides, de couleurs ou de sons. Il est intéressant pour la plate-forme d’approfondir le pourquoi de l’existence passée de l’information.

Sociétés 5.0.

Là aussi, il y a construction de forme de sens. La nostalgie d’une visite présentée sans détail par une image peut amener quelque temps après des commentaires exploitables sur la beauté des lieux, sur le niveau des prix du service, sur la qualité de l’accueil, sans être obligée de passer par un questionnaire. Parfois, c’est aussi l’occasion de générer un questionnaire comme le fait Tripadvisor ou Maps de Google, et ainsi d’obtenir plus de données. En fait, ces données du passé sont l’objet d’une réaction. Elles ont pour résultat un travail bien souvent gratuit de l’internaute.
Pour les réseaux sociaux ainsi que les acteurs du web en général, la nostalgie est donc à la fois un moyen et un outil pour faire agir l’individu et en retirer, soit des bénéfices, soit l’adhésion de l’individu à sa plate-forme, soit son travail volontaire.The Conversation

Bruno SALGUES, Ingénierie pour la santé et technologies de communication, Institut Mines-Télécom (IMT)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
digiworld


L'institut Idate organise la seconde édition de la DigiWorld Spring Session dédiée à l'homo digitalis les 17 et 18 avril prochains au Domaine de Verchant à Montpellier. Futur de la mobilité, e-santé, smart-farming,  cohésion  territoriale et digital, 5G : autant de thèmes qui seront abordés par des experts et qui constituent les enjeux de la société numérique de demain.

La cohésion des territoires

"Le premier de tous les enjeux : créer une cohésion territoriale avec le digital pour lutter contre la fracture numérique. Open data, mobilité, connectivité, inclusions… quels sont les chantiers entrepris par les territoires et les sociétés privées à l’ère du digital ? Quelles complémentarités ou synergies pouvons-nous envisager entre les modèles français, européens et africains ?
Dans cette course au digital pour tous, le potentiel attendu de la 5G et ses applications au service des territoires pourront-ils réellement connecter chaque individu, chaque chose, en tous lieux et à chaque instant ?", expliquent les organisateurs.

Smart-farming et foodtech

"Ce qui est certain aujourd’hui, c’est que les technologies digitales changent radicalement notre considération des besoins primaires. Le Smart Farming et la FoodTech induisent de nouveaux modes de production et consommation de notre nourriture, et la technologie améliore également l’accès aux services de soin et de bien-être avec l’e-Santé."

Intelligence artificielle

Enfin, notre environnement immédiat est modernisé par le digital : gestion et automatisation de nos lieux de vie avec l’intelligence artificielle au sein de la maison connectée, facilitation de nos déplacements avec les nouveaux modes de mobilité qui contribuent à rendre la ville "intelligente"…

La DigiWorld Spring Session a reçu le soutien de la Région Occitanie et de la métropole Montpellier Méditerranée.

Plus d'information sur le site www.digiworldspringsession.com
facebook


La crainte de voir les élections européennes de mai prochain polluées par des publicités politiques ciblées ou des fake news est bien réelle chez les dirigeants de l'Union européenne, qui ont en mémoire les ingérences dans l'élection présidentielle américaine en 2016 et les infox massives qui ont circulé à l'occasion du Brexit. Facebook, très critiqué, notamment depuis l'affaire Cambridge analytica, comme Google sont bien conscients qu'ils ont l'occasion de montrer avec le scrutin européen qu'ils ont tiré les leçons du passé.

Dans une note parue le 29 mars dernier, Richard Allan, vice-président Global Policy Solutions, a détaillé les mesures prises par le réseau social. «Nous introduisons de nouveaux outils pour nous aider à atteindre deux objectifs clés qui, selon les experts, sont importants pour protéger l'intégrité des élections : empêcher que la publicité en ligne ne soit utilisée pour des interférences étrangères et accroître la transparence autour de toute forme de publicité politique et liée à un débat d'intérêt général». Si en France les publicités politiques sont interdites, ce n'est pas la règle dans tous les pays de l'Union. «Afin de prévenir les abus et les interférences, tous les annonceurs de l'UE devront être autorisés dans leur pays à diffuser des publicités en rapport avec les élections du Parlement européen. Nous leur demanderons de fournir des documents et d'effectuer des vérifications techniques pour confirmer leur identité et leur localisation», a expliqué le responsable, ajoutant.

Bibliothèques d'annonces

«Il faut inclure non seulement les publicités qui préconisent de voter pour des candidats ou des partis particuliers, mais aussi les publicités qui ne soutiennent pas explicitement un candidat ou un parti politique, mais qui portent sur des sujets hautement politisés comme l'immigration.»

Facebook a par ailleurs créé une «Bibliothèque publicitaire» (Ad Library) pour permettre à tout le monde de s'informer facilement sur les publicités politiques présentes sur son réseau.

De son côté, Google a également pris des mesures semblables. «Nous demanderons aux annonces mentionnant un parti politique, un candidat ou un élu actuel d'indiquer clairement aux électeurs qui paie pour cette publicité. Nous allons également introduire un nouveau processus pour vérifier les annonceurs des élections européennes et s'assurer qu'ils sont bien ce qu'ils prétendent être», affirme Lie Junius, directeur des politiques publiques et des relations gouvernementales de l'UE chez Google. Le gant du web a prévu de présenter un rapport sur la transparence des annonces électorales spécifique à l'UE et une bibliothèque d'annonces. Enfin, Google News Lab collaborera avec les agences de presse des 27 pays afin de prendre en charge la vérification des faits en ligne.

signature


Par Barbara Bonneau, directrice des Opérations Customer d’Universign

L’avènement du e-commerce a presque banalisé l’acte d’achat en ligne. La question n’est plus de savoir comment générer du trafic sur son site web, mais comment optimiser le parcours de vente en ligne en proposant une expérience client simple et intuitive. Alors que le paiement peut désormais faire office d'acceptation d'un contrat sur un site e-commerce, certains actes plus engageants nécessitent des garanties juridiques fortes au moment de la contractualisation.

Bien que la signature électronique ait une reconnaissance juridique en France depuis le début des années 2000, le processus de signature a longtemps été complexe. Les évolutions technologiques ont depuis changé la donne, en offrant des parcours de signature simple et intuitif. Qu’il s’agisse de relation BtoB, BtoC ou BtoBtoC, la majorité des échanges commerciaux s’effectue aujourd’hui par email ou par téléphone. Ainsi, en comparaison avec une signature manuscrite, la signature électronique présente un avantage concurrentiel certain. Elle apporte une réelle valeur ajoutée dans la dématérialisation du parcours de vente et contribue à la réussite de l’expérience client avec la capacité à formaliser instantanément un accord.

Les fondamentaux de la signature électronique pour une expérience client réussie
Dessiner une signature sur un document depuis son ordinateur ou scanner un document sur lequel on aurait apposé une signature manuscrite sont deux pratiques n’ayant aucune valeur juridique. Pour être conforme à la réglementation européenne eIDAS, la signature électronique doit être délivrée par un Prestataire de Services de Confiance (PSCo) qualifié selon ce même règlement, et répondre à deux exigences : garantir l’intégrité du document et l’identification du signataire.

En fonction des usages, des processus métier et des risques juridiques et financiers associés aux documents, plusieurs procédés de signature existent pour satisfaire aux besoins des entreprises. Cependant, pour allier conformité, sécurité et surtout simplicité d’utilisation, les éditeurs de solutions de signature électronique doivent faire preuve d’ingéniosité pour offrir un parcours de signature intuitif et ainsi, une expérience client réussie.

Repenser l’intégralité du parcours client

Mettre en place un service de signature électronique suppose de repenser entièrement le parcours client afin qu’il demeure « customer centric ». Autrement dit, il ne suffit pas d’ajouter un module de signature, mais bien de cartographier l’ensemble du cheminement du client afin d’identifier les étapes clés permettant d’optimiser le parcours de contractualisation en ligne ou à distance.

La signature électronique s’intègre dans un site Web pour offrir des services de souscription, d’abonnement ou de vente en ligne ou dans un CRM pour faire signer un client à distance. En toute autonomie, les clients peuvent signer leurs contrats quel que soit l’endroit où ils se trouvent : une simple connexion Internet suffit.

L’entreprise doit s’appuyer sur un Prestataire de Services de Confiance dont la simplicité d’intégration des services et la qualité du parcours de signature sont déterminants. Ainsi, sans altérer la fluidité du parcours client, la signature électronique apporte toutes les garanties nécessaires en termes de sécurité et constitue un gage de confiance pour les entreprises et leurs clients.

Les bénéfices d’un parcours client 100% digital

Dans le cadre d’opération de souscription en ligne nécessitant l’approbation d’un contrat, la signature électronique offre un parcours client fluide et sans rupture. Si cela peut paraître anecdotique, c’est en réalité l’élément fondamental d’une expérience client réussie.

Alors qu’une signature manuscrite nécessite obligatoirement l’impression de documents et des échanges postaux, la signature électronique permet de dématérialiser l’ensemble des processus clients et d’accélérer les délais de traitement. Les échanges de documents sont fluides, les processus sont simplifiés et plus rapides avec à la clé un impact positif sur la productivité.

De nombreuses entreprises utilisant la signature électronique dans leur parcours de vente constatent une amélioration de leur taux de transformation. Les contrats de vente et devis sont formalisés plus rapidement et le risque d’abandon impactant directement le chiffre d'affaires est minimisé. Signer sans rupture du parcours représente donc un levier d’amélioration des performances commerciales et de satisfaction client.

En interne, c’est également une opportunité pour mieux gérer les dossiers clients. Intégrée aux applications métier, la signature électronique permet d’automatiser les processus et ainsi de prévenir les erreurs de saisie, d’améliorer la traçabilité et la qualité de service.

Une signature en face à face : électronique également ?

Il faut savoir que lorsqu’on parle de signature électronique, on n’entend pas seulement la démarche en ligne ou à distance mais également son utilisation lors de rendez-vous physiques. Ainsi le client, face à son interlocuteur commercial, signera directement sur un ordinateur portable, une tablette ou un smartphone, comme il le ferait sur un document papier.

Si les avantages de signer électroniquement dans les cas de vente en ligne et de souscription à distance sont reconnus, qu’en est-il des cas où les deux parties se rencontrent physiquement ? Quel intérêt y a-t-il à faire signer électroniquement un client alors que son interlocuteur commercial est en face de lui ?

Au-delà des avantages de la dématérialisation du processus de vente qu’elle induit, la signature électronique est aussi l’opportunité de faire vivre au client une nouvelle expérience « phygitale ». L’objectif est de proposer des outils innovants et des technologies qui améliorent l'expérience client en point de vente physique ou en situation de mobilité. Elle constitue ainsi un levier d’amélioration de la relation client à l’heure où le numérique a bouleversé la notion et la perception du temps.

La signature électronique est devenue un outil indispensable pour vendre. Les entreprises qui l'utilisent la considèrent comme un moyen de contractualisation sûr et efficace et elles n’imaginent pas pouvoir revenir à la version papier. C’est aussi un très bon moyen d'enrichir l'expérience client, de répondre instantanément aux attentes clients et d'améliorer leur taux de rétention. A l’heure du tout numérique, peut-on encore s’en passer ?


Digital 113, l’incubateur numérique d’Occitanie (né de la fusion de Digital Place et de FrenchSouth digital, qui est aussi l’opérateur du Pass French Tech pour la French Tech Toulouse, a annoncé hier une nouvelle vague de labellisations au Pass French Tech.

Deux start-up sont ainsi distinguées. Iterop, entreprise toulousaine adhérente à Digital 113, devient lauréate du Pass French Tech.

La société toulousaine, spécialisée depuis 2013 dans les logiciels en ligne de Business Process Management, a remporté en février le Prix national des bonnes pratiques en entreprise, après un déménagement et plusieurs recrutements.

La seconde start-up labellisée a déjà acquis une belle notoriété avec ses robots agricoles (photo). Naïo Technologies, créée en 2011, reçoit elle aussi son Pass French Tech. Au premier trimestre 2019, Naïo Technologies comptait 50 salariés pour un chiffre d’affaires de 2,1 millions d’euros en 2018.

identite



Par Arnaud Gallut, Directeur des Ventes Europe du sud, Ping Identity

Un responsable de la sécurité informatique chez un de nos grands clients nous a récemment fait part d’une réflexion qui nous a semblé particulièrement juste.

« Désormais, le Cloud est devenu le data center. Internet est devenu le réseau interne. L’identité est devenue le périmètre de sécurité, et tout terminal est devenu un terminal professionnel. »

Développons chacune de ces quatre affirmations pour en comprendre les implications.

#1 Le Cloud est devenu le data center


Sur ce premier point deux choses sautent immédiatement aux yeux. La première est qu’à moins de devoir satisfaire à des exigences réglementaires spécifiques, ou d’avoir une totale confiance dans la qualité et l’intérêt financier d’une solution matérielle et logicielle hébergée en interne, les offres cloud SaaS, PaaS ou IaaS actuelles sont devenues un choix évident pour les entreprises.

La seconde, encore plus importante, est qu’il n’est plus nécessaire de savoir où les services et applications des entreprises sont hébergées et qui les fait fonctionner. Peu importe que l’accès aux applications s’effectue via une instance MySQL en local ou MariaDB, une instance AWS Aurora MySQL, ou une base de données Azure pour MySQL.

#2 Internet est devenu le réseau


Tout devrait désormais être connecté et accessible. Les utilisateurs ne devraient plus avoir besoin d’être présents physiquement sur un site, ou d’utiliser un VPN pour accéder à des applications réservées à l’interne. Le modèle tripartite : Internet, DMZ, et réseau interne sécurisé protégé ne permet pas un accès n’importe où n’importe quand, et ne fonctionne pas bien lorsqu’il s’agit de connecter ensemble des applications et des services fonctionnant dans des environnements hybrides associant data centers internes et de multiples fournisseurs de services cloud.

Faire une confiance aveugle à toute application ou système installé derrière un firewall est aussi une mauvaise habitude. Dans un tel scénario, si une application est compromise, elle peut être utilisée comme base pour attaquer bien d’autres applications et systèmes. C’est exactement ce qui s’est produit lors de récents piratages majeurs.

Donc si l’on ne dispose pas d’un périmètre de défense capable de protéger des applications et ses données, que faire ? La troisième affirmation citée plus haut apporte la solution.

#3 L’identité est devenue le périmètre de sécurité


L’adoption (implicite) d’un environnement « zero trust » doit aujourd’hui s’imposer. Dans ce type d’environnement, tout a une identité propre : les utilisateurs, les applications, les services et les systèmes.

Il s’agit d’environnements incroyablement sécurisés et flexibles, dans lesquels chaque application et service est potentiellement accessible par tout le monde, quel que soit le lieu où ils sont hébergés : sur site, dans un cloud privé ou public. 

Cependant, cette flexibilité a un prix. Pour garantir un écosystème sécurisé, plusieurs éléments doivent être mis en place :

Les identités, qu’elles concernent des humains ou des applications, doivent être établies ou validées d’une manière sécurisée. Ceci peut être réalisé via une vérification d’identité, la délivrance sécurisée de certificats, le service d’identité d’Istio, etc. L’objectif est d’être sûr que l’individu ou l’objet est bien ce qu’il prétend être.

L’identité doit être authentifiée en toute sécurité solidement lors de l’exécution. Elle peut être réalisée via une authentification multifacteur (MFA), une authentification par certificat, un OAuth client secret, etc. Dans le cas d’une authentification multifacteur, il convient de s’assurer que le canal de récupération n’est pas identique pour les différents facteurs. En cas de fourniture d’identifiants à des services via devops, les identifiants ne doivent pas être stockés en clair, et l’ensemble du processus de livraison doit être sécurisé.

Les identités ne doivent pas risquer d’être volées ou divulguées. Elles sont généralement volées via des attaques dites de ‘credential stuffing’ au cours desquelles des bots utilisent des listes d’identifiants et mots de passe volés pour trouver et voler des identités. Ceci constitue un risque à prendre au sérieux : rn effet, la plupart des études montrent que ces attaques sont entre 2% et 3% efficaces. Ceci veut dire que si une entreprise possède plus de 50 comptes utilisateur, elle est potentiellement vulnérable.

L’authentification multifacteur peut prévenir des attaques de ‘credential stuffing’, mais n’empêchera pas automatiquement les utilisateurs de divulguer leurs identifiants via des attaques de ‘phishing’. Pour prévenir ce type d’attaques, des formations anti-phishing et l’adoption de la solution d’authentification multifacteur FIDO2 sont recommandées. FIDO2 prévient les attaques de ‘phishing’ en obligeant l’utilisateur à enregistrer au préalable tous les sites authentifiés. Elle n’acceptera ensuite que les demandes d’authentification provenant des sites enregistrés, bloquant ainsi tous les faux sites de ‘phishing’ qui tenteraient de récupérer de récolter vos mots de passe et code à usage unique (OTP) puis de prendre le contrôle de votre session utilisateur.

Un processus explicite d’autorisation d’accès doit intervenir entre deux points d’un système, quels qu’ils soient. Ceci s’applique aux utilisateurs, aux applications et aux services. L’autorisation doit être refusée par défaut sauf dans le cas d’une autorisation explicite stipulant que le demandeur, qu’il s’agisse d’un humain ou d’une application, est autorisé à accéder à ces données, à ce service ou à cette application.

Plutôt que s’appuyer uniquement sur des règles rigides et définies de façon statique, il est préférable de se tourner vers une solution alimentée par du machine learning, plus flexible, afin d’améliorer les processus d’authentification et d’autorisation. Ces solutions améliorent l’expérience utilisateur en supprimant des étapes d’authentification inutiles lorsqu’il existe une réelle certitude que l’utilisateur est bien celui qu’il prétend être. Elles peuvent aussi analyser les schémas d’accès pour détecter des botnets ou des piratages de données et ainsi refuser l’accès dans des cas où des règles statiques n’auraient rien bloqué.

#4 Tout terminal est devenu un terminal professionnel


La quatrième affirmation résulte directement des trois autres.

N’autoriser l’accès aux données et aux applications qu’à partir des terminaux de l’entreprise est un cauchemar en termes de management, et réduit la productivité des employés. Dans une économie 24/7, les employés doivent être capables d’accéder aux informations et applications en tous lieux et à partir de n’importe quel terminal.

Ceci ne veut pas dire que chaque terminal ne doit pas être validé pour s’assurer qu’il n’a pas été piraté. Les entreprises peuvent utiliser des solutions MDM ou CASB pour contrôler la diffusion des données. Pour des cas d’usages aussi bien grand public qu’en entreprise, l’analyse des données peut également aider à détecter des anomalies sur la base de facteurs tels que la géolocalisation et les schémas d’accès. L’objectif primordial est d’établir des processus de contrôle qui permettent aux équipes de sécurité de maîtriser tous les usages BYOD à la fois pour des cas d’utilisation professionnels ou grand public.

Des accès de n’importe où, n’importe quand, n’importe comment

En bref, les entreprises doivent inverser leur façon de penser. Au lieu d’essayer d’enfermer les applications et les données dans des coffres forts sécurisés, elles doivent en autoriser l’accès depuis n’importe où.

En adoptant une politique d’accès à n’importe quelles données, en tout lieu et à partir de n’importe quel terminal, ainsi qu’en mettant en place les procédures et les contrôles nécessaires pour en faire une réalité parfaitement sécurisée, les entreprises pourront améliorer le confort de travail de ses employés et accroître leur productivité. Elles pourront aussi disposer d’une infrastructure flexible qui leur permettra de s’adapter facilement à l’évolution rapide de leurs besoins et de leurs choix technologiques sans avoir à reconfigurer leurs systèmes.