Depuis sa création en 2004, c'est la plus grave crise que traverse le réseau social. Le scandale Cambridge Analytica (les données de 87 millions d'utilisateurs utilisées indûment pour faire du ciblage électoral) fait vaciller Facebook.

Mais le réseau reste puissant, avec des bénéfices et un nombre d'utilisateurs en hausse. Jusqu'à quand ? Le scandale a ruiné les ambitions politiques que l'on prêtait à Mark Zuckerberg, son fondateur et PDG, et renforcé la volonté des Européens d'obtenir davantage de régulation des GAFA.

Pour lire le long format, cliquez sur le bouton "View Story"


https://www.sage.com/fr-fr/
Dans un mois exactement, le Règlement Général sur la Protection des Données (RGPD) entrera en vigueur dans tous les pays de l’Union Européenne, instaurant pour les entreprises de toutes tailles des restrictions dans l’utilisation et le traitement des données personnelles de leurs clients, prospects et salariés. Toutes les entreprises doivent l’anticiper et se préparer. Sage a identifié 10 actions courantes sur le lieu de travail qui devront faire l’objet d’une attention particulière à partir du 25 mai prochain.

1.         Célébrer l'anniversaire d'un collègue
La date de naissance d'un collaborateur est une donnée personnelle. Dans le cadre du RGPD, cette information ne peut être partagée sans son consentement formel. Il est donc important de vérifier le consentement de tout le monde avant d'établir un calendrier partagé des anniversaires.

2.         Envoyer des cartes de vœux professionnelles
Pour l’envoi des cartes de vœux à ses clients, l’entreprise va également devoir changer ses habitudes.   Si les adresses utilisées sont celles de leur domicile, alors il s'agit de données personnelles dont le traitement n’est pas autorisé par le RGPD. Pour qu’il le soit, l’entreprise doit obtenir le consentement préalable de son client. Si ce n’est pas le cas, une base de données règlementaire différente doit être créée pour chaque communication professionnelle envoyée.

3.         Partager les photos du bébé d'un collaborateur
Les données personnelles ne peuvent être transférées au niveau international que si le pays a été désigné par l'UE comme assurant un niveau adéquat de protection des données ou en se conformant à un mécanisme de certification approuvé tel que le bouclier de protection de la vie privée Union Européenne-États-Unis. Toutefois, si le partage d'une photo de bébé est considéré comme une activité purement personnelle, l’entreprise peut faire valoir qu'elle ne relève pas du champ d'application du RGPD.

4.         Evènements : passer commande au traiteur
Des collaborateurs allergiques aux noix ? Des habitudes alimentaires spécifiques à leurs croyances ? Ces données sont considérées comme des données personnelles. Avant de décrocher le téléphone pour passer commande à un restaurant ou un traiteur, l’entreprise doit s’assurer d'avoir l’accord des salariés concernés pour partager ce type d’information.

5.         Transférer le CV d'un candidat pour un deuxième avis.
Avant de le transférer, le recruteur ou le collaborateur devra penser à l'anonymiser, en supprimant le nom, l'adresse, le numéro de téléphone et toute autre information qui permettrait d’identifier le candidat. Cette démarche contribue par la même occasion à éliminer les préjugés sexistes ou raciaux dans le recrutement, une tendance de plus en plus courante.

6.         Cocher la case d’inscription à une liste de diffusion.
Le formulaire d'inscription au site Web de l’entreprise comporte-t-il une case à cocher pour l’accord de ses clients concernant la réception des informations marketing de tiers ? Avec le RGPD, les cases pré-cochées et l'inaction ne suffiront plus à prouver le consentement. Une réécriture des conditions de confidentialité en ligne sera peut-être également à enclencher, car une demande de consentement à l'utilisation de renseignements personnels par une entreprise doit être intelligible et rédigée dans un langage clair et simple.

7.         Parler de politique au bureau
Les opinions politiques sont considérées comme des données personnelles sensibles. Bien que déjà prudentes sur l’utilisation de ce type d’informations, les entreprises vont devoir redoubler de vigilance.

8.         Signaler une absence pour cause de maladie
L’entreprise ne pourra plus informer d’une absence pour raison médicale ni transmettre des informations sur l’état de santé d’un collaborateur, à moins que celui-ci n’ait consenti à ce que cette information soit partagée avec toutes les personnes qui doivent en être informées.

9.         Auditer les données
Dans le cadre du RGPD, les entreprises ont besoin d'une personne désignée comme responsable des questions de protection des données et, dans certains cas, une entreprise peut avoir besoin de nommer officiellement un DPO ou « Délégué à la protection des données » avant de procéder à un traitement à grande échelle des données à caractère personnel. Cette personne désignée est responsable de la sensibilisation aux réglementations en matière de protection des données au sein de son organisation, de la formation du personnel et de la gestion des audits des processus de données.

10.        Gérer une atteinte à la protection des données
Dans le cadre du RGPD, si des données personnelles sont accidentellement ou illégalement perdues, détruites, modifiées ou endommagées, l’entreprise doit en informer la CNIL dans un délai de 72 heures. Elle doit également informer toutes les personnes concernées si cela représente un risque élevé pour elles de perte financière, de vol d'identité ou de fraude.


Par Sandor Palfy, CTO, LastPass 


C’est un fait : les fuites de données peuvent avoir de répercussions financières désastreuses pour une entreprise. Ainsi, le piratage subi par Equifax en 2017 pourrait coûter à ces derniers près de 450 millions de dollars. En outre, avec la prochaine entrée en vigueur du RGPD, les organisations de toutes tailles s’exposent à des amendes aux montants faramineux si elles ne révèlent pas ces fuites de données aux autorités compétentes dans les 72 heures. La faiblesse, le piratage ou la réutilisation de mots de passe étant à l’origine de 81 % des incidents de ce type, les entreprises doivent donc s’assurer que leur gestion ne présente aucune faille.
Malheureusement, souvent, les dirigeants ne s’occupent d’un problème que lorsqu’ils risquent une sanction financière. Intéressons-nous au coûts des mots de passe pour les entreprises :

Des coûts de support élevés
Le coût lié au support des systèmes de mots de passe (le personnel et l’infrastructure) peut être considérable pour les entreprises contemporaines. Une enquête menée récemment par Forrester auprès de responsables de la sécurité des réseaux a ainsi révélé que plusieurs grandes organisations y attribuent plus de 800 000 euros par an. Bien que ce chiffre ne soit pas la mer à boire pour de telles entreprises, pour les PME, ce coût peut être un lourd fardeau.

On constate aujourd’hui des efforts conjugués visant à introduire des outils d’automatisation, à l’image de l’authentification unique (SSO) sur le web basée sur le protocole SAML (Security Assertion Markup Langage), qui simplifie la gestion des mots de passe et constitue un pas dans la bonne direction aussi bien en matière d’expérience utilisateur que de sécurité. Malheureusement, les coûts de support continuent d’augmenter car beaucoup d’entreprises s’appuient sur des systèmes hérités ne prenant pas en charge ce protocole, et le passage à des technologies plus modernes revient également cher. Il s’agit donc davantage d’une solution à long terme qu’à court terme.
Sans une gestion appropriée au niveau des utilisateurs finaux, et tant que les mots de passe resteront le mode d’authentification le plus utilisé, ces coûts importants devraient subsister.
Pourtant, l’espoir reste permis : avec une solution de gestion des mots de passe d’entreprise (EMP), le processus peut se dérouler sans accroc.

Baisse de la productivité des utilisateurs finaux
Les mots de passe n’ont pas seulement un impact direct en matière de coûts d’administration : ils nuisent également considérablement à la productivité des employés. En effet, passer 10 minutes par jour au téléphone avec un service d’assistance informatique afin de réinitialiser un mot de passe perdu peut paraître anodin jusqu’à ce que l’on multiplie cela par le nombre de salariés de l’entreprise (et qu’on y ajoute le coût du support). En outre, beaucoup d’employés travaillent aujourd’hui avec plusieurs comptes. Ils ont donc plusieurs identifiants à conserver, ce qui augmente la probabilité que des problèmes surviennent et que des workflows soient interrompus.

En entreprise, chaque minute perdue a un impact considérable sur la productivité, ce qui affecte directement le chiffre d’affaires. Les coûts exacts de cette perte de productivité peuvent être difficiles à estimer, mais lorsque l’on tient compte du temps, du travail et des opportunités potentiellement gaspillées chaque année, il est évident que cet aspect ne doit pas être sous-estimé.

C’est là que les solutions de gestion de mots de passe pour entreprise (EPM), peuvent aider celles-ci reprendre le contrôle de la gestion de leurs mots de passe et à limiter la perte de temps. En outre, elles évitent aux employés de vivre une expérience stressante et pénible avant même que leur journée de travail n’ait commencé. Leur rendement est également accru grâce à la possibilité de se connecter à plusieurs comptes et plateformes d’un simple clic, au lieu d’avoir à saisir manuellement leurs identifiants directement sur plusieurs sites. L’époque où les salariés écrivaient des mots de passe sur des post-it, les oubliaient et se retrouvaient incapables d’accéder à leurs systèmes est révolue.

Attaques de l’intérieur
24% des fuites de données survenues au cours de 12 derniers mois étant le résultat d’attaques provenant d’(anciens) employés. Cela n’a rien de surprenant lorsque l’on tient compte du fait que beaucoup d’entreprises utilisent encore des documents partagés pour stocker des mots de passe. Ces derniers sont une solution précaire pour sauvegarder des données confidentielles, et augmentent également le risque qu’un salarié conserve ces informations sécurisées avec lui en quittant l’entreprise. La mise en œuvre d’une solution EPM permet de partager les mots de passe de façon contrôlée et sécurisée, tout en garantissant que ces données resteront à l’intérieur des murs de l’organisation.

En moyenne, un adulte possède plus de 25 comptes en ligne. Il n’y a donc rien d’étonnant à ce que les employés peinent à faire preuve d’une discipline rigoureuse, par exemple en utilisant des mots de passe forts et uniques pour chaque compte auquel ils ont accès. Au lieu de cela, ils continuent à réutiliser les mêmes sur plusieurs comptes, ce qui accroît le risque d’attaques de l’intérieur et de l’extérieur.

Aux yeux de l’employeur, stocker des mots de passe à un emplacement connu et facile d’accès peut sembler être la solution pour éviter la perte de mots de passe et maintenir une productivité élevée. Mais en réalité, les coûts potentiels en cas de violation de données dépassent largement ces avantages. Les entreprises concernées doivent revoir leurs politiques de sécurité afin de s’assurer de respecter les meilleures pratiques en la matière. Pour limiter le risque que des données sensibles soient accessibles à n’importe qui dans l’organisation et tombent entre de mauvaises mains, il est indispensable de sensibiliser les salariés et de mettre en place des technologies de gestion des mots de passe efficaces.


Le scandale Facebook Cambridge Analytica qui a vu les données de quelque 87 millions d'utilisateurs du réseau social détournées indûment, est décidément loin d'être terminé. Hier une commission du parlement britannique a auditionné le psychologue Aleksandr Kogan, le concepteur de l'application qui a permis à Cambridge Analytica de capter les données des internautes. Et ce jeune chercheur de 32 ans de l'université de Cambridge, originaire de Moldavie, refuse d'endosser seul la responsabilité du scandale. Il affirme avoir été abusé par Cambridge Analytica et envisage d'attaquer Facebook en diffamation. Le vice-président et directeur juridique de Facebook, Paul Grewal, a, en effet, récemment accusé Kogan d'avoir organisé une «escroquerie et une fraude», en prétendant poursuivre des buts académiques avec son quiz.

87 millions de comptes

Pour rappel, ce quiz baptisé «thisisyourdigitallife» (c'est votre vie numérique) et créé par la société de Kogan (Global Science Research) se présentait comme servant pour de la «recherche utilisée par les psychologues». Il avait été téléchargé par près de 270 000 utilisateurs du réseau social, rémunérés 4 dollars pour répondre aux questions du quiz. Les données de ces personnes ont logiquement été collectées… mais aussi celles de leurs amis, sans leur permission. D'où le nombre de 87 millions de personnes concernées dont près de 210 000 Français.

Ces informations ont ensuite été transmises par Kogan à Cambridge Analytica pour élaborer un logiciel permettant de prédire et d'influencer le vote des électeurs de la campagne présidentielle américaine de 2016, remportée par Donald Trump. Aleksandr Kogan affirme qu'il pensait agir en toute légalité. «J'avais des conditions d'utilisation durant un an et demi selon lesquelles je pouvais transférer et vendre les données. On ne m'a jamais rien dit», a-t-il déclaré lors d'une interview, affirmant d'une part que les utilisateurs de Facebook savaient que leurs données étaient vendues et partagées et que «Facebook n'en avait clairement rien à faire.»

«À aucun moment durant ces deux années (2013 à 2015), Facebook n'était au courant des activités de Kogan avec Cambridge Analytica», a indiqué Facebook.

Mais au cours de l'audition de Kogan hier, on a appris qu'il avait signé avec Facebook un accord de confidentialité promettant de ne pas abuser des données collectées. Reste à savoir à quelle date cet accord a été signé pour déterminer qui savait quoi. Facebook n'en a visiblement pas fini avec le dossier Cambridge Analytica…

Le Brexit influencé ?
Les parlementaires britanniques ont organisé l'audition d'hier car ils veulent savoir si les données récupérées par Cambridge Analytica ont pu être utilisées pour faire du ciblage en vue d'influencer le vote sur le Brexit comme elles ont pu l'être pour influencer la présidentielle américaine. Hier Aleksandr Kogan a jugé l'idée «ridicule scientifiquement». «Les outils que Facebook fournit aux entreprises sont bien plus efficaces pour cibler les gens en fonction de leurs personnalités que l'utilisation des résultats issus de notre travail.» «J'ai simplement eu la malchance d'être la personne qui a fini par être associée à la campagne de Trump. Il est facile de montrer du doigt une personne.»


Antoine Chéron, Avocat associé, www.acbm-avocats.com 

Le 30 mars dernier, le Conseil Constitutionnel a rendu une décision qui, bien que passée relativement inaperçue dans les milieux juridiques, a néanmoins alerté les médias – à tort ou tout du moins de manière excessive, la portée de cette décision étant bien plus restrictive que ce qui a été annoncé.
Il s’agissait pour le Conseil Constitutionnel de contrôler la constitutionnalité de l’article 434-15-2 du Code pénal, lequel sanctionne le gardé à vue qui refuserait de livrer le code de déverrouillage de son téléphone portable.
 Et les peines sont lourdes : s’il est prévu une peine de prison maximale de 3 ans et une amende 45 000 euros pour celles et ceux refusant de remettre la clé de déverrouillage si le moyen de cryptologie qui y est associé est « susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit », celle-ci monte à 5 ans de prison  et 75 000 euros d’amende s’il est avéré que le refus de fournir ce code « aurait permis d’éviter la commission d’un crime ou d’un délit ou d’en limiter les effets ».
Le Conseil Constitutionnel a affirmé la constitutionnalité de cet article, alertant les médias qui ont mis en avant les risques pour le respect de la vie privée, et soulevant également la question très actuelle de la lecture en clair des données chiffrées.
Pour autant, il convient de rassurer, et de bien avoir à l’esprit que cet article est d’une portée limitée.
Son application est en effet soumise à trois conditions :
Tout d’abord, il est impératif de démontrer que le gardé à vue a connaissance du code de déverrouillage du téléphone portable.
Ensuite, il s’agit de prouver que le déverrouillage du téléphone présente un intérêt pour l’enquête, c’est-à-dire que le téléphone susceptible de contenir des données chiffrées liées à l’affaire et susceptible de faire avancer l’enquête.
Enfin, seule une autorité judiciaire dispose de la compétence pour ordonner au gardé à vue de livrer le code de déverrouillage. Cette injonction ne peut en aucun cas provenir d’un officier de police judiciaire.
Dès lors, le placement en garde à vue ne confère pas automatiquement et sans limite le droit aux autorités, quelles qu’elles soient, d’exiger du détenu le code de sécurité du téléphone afin d’avoir accès à l’ensemble des données qui y sont contenues.




Par Stéphane Roder, CEO The AI Builders

Alors que bon nombre d'entreprises en sont encore à mettre en place des plans de transformation digitale, arrive maintenant, avec l'avènement de l'IA, une vague encore plus profonde qui s'apparente à une vraie révolution industrielle. La désintermédiation et la digitalisation des métiers a déjà été un premier choc que beaucoup de secteurs ont pris de plein fouet. Il ne faudrait pas qu'il en soit de même avec l'IA.

Après la robotisation, la mondialisation de la production, l'« Ubérisation » des services, l'IA est une révolution pour toute l'industrie, au même titre que l'a été l'électricité après la vapeur. « AI is new electricity » répète à qui veut l'entendre Andrew NG le créateur de Google Brain. En venant aider, remplacer et optimiser, l'IA va révolutionner tous les métiers mais surtout les structures de coûts des entreprises et donc leur compétitivité. Celles qui intégreront l'IA dans leur stratégie de développement assez tôt, en transformant et en optimisant leurs métiers, pourront se prémunir contre de nouveaux entrants et garder le même niveau de compétitivité face à leurs concurrents avant qu'ils ne s'équipent à leur tour.  Ainsi, au-delà de la transformation digitale telle qu'elle est envisagée aujourd'hui, l'introduction massive de l'IA dans l'entreprise devient un challenge pressant, voire une nécessité pour survivre. Il y aura en effet ceux qui ont fait le choix de l'électricité et ceux qui seront restés à la vapeur.

L'IA telle qu'elle est aujourd'hui a cela d'extraordinaire qu'elle peut apprendre en se nourrissant de l'expérience de l'entreprise, de son historique, de ses données et du savoir-faire de ses métiers. Ces technologies de L'IA, qui apprennent plus qu'elles ne se programment, vont permettre d'automatiser des tâches dans tous les process de l'entreprise tant dans l'administration ou la gestion de celle-ci que dans son cœur de métier. Car c'est bien de gains de productivité immédiat qu'il est question ici, tant sur les coûts liés à la gestion et à la production que sur la valeur créée en optimisant des services ou en imaginant de nouveaux jusqu'alors impossibles, voire même impensables sans l'aide de l'IA. C'est la marge qui se trouvera directement impactée, que ce soit à travers des réductions de coûts de l'ordre de 30 à 50% ou de l'apparition de services qui généreront de nouvelles sources de revenus obtenues pratiquement à coût marginal. Citons à titre d'exemple ces cabinets comptables équipés d'outils permettant non plus de lire mais de comprendre les factures de leurs clients et de les classer automatiquement dans les bons plans comptables. Ou encore ce grand assureur français qui a automatisé l'allocation d'un de ses fonds avec de l'IA en reprenant l'historique des dix dernières années pour obtenir, au final, de meilleurs scores que ses pairs humains et devenir un des fonds vedette de ce secteur. L'IA apprend de l'expérience, de l'historique et cette intégration peut être réalisée dans toutes les fonctions et dans tous les métiers. Mais encore faut-il comprendre ses capacités, ses limites et la forme qu'elle va revêtir.

Cette disruption technologique s'apparente au lent déploiement des systèmes d'information dans l'entreprise dans les années 80-90 qui a permis au final de structurer les process pour un meilleur pilotage des activités et de déboucher sur une première utilisation des données et du big data : la Business Intelligence (Le Descriptive Analytics). L'introduction de l'IA s'inscrit dans cette continuité mais va beaucoup plus loin en franchissant l'étape ultime de la recommandation et de l'action (Le Prescriptive Analytics).

Cette transition va s'opérer à travers les systèmes d'information où des parties entières de process encore absents, encore manuels ou semi-automatisés vont se trouver remplacés dans un premier temps par des outils « standalone » développés par de géniales start-up, puis par des produits standards avant d'être enfin intégrés dans les suites logicielles de gestion que sont les ERP. Restera le métier – comme d'habitude servi en dernier – sur lequel comme au bon vieux temps des systèmes d'information, des solutions sur mesure seront trouvées. C'est sur cette dernière partie que se trouvera le plus grand challenge des entreprises lorsqu'il faudra définir des priorités.

Mais cette évolution ne viendra pas des métiers eux-mêmes qui se sentent menacés par l'IA plus que mis en valeur sans toutefois connaître la teneur de son apport réel. La résistance au changement est tenace, alimentée par les fantasmes millénaristes générés par une technologie basée sur de nouveaux paradigmes. Il faudra accompagner ce changement en dédramatisant, en expliquant les tenants et les aboutissants de l'IA, montrer que l'humain reste au centre, maître de son activité mais surtout en remettant au goût du jour les bons vieux schémas directeurs qui, malgré leur lourdeur, ont structuré les systèmes d'information de nos entreprises quitte à repasser ensuite en méthode Agile. Les entreprises ne feront pas l'économie du schéma directeur IA sous peine de ne pas faire les bons choix le moment venu.

Les potentiels de gains de productivité et d'augmentation des profits sont tels que L'IA est une opportunité unique pour les nouveaux entrants, les followers, les challengers de ravir des parts de marché voire même le leadership aux belles endormies. Au-delà de la technologie en elle-même, c'est donc une nouvelle guerre économique qui s'annonce et qui ne cache pas son nom quand on entend le gouvernement Chinois en faire une cause nationale ou les Etats-Unis investir des milliards de dollars. C'est dans cette perspective que les directions générales doivent prendre conscience des enjeux et se préparer à déployer tout en formant leurs salariés aux grands principes de l'IA pour qu'ils adhèrent au mieux à cette nouvelle collaboration entre l'humain et la machine.


Par Florian Douetteau, CEO, Dataiku


L'approche analytique fait déjà partie de la stratégie d'entreprise et des indicateurs de performance. Il est désormais temps d'aller plus loin dans ce sens, en renforçant les compétences liées à l'analyse et à l'exploitation des données. C'est tout l'enjeu de la compétition actuelle, que l'on qualifie également de « maturité analytique ».


L'aube d'une nouvelle évolution de la donnée

L'analytique a déjà pris une place majeure dans la vie de l'entreprise, notamment à travers l'approche prédictive. Elle permet aux dirigeants de s'appuyer sur les données pour prendre des décisions plus éclairées. Cependant, il ne suffit plus aujourd'hui de rappeler l'importance d'adopter une culture analytique : il importe aujourd'hui de savoir mesurer les performances d'une telle culture et de la transformer en une réelle stratégie au long cours. Il apparaît que dans la plupart des secteurs, les entreprises sont prêtes à adopter une stratégie orientée par la donnée et l'intelligence artificielle. Les licornes* sont dans la ligne de mire des observateurs, investisseurs et organismes de classement. Elles se caractérisent non seulement par leur valeur marchande, mais également par l'intégration de l'analytique dans leur modèle économique. D'autres s'appuient totalement sur de précieuses mines de données et des modèles d'analyse performants. Uber, Airbnb ou Lyft font partie de ces entreprises qui ont fondé leur modèle sur l'exploitation des données et amènent leur stratégie analytique à maturité.


La « maturité analytique », nouvel indicateur de performance financière et stratégique

De nombreux travaux ont souligné le lien qui s'est établi entre une analyse approfondie des données et la performance des entreprises sur plusieurs aspects.
Tout d'abord, plus les entreprises adoptent une stratégie orientée par les données, plus elles ont de chances d'atteindre des objectifs financiers et opérationnels. Pour Capgemini, l'analytique constitue effectivement un avantage distinctif, qui s'obtient grâce à une prise de conscience du leadership. Selon le rapport de l'Institut international de l'Analytique (IIA), les leaders qui intègrent le numérique dans leur réflexion stratégique et dans ses applications (réseaux sociaux, mobile, équipement mobile des salariés, opérations internes, business models) ont amené leurs entreprises à générer plus de revenus (12%), à réaliser un CA nettement plus élevé (26%) et à accroître leur valeur sur le marché (12%).
On constate ensuite qu'en adoptant une approche orientée données, une entreprise se différencie durablement des autres acteurs de son secteur.
Une approche data-driven renforcée permet également de créer de nouveaux marchés, et d'amener plus aisément de la disruption sur le marché existant. Elle permet d'obtenir les investissements nécessaires pour y parvenir, en raison d'un ratio Investissement/ROI élevé (8,7%).
Enfin, les entreprises ayant adopté une forte culture analytique sont également celles qui sont le mieux perçues par leurs consommateurs, en raison notamment de la réactivité et du pouvoir d'innovation que cette approche leur confère. Les données de l'indice BCG concernant la dernière décennie mettent en évidence un lien évident entre une approche analytique dite « mature » et la réputation d'une entreprise.


L'analytique occasionne aussi un retour sur investissement

Il est à présent évident que l'analytique est source ou accélérateur de performance. Mais ce constat doit s'accompagner de données concrètes.
L'intelligence artificielle d'entreprise promet un avenir dans lequel la maturité analytique des entreprises et de l'industrie peut être quantifiée avec précision, comparée, et donc utilisée comme un indicateur clé de performance pour toute l'entreprise. Les données et l'acuité que confère l'analytique dite « mature » constituent des éléments concrets dont pourraient se servir les entreprises pour prévoir leurs besoins en termes d'investissement et estimer leur ROI. La corrélation entre analytique approfondie et performances étant établie, toutes les entreprises sont désormais en mesure d'estimer la maturité de leur approche en s'appuyant sur leurs résultats. C'est d'ailleurs une nécessité, à une époque où la compétition se joue sur un élément aussi changeant que le Big Data. Les Digital Natives** (Google, Amazon, Netflix, Ebay) en sont d'ailleurs la preuve vivante. Par ailleurs, la maturité analytique n'est pas l'apanage des stratégies basées d'emblée sur les données : à tout âge, une entreprise peut intégrer l'analytique à son business model, à l'instar d'Apple.

Aujourd'hui, quelle que soit la taille ou l'ancienneté d'une entreprise, la concurrence se joue sur la capacité à inclure une analyse pointue des données dans la vision à long terme. Outil de prise de décision, mais également facteur d'innovation et de réactivité, l'analytique va désormais de pair avec la réputation, le capital sympathie, la crédibilité, et, au-delà de tous ces aspects, à la performance globale (financière et stratégique). Il est temps pour tous les secteurs de s'y adapter !

*Les licornes sont des startups ayant levé plus d'un milliard de dollars, qui fondent principalement leur business model sur l'analytique ou fournissent un important volume de données et d'infrastructures analytiques.
** Digital Native est le nom donné aux entreprises dont le modèle économique s'est construit sur l'exploitation des données.


Par Pierre Hébrard, fondateur et CEO, Pricemoov


La tarification dynamique, ou dynamic pricing, consiste à ajuster ses prix à la hausse ou à la baisse en fonction du contexte d'achat. Un contexte qui prend en compte des facteurs internes et externes à l'entreprise, susceptibles d'influencer la demande. Stocks disponibles, stratégie marketing et commerciale, mais aussi les prix de la concurrence, évènements particuliers ou données météorologiques peuvent faire partie de ces facteurs. Cependant, les idées préconçues persistent, alimentant les freins et empêchant de saisir la réalité de la tarification dynamique.


Idée reçue n° 1 : la tarification dynamique n'est utilisée que dans l'aérien

L'idée d'un prix qui évolue en fonction du temps est le plus souvent associée aux billets d'avion, au point que nombreux sont ceux qui utilisent naturellement les comparateurs de vol avant l'achat d'un billet. Pour autant, la tarification dynamique n'est pas l'apanage du secteur aérien.
Toute entreprise ayant une capacité périssable, des coûts fixes importants et une demande fluctuante, est susceptible de faire bouger ses prix. Une capacité considérée comme périssable est une ressource qui se perd ou coûte de l'argent lorsqu'elle n'est pas vendue : il peut s'agir d'une nuit d'hôtel, d'un siège dans un avion, d'un produit à la mode, de fruits et légumes sur les marchés. Afin d'optimiser cette ressource, le commerçant fera évoluer le prix au gré du contexte dans lequel l'offre et la demande évoluent.
C'est ce que fait par exemple l'application Uber lorsqu'elle applique des coefficients multiplicateurs aux heures de pointe. En effet, à ces moments la demande de trajet devient plus importante que l'offre de chauffeurs, justifiant une augmentation des prix. Au contraire, en période de creux, le prix va chuter car chaque minute d'un chauffeur non attribuée à un trajet est une ressource perdue, voire coûteuse.

Idée reçue n° 2 : la tarification dynamique se fait au détriment du consommateur

La tarification dynamique permet en réalité de trouver le prix juste pour s'adapter à l'équilibre changeant entre l'offre et la demande. Les commerçants pourront alors proposer différents niveaux de prix en fonction des différentes sensibilités des clients.  Cela s'observe déjà dans le secteur du voyage : c'est bien parce qu'il existe des classes business qu'il est possible de proposer des billets moins chers (prem's dans les trains, petits prix ou promo dans les avions) ou des programmes de fidélité pour les consommateurs plus sensibles au prix.
Par ailleurs, la variation des prix peut même se faire au bénéfice de tous les consommateurs. Aux États-Unis, le retailer en ligne Jet.com s'est distingué en proposant des produits dont le prix varie en temps réel et régresse en fonction de la quantité achetée. Grâce à une logique d'optimisation des coûts logistiques, cette startup peut offrir des tarifs réduits. Cette technologie de pricing a valu à Jet.com d'être la plus grosse acquisition du retail online (racheté 3,3 milliards de dollars par le géant Walmart seulement un an après sa mise en activité).

Idée reçue n° 3 : un tarif qui varie selon la tête du client

Qui n'a jamais eu l'impression que le prix d'un billet augmentait à chaque consultation ? En réalité, le prix affiché est le même pour un groupe de consommateurs, et ne tient aucunement compte de l'appartenance à telle ou telle catégorie sociale.
En revanche, la tarification personnalisée consiste à proposer des prix sur-mesure, pour une certaine clientèle identifiée et ciblée en fonction de ses habitudes d'achat, par la stratégie marketing et commerciale.
Cependant, la nouvelle réglementation RGPD qui entrera en vigueur le 25 mai prochain, redéfinit notamment comment les données personnelles pourront être utilisées par les entreprises. Elle interdira ainsi l'utilisation des données qui n'auraient pas été renseignées par le client lui-même. Les entreprises ne pourront donc pas, par exemple, adapter leur prix en fonction d'un historique de navigation !

Idée reçue n° 4 : tarification dynamique = yield management

Le yield management consiste à maximiser le revenu total en recherchant la combinaison optimale entre le prix et le taux d'occupation de l'espace de vente. L'un des exemples les plus parlants de cette technique est l'opération adoptée par Marks & Spencer en 2016, lorsque l'enseigne a diminué le prix des sandwichs avant 11h du matin. Une opération qui avait pour objectif d'inciter les clients à acheter leur déjeuner plus tôt, avec pour effet l'étalement de la capacité de vente sur une durée plus longue, et l'augmentation du nombre de clients.
Faire du yield management revient bien à faire de la tarification dynamique ; en revanche, l'inverse ne peut être vrai, car la tarification dynamique  recouvre un champ plus large. Cette technique prend en compte bien d'autres facteurs dans la définition du prix, tels que :  les prix appliqués par la concurrence, les conditions qui influent sur le parcours et la décision d'achat, le net promoter score*, les festivals ayant lieu près du point de vente ou les jours de fête, etc. Elle est d'ailleurs mise en place par des entreprises telles qu'Amazon.

Idée reçue n° 5 : la tarification dynamique ne se fait que dans le commerce en ligne

Deux exigences sont à prendre en compte pour pouvoir faire varier ses prix : des données permettant de comprendre le comportement des utilisateurs, et la possibilité de faire évoluer l'affichage du prix. C'est pour ces raisons que le web semble être le canal indiqué pour faire varier les tarifs. Cependant, grâce aux nouvelles technologies, la tarification dynamique progresse également dans la vente physique.

L'avènement des puces RFID permet ainsi de récolter un maximum de données sur le parcours des produits en magasin, et constitue une source d'informations importante sur la typologie des comportements d'achat. Les étiquettes numériques, que l'on voit de plus en plus en magasin, permettent de faire varier les prix de tout produit à tout moment.

L'exemple récent le plus connu est bien sûr l'ouverture d'Amazon Go, qui combine toutes les données de la plateforme d'Amazon avec les données récoltées en magasin pour proposer le prix plus pertinent à tout moment.

De nouvelles techniques d'intelligence artificielle permettront de segmenter et de prévoir la demande de la manière la plus précise possible. La vigilance s'impose néanmoins aux entreprises : elles doivent non seulement choisir les bons outils, mais également faire preuve de discernement dans l'usage de la tarification dynamique, afin de préserver la relation client et l'image de la marque. 

*Le Net Promoter Score est l'indicateur de la satisfaction client.


Les Trophées de l’Economie Numérique 2018, organisés par la Mêlée, avec le soutien de la Région Occitanie, les agglomérations de Montpellier, Toulouse et Carcassonne et la CCI d'Occitanie,  se préparent pour récompenser les projets numériques porteurs d’innovation qui ont pour objectif d’apporter des solutions numériques.

Pour cette 15e édition, il y aura 5 categories :

• Territoire et citoyenneté
Ce trophée vise à valoriser l’initiative des entreprises, collectivités, associations, administrations ou organismes publics dont le projet vise à développer le territoire, favoriser le lien social et qui s’appuie sur le numérique pour développer ce projet.

• Transition Numérique et Performance
Il récompense les entreprises utilisatrices des technologies numériques, qui assurent le déploiement d’un usage numérique ou qui souhaitent améliorer la performance, la compétitivité, l’organisation interne d’une entreprise, voire d’un secteur d’activité.

• Croissance, Rayonnement et potentiel international
Ce trophée est ouvert aux entreprises numériques, ayant une croissance, une innovation et une performance qui assurent un rayonnement rapide et même un développement international.

• Transition énergétique et technologies vertes
Cette catégorie est ouverte aux entreprises utilisatrices de technologies numériques proposant une innovation dans les problématiques de croissance verte via l’usage du numérique.

• Startup
Ce trophée récompense jeunes talents et jeunes projets innovants, particulièrement prometteur.



4 prix spéciaux 
Chaque gagnant bénéficiera d’une visibilité régionale et nationale et de dotations ou d’accompagnements fournis par les partenaires de l’opération :

  • Grand Prix de l’Economie Numérique, parrainé par la Région,
  • Prix Coup de Coeur Christine Empociello, parrainé par la CCI,
  • Prix Métropole Toulouse 
  • Prix Métropole Montpellier-Méditerranée


Le jury, composé de différents professionnels spécialisés, de journalistes, des parrains des Trophées de l’Economie Numérique, des représentants des différents départements de la Région Occitanie/Pyrénées-Méditerranée ainsi que des vainqueurs de l’édition précédente, se réunira à Blagnac le 11 juin. La remise des prix se fera à Carcassonne, le 26 juin

Les porteurs de projets ont jusqu’au vendredi 1er Juin pour déposer leur dossier de candidature sur le site suivant : www.lamelee.com

A l’occasion du premier vendredi 13 de l’année, la Française des Jeux engagée dans un projet d’entreprise qui place le numérique au cœur de ses priorités, a sollicité Olivier Le Deuff, maître de conférences en Sciences de l’Information et de la Communication à l’Université de Bordeaux Montaigne pour apporter son expertise sur le vendredi 13 et sa place sur les plateformes digitales.

Vendredi 13 sur le web, le besoin de croire à l’aléatoire ?

Les pratiques sur le web recèlent parfois des choses étonnantes, mais le vendredi 13 ne semble pas constituer un objet spécifique à la culture geek ou relever d’une distinction réel/virtuel par des comportements vraiment différents sur les forums et réseaux sociaux. Le Vendredi 13 s’inscrit au final parmi les évènements réguliers du calendrier du web pour lesquels on peut étudier quelques réactions dédiées. Toutefois, on observe un certain détachement vis-à-vis du phénomène superstitieux. On peut même y voir une sorte d’autodérision qui montre le fait d’y croire sans trop y croire, en témoignent les nombreux tweets en ce sens.

Un irrationnel présent dès l’origine du réseau

L’Internet n’est pas un territoire exempt de superstitions et de hasards, voire de légende. Pour rappel, lors de la constitution de l’équipe IPTO qui allait réaliser le réseau ARPANET, le réseau ancêtre de l’Internet, un de ses dirigeants, le chercheur en psychologie, en informatique et psychoacousticien Joseph Licklider aurait tiré au sort à pile ou face pour savoir s’il rejoignait le projet en 1962. L’histoire du réseau n’est donc pas une histoire écrite d’avance, et le principe d’une relative incertitude semble finalement rejoindre la dualité informatique du 0 et du 1.

Le web ? "Vague mais prometteur"

Même la première version du projet du web en 1989 de Tim Berners-Lee n’échappe pas au principe d’incertitude. Son supérieur lui rend le dossier avec une mention « vague mais prometteur ». Les territoires numériques apparaissent alors comme des lieux de promesses et d’espérances propices au fait de tenter sa chance.

Les pratiques sur les réseaux ne sont pas toujours rationnelles même si elles s’accompagnent souvent d’autodérision. Le constat de certains forumistes que la discussion arrive à la page 13 génère parfois l’envie de passer rapidement à la suivante en postant une série de messages surtout quand il s’agit de commenter un match d’un évènement sportif.

Sur les forums de Ligue 1, 30 pages pour une victoire

Il y a quelques années sur un forum de football d’une équipe de Ligue 1, les forumistes avaient pris l’habitude de dépasser les 30 pages de commentaires sur un match, et ce si possible avant le début officiel du match, car cela semblait signifier une plus grande chance de victoires. La mode semble être passée, mais dès que la page 30 arrive, la tentation d’en référer à ce rituel revient de temps en temps.

L’imaginaire du web s’accompagne dès le début d’éléments viraux dont la pertinence interroge. Les chaînes de lettres version papier ont tenté de bénéficier de la viralité du numérique à la fin des années 90 et au début des années 2000. Il s’agissait bien souvent de partager un message via la messagerie électronique pour gagner un téléphone portable ou une caisse de champagne, ce qui était bien sûr totalement faux.

Désormais, la viralité fonctionne sur le partage de statuts sur les réseaux sociaux qui promettent chance ou malheur à celui ou celle qui ne rentre pas dans le jeu de la diffusion. C’est cet imaginaire qui va être à l’origine du projet hoaxbuster, le site créé en 2000 qui veille à vérifier l’information en circulation sur le web.

L’Internet et le web ne sont donc pas exempts de rituels et de superstition voire de représentations étonnantes du fait d’une méconnaissance de l’architecture technique du réseau.

Un besoin d’aléatoire dans un monde d’apparence rationnel qui s’exprime sur le web

Les discours sur les possibilités d’interprétation de la réalité par des données, les fameux big data associés aux possibilités de l’intelligence artificielle et des algorithmes, dont les résultats sont fantasmés et pour beaucoup mis en scène par les séries de science-fiction ou dystopiques à la Black Mirror, ne peuvent faire qu’accroître le désir d’y échapper.

Dès lors, il s’agit de pouvoir sortir d’une histoire pré-écrite, et rien de mieux que de pouvoir s’en remettre à l’aléatoire pour y parvenir, y compris sur Internet. Le vendredi 13 illustre bien ce positionnement. Ce n’est pas parce qu’il n’y a rien à attendre rationnellement, qu’il ne faut pas espérer qu’il puisse quand même se produire quelque chose de bénéfique.

S’il est encore difficile de parfaitement mesurer pleinement les ressentis à partir de ce qui est dit sur les forums et réseaux sociaux, on peut toutefois se reporter aux requêtes exprimées sur les moteurs de recherche. Si on examine les requêtes sur Google qui mentionnent le vendredi 13, les 20 premiers résultats sont clairement associés à LOTO, EuroMillions, au tirage… Jason le tueur de vendredi 13 n’apparaît qu’en 26e position, même si Youtube regorge de références au fameux film, pour ceux qui aiment jouer à se faire peur.

Il reste sans doute d’autres éléments qu’on ne peut pas mesurer en ce qui concerne les pratiques superstitieuses dans les environnements digitaux. Le fait d’envoyer un message à telle heure plutôt qu’à une autre, le fait d’accompagner de pensées positives un message de candidature, le fait d’avoir certaines stratégies sur certains sites d’enchères, etc.

Le vendredi 13 semble être le moment adéquat pour ceux qui n’ont pas peur de gagner


La Fédération nationale des tiers de confiance (FNTC) annonce la création de son cinquième Collège nommé « utilisateurs de services de confiance », ce Collège vise à faire évoluer les pratiques et les règles en fonction des besoins des utilisateurs.
A peine créé et déjà plébiscité, il accueille déjà différentes entreprises parmi les plus grandes avec une forte représentation du secteur bancaire.

« Avec ce nouveau collège dédié aux utilisateurs, la FNTC élargit encore le champ de représentativité de ses membres tout en générant encore plus d'interactions et de mise en avant des bonnes pratiques permettant une évolution numérique sereine et dans le respect des règles légales et opérationnelles. » précise Alain Bobant, président de la FNTC. « Nous sommes particulièrement fiers du succès de ce collège à peine son lancement annoncé et nous appelons d'autres utilisateurs de services de confiance à nous rejoindre. »

Ne pas subir mais maîtriser la numérisation des processus et des usages grâce aux Tiers de Confiance, tel est le maître mot de ce nouveau collège qui se positionne comme une « smart communauté » qui réalise la symbiose entre la compétence des experts et le besoin des utilisateurs.

Ce collège participera aux formations initiales dispensées dans le master « Tiers de Confiance du Numérique » dispensé à l'Université de la Rochelle. De même, les membres du Collège 5 organiseront des formations à destination des entreprises sous l'égide de la FNTC.

Les tiers de confiance du numérique contribuent fortement à l'essor d'une digitalisation fiable et sécurisée. Les plus de 130 membres de la FNTC et leurs différents collèges de réflexion offrent au marché du numérique un inestimable gisement de compétences dans les domaines historiques de la digitalisation : signature électronique, archivage électronique, facture électronique, vote électronique, e-finance, e-santé,… mais également dans ses domaines « montants » : Cachet électronique visible, Big Data, objets connectés, Blockchain, Intelligence Artificielle …


Par Scott Register, VP Cloud & Security Products chez Ixia, une société de Keysight.


Le règlement général sur la protection des données (RGPD) entrera en vigueur le 25 mai prochain dans toute l'Union Européenne avec pour objectif de protéger les données des individus en leur donnant un certain contrôle.

L'un des principaux ingrédients de ce nouveau règlement consiste en la "pseudonymisation". Cela signifie qu’une personne ayant accès à des données ne doit pas être en mesure de les relier à un utilisateur particulier. Pour y parvenir, les entreprises disposent de nombreux moyens qu’elles ont tout intérêt à mettre en place dès le début de la chaine de traitement afin d'assurer une protection maximale.

Si cette nouvelle réglementation peut être perçue comme un fardeau pour les organisations qui doivent notamment réviser le traitement des données utilisateurs, ce ne doit pas être la seule façon de l’aborder, et ce, pour plusieurs raisons.

Tout d’abord, le RGPD vient remplacer un ensemble disparate de réglementations nationales par un régime unique à l'échelle de l'Union Européenne. Cela rend la conformité beaucoup plus simple et moins coûteuse pour les sociétés multinationales.

Deuxièmement, son application peut être utilisée comme une occasion de rationaliser les processus internes et d'améliorer la sécurité. De telles dispositions permettront aux organisations concernées d’en tirer des avantages en termes de coûts à court et à long terme.

La pseudonymisation, le chiffrement ou tout autre moyen potentiellement utilisable pour se mettre en conformité avec le RGPD ne sont pas des défis technologiques. En effet, la technologie appropriée est largement disponible dans des produits prêts à l'emploi. Les vrais défis concernent davantage la façon de gérer des données.

Afin d'assurer la protection et la responsabilité des données personnelles des utilisateurs à toutes les étapes du traitement, des processus uniques devraient être établis pour l'acquisition, la manipulation, le traitement, le stockage et l'élimination de ces données au sein d'un flux de travail unique.

Les professionnels de l'informatique savent que l'intégration de données (combiner et rassembler des données provenant de sources multiples) est l'un des défis opérationnels les plus difficiles auxquels sont confrontées de nombreuses organisations. Souvent, il s'agit d'un processus manuel, à forte consommation de main d’œuvre. De nombreuses organisations pourraient avoir honte de révéler que la gestion et le traitement des données clés se font manuellement, via un simple tableur qui n'est ni automatisé, ni efficace, ni sécurisé...

Aujourd’hui, le caractère obligatoire du RGPD va permettre aux départements IT de forcer l'amélioration des processus de gestion des données.

À partir de mai prochain, les organisations devront mettre toutes les données utilisateurs dans un pool protégé et en surveiller scrupuleusement l'accès (ce qui a néanmoins toujours été l'objectif des équipes de sécurité). Mais il ne s'agira plus de débattre de la probabilité ou du coût d'une violation réelle. Le simple fait de ne pas protéger les données de manière adéquate sera désormais punissable et coûteux. Les entreprises qui ne respecteront pas le RGPD seront passibles de lourdes amendes pouvant aller jusqu'à 4 % de leur chiffre d'affaires annuel.

Un autre avantage à cette exigence est la réduction de l'informatique parallèle puisque les données stockées dans des entrepôts disparates ne sont pas facilement ni pseudonymisables ni auditables.

Une organisation intelligente profitera du RGPD pour ré-imaginer la façon dont elle traite les données, avec la sécurité comme principe de base. En définitive, elle en tirera de nombreux avantages :

Acquisition de données
Le RGPD impliquera de ne pas laisser les données utilisateurs aux points de collecte (terminaux de point de vente par exemple) plus longtemps que nécessaire et de les crypter dès que possible. Cela réduira les besoins de stockage distribué, améliorera la sécurité et accélérera le transfert des données. Côté business, cela présente l'avantage d’offrir une vision en temps quasi réel de l'activité.

Transfert de données
Aujourd’hui, la plupart des organisations ont déployé la technologie VPN. Mais pour celles qui trainent encore, leur départements IT auront de solides arguments pour forcer la mise à niveau !

Traitement et stockage des données
La pseudonymisation suppose que l’on ne puisse pas relier un utilisateur particulier à un ensemble de données. Autrement dit, des données peuvent indiquer que 180 clients se trouvaient un jour dans telle agence bancaire, mais pas qui ils étaient. Cela peut forcer à reconsidérer les données collectées, leur stockage et faire que les décisions majeures basées sur l'utilisateur (ciblage de publicités en fonction du comportement par exemple) soient prises le plus rapidement possible. Encore une fois, cela entrainerait des résultats commerciaux clairement bénéfiques. Et l’automatisation de ces traitements renforcerait la protection des données.

Stockage et disposition des données
Toute donnée utilisateur stockée comporte un certain risque de compromission. Une purge plus agressive des données des utilisateurs, en particulier celles détaillées et non pseudonymisées, réduira les coûts de stockage et dictera des contrôles plus stricts sur la façon de les gérer (comme la disposition des données de l'utilisateur).


Chacune de ces étapes devra être clairement documentée et régulièrement auditée, ce qui relève souvent de la compétence du délégué à la protection des données (DPO). La piste d'audit deviendra particulièrement importante si la pratique d'une organisation est contestée devant les tribunaux, car un journal d'audit clair et cohérent fournira une défense solide de la protection des données de l'organisation et de la conformité au RGPD.

Avec l'échéance qui approche à grands pas, les département IT doivent faire du RGPD une priorité absolue et communiquer autour de leurs initiatives pour faire réagir l'organisation.

Une approche efficace et productive de ce nouveau règlement ne serait pas de décomposer les processus existant en étapes distinctes pour y déployer des solutions de sécurité. Bien qu’améliorée, elle ne serait toujours pas coordonnée.

Il s'agit plutôt d'examiner les questions suivantes :

  • Quelles sont les données que nous recueillons sur nos utilisateurs ?
  • Comment les collecter ?
  • En combien de temps pouvons-nous les transférer du point de collecte au data-center pour les traiter ?
  • Quel traitement faisons-nous de ces données et pendant combien de temps les éléments doivent-ils être personnellement identifiables ?
  • Quand pouvons-nous nous débarrasser de tout ou d'une partie de ce que nous avons collecté ?
  • Comment protéger et pseudonymiser ces données, de manière holistique et facilement vérifiable ?

L'organisation qui envisage le RGPD comme un moyen de réinventer ses processus business plutôt que comme de nouvelles dépenses, constatera que les avantages à long terme vont bien au-delà du simple domaine de la sécurité.




Comme tous les ans FireEye publie le rapport MTRENDS. Le rapport 2018 met à jour la collecte d’informations lors des interventions Mandiant et des analyses basées sur le renseignement FireEye Isight de définir les grandes tendances 2017 en termes de cyber-attaques ainsi que les prévisions pour 2018.

Cette édition du rapport, la septième depuis 2011, offre un comparatif détaillé sur des métriques précis lié à la cyber menace. Ainsi nous pouvons observer cette année les éléments suivants :


  • Un abaissement du temps de résidence moyen de l’attaquant sur le réseau de sa victime lors d’une détection interne, avec une moyenne qui passe de 80 jours en 2016 à 57,5 jours en 2018.Néanmoins le temps de détection moyen global lui reste quasi inchangé en passant de 99 jours à 101 jours en 2018
  • Une volonté de réattaque des victimes par leurs attaquants avec 49% des victimes revisitées par les attaquants après la première détection contre seulement 37% en 2013.
  • Des attaquants qui pendant nos investigations en Europe (EMEA) sont restés 54% des fois plus de 121 jours sur le réseau de leur victime.
  • Plus aucun secteur d’activité n’est épargné par les attaquants, de la cyber criminalité au cyber espionnage toutes les industries même les associations caritatives sont aujourd’hui des cibles. Néanmoins le TOP3 des industries visées par de multiples attaques simultanées est : High Tech, Education, Télécommunication

Le rapport permet aussi de mettre en avant des informations sur les grandes tendances 2017 et les risques associés :


  • Les attaquants utilisent de plus en plus le Phishing et les attaques ciblées à travers l’ingénierie sociale.
  • Les entreprises manquent de ressources et de talents pour faire face à l’industrialisation des attaquants et mettre en place des plans de réponses à incidents Adhoc.
  • L’IRAN a été une des sources les plus active en 2017 avec les publications sur les groupes spécifiques comme APT33, 34 et 35
  • La cyber revêt une importance capitale dans le positionnement géopolitique de certains pays, c’est ainsi que l’on voit apparaître de nouveaux pays sur l’échiquier du risque cyber avec à titre d’exemple en 2017, APT32 au Vietnam
  • Les attaquants sont de plus en plus rapides dans l’utilisation de zero days, ils utilisent aussi de manière massives les outils « autorisés » et la « supply chain » pour attaquer leurs victimes.
  • Les groupes chinois continuent leur moisson de patrimoine informationnel en Europe.


Enfin le rapport permet de mettre en avant les tendances à venir sur 2018, avec un contexte géopolitique tendu qui se traduit déjà par une menace cyber de plus en plus forte et une volonté de tous les états du monde à se doter de compétences sur le sujet. MTRENDS 2018 rappelle aussi que de se concentrer sur les menaces avancées est clef pour les organisations, il ne faut pas pour autant oublier de mettre en place des basiques d’hygiènes informatiques comme la ségrégation réseau, l’authentification forte, la mise en place de processus de réponse à incidents, et d’avoir à tout moment le support de l’exécutif d’entreprise.


Alors que Marc Zuckerberg, le PDG de Facebook, a reconnu cette nuit que ce ne sont pas 50 mais 87 millions de comptes qui pourraient être concernés dans le scandale Cambridge Analytica, l'institut Harris vient de publier son étude Social Life 2018 sur les réseaux sociaux.
Cette enquête montre une profonde évolution du rapport qu'ont les internautes avec les réseaux sociaux.



Les réseaux sociaux prennent trop de place...
"Sur fond de scandales relatifs à la protection de leurs données, les Socionautes hésitent entre inquiétudes (83% pensent que les réseaux sociaux occupent une place beaucoup trop importante dans leur vie quotidienne) et addiction (1 Socionaute Millennial sur 2 se dit atteint du « Fear of Missing Out », la peur de rater quelque chose s'il ne se connecte pas aux réseaux sociaux)", explique Harris.

... mais on n'est pas près à décrocher
"Toutefois, au regard de leurs usages actuels, les internautes ne semblent pas encore réellement réduire leurs usages : 80% des internautes sont actifs (30 derniers jours) sur au moins un média social, dont 75% sur des réseaux sociaux (stable vs. 2017) et 60% via des applications de messagerie (+ 4 points en 1 an, 56% en 2017). Dans le détail, Facebook reste la première plateforme sociale (61% d'actifs 30 derniers jours parmi les internautes français), suivie de sa plateforme de messagerie Messenger, qui connait une augmentation significative du nombre d'utilisateurs actifs (44% vs. 40% en 2017). La suite du top 5 est composée quant à elle de YouTube (31%), WhatsApp (24%) et Instagram (20%)."