Antoine Chéron, Avocat associé, www.acbm-avocats.com 

Le 30 mars dernier, le Conseil Constitutionnel a rendu une décision qui, bien que passée relativement inaperçue dans les milieux juridiques, a néanmoins alerté les médias – à tort ou tout du moins de manière excessive, la portée de cette décision étant bien plus restrictive que ce qui a été annoncé.
Il s’agissait pour le Conseil Constitutionnel de contrôler la constitutionnalité de l’article 434-15-2 du Code pénal, lequel sanctionne le gardé à vue qui refuserait de livrer le code de déverrouillage de son téléphone portable.
 Et les peines sont lourdes : s’il est prévu une peine de prison maximale de 3 ans et une amende 45 000 euros pour celles et ceux refusant de remettre la clé de déverrouillage si le moyen de cryptologie qui y est associé est « susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit », celle-ci monte à 5 ans de prison  et 75 000 euros d’amende s’il est avéré que le refus de fournir ce code « aurait permis d’éviter la commission d’un crime ou d’un délit ou d’en limiter les effets ».
Le Conseil Constitutionnel a affirmé la constitutionnalité de cet article, alertant les médias qui ont mis en avant les risques pour le respect de la vie privée, et soulevant également la question très actuelle de la lecture en clair des données chiffrées.
Pour autant, il convient de rassurer, et de bien avoir à l’esprit que cet article est d’une portée limitée.
Son application est en effet soumise à trois conditions :
Tout d’abord, il est impératif de démontrer que le gardé à vue a connaissance du code de déverrouillage du téléphone portable.
Ensuite, il s’agit de prouver que le déverrouillage du téléphone présente un intérêt pour l’enquête, c’est-à-dire que le téléphone susceptible de contenir des données chiffrées liées à l’affaire et susceptible de faire avancer l’enquête.
Enfin, seule une autorité judiciaire dispose de la compétence pour ordonner au gardé à vue de livrer le code de déverrouillage. Cette injonction ne peut en aucun cas provenir d’un officier de police judiciaire.
Dès lors, le placement en garde à vue ne confère pas automatiquement et sans limite le droit aux autorités, quelles qu’elles soient, d’exiger du détenu le code de sécurité du téléphone afin d’avoir accès à l’ensemble des données qui y sont contenues.




Par Stéphane Roder, CEO The AI Builders

Alors que bon nombre d'entreprises en sont encore à mettre en place des plans de transformation digitale, arrive maintenant, avec l'avènement de l'IA, une vague encore plus profonde qui s'apparente à une vraie révolution industrielle. La désintermédiation et la digitalisation des métiers a déjà été un premier choc que beaucoup de secteurs ont pris de plein fouet. Il ne faudrait pas qu'il en soit de même avec l'IA.

Après la robotisation, la mondialisation de la production, l'« Ubérisation » des services, l'IA est une révolution pour toute l'industrie, au même titre que l'a été l'électricité après la vapeur. « AI is new electricity » répète à qui veut l'entendre Andrew NG le créateur de Google Brain. En venant aider, remplacer et optimiser, l'IA va révolutionner tous les métiers mais surtout les structures de coûts des entreprises et donc leur compétitivité. Celles qui intégreront l'IA dans leur stratégie de développement assez tôt, en transformant et en optimisant leurs métiers, pourront se prémunir contre de nouveaux entrants et garder le même niveau de compétitivité face à leurs concurrents avant qu'ils ne s'équipent à leur tour.  Ainsi, au-delà de la transformation digitale telle qu'elle est envisagée aujourd'hui, l'introduction massive de l'IA dans l'entreprise devient un challenge pressant, voire une nécessité pour survivre. Il y aura en effet ceux qui ont fait le choix de l'électricité et ceux qui seront restés à la vapeur.

L'IA telle qu'elle est aujourd'hui a cela d'extraordinaire qu'elle peut apprendre en se nourrissant de l'expérience de l'entreprise, de son historique, de ses données et du savoir-faire de ses métiers. Ces technologies de L'IA, qui apprennent plus qu'elles ne se programment, vont permettre d'automatiser des tâches dans tous les process de l'entreprise tant dans l'administration ou la gestion de celle-ci que dans son cœur de métier. Car c'est bien de gains de productivité immédiat qu'il est question ici, tant sur les coûts liés à la gestion et à la production que sur la valeur créée en optimisant des services ou en imaginant de nouveaux jusqu'alors impossibles, voire même impensables sans l'aide de l'IA. C'est la marge qui se trouvera directement impactée, que ce soit à travers des réductions de coûts de l'ordre de 30 à 50% ou de l'apparition de services qui généreront de nouvelles sources de revenus obtenues pratiquement à coût marginal. Citons à titre d'exemple ces cabinets comptables équipés d'outils permettant non plus de lire mais de comprendre les factures de leurs clients et de les classer automatiquement dans les bons plans comptables. Ou encore ce grand assureur français qui a automatisé l'allocation d'un de ses fonds avec de l'IA en reprenant l'historique des dix dernières années pour obtenir, au final, de meilleurs scores que ses pairs humains et devenir un des fonds vedette de ce secteur. L'IA apprend de l'expérience, de l'historique et cette intégration peut être réalisée dans toutes les fonctions et dans tous les métiers. Mais encore faut-il comprendre ses capacités, ses limites et la forme qu'elle va revêtir.

Cette disruption technologique s'apparente au lent déploiement des systèmes d'information dans l'entreprise dans les années 80-90 qui a permis au final de structurer les process pour un meilleur pilotage des activités et de déboucher sur une première utilisation des données et du big data : la Business Intelligence (Le Descriptive Analytics). L'introduction de l'IA s'inscrit dans cette continuité mais va beaucoup plus loin en franchissant l'étape ultime de la recommandation et de l'action (Le Prescriptive Analytics).

Cette transition va s'opérer à travers les systèmes d'information où des parties entières de process encore absents, encore manuels ou semi-automatisés vont se trouver remplacés dans un premier temps par des outils « standalone » développés par de géniales start-up, puis par des produits standards avant d'être enfin intégrés dans les suites logicielles de gestion que sont les ERP. Restera le métier – comme d'habitude servi en dernier – sur lequel comme au bon vieux temps des systèmes d'information, des solutions sur mesure seront trouvées. C'est sur cette dernière partie que se trouvera le plus grand challenge des entreprises lorsqu'il faudra définir des priorités.

Mais cette évolution ne viendra pas des métiers eux-mêmes qui se sentent menacés par l'IA plus que mis en valeur sans toutefois connaître la teneur de son apport réel. La résistance au changement est tenace, alimentée par les fantasmes millénaristes générés par une technologie basée sur de nouveaux paradigmes. Il faudra accompagner ce changement en dédramatisant, en expliquant les tenants et les aboutissants de l'IA, montrer que l'humain reste au centre, maître de son activité mais surtout en remettant au goût du jour les bons vieux schémas directeurs qui, malgré leur lourdeur, ont structuré les systèmes d'information de nos entreprises quitte à repasser ensuite en méthode Agile. Les entreprises ne feront pas l'économie du schéma directeur IA sous peine de ne pas faire les bons choix le moment venu.

Les potentiels de gains de productivité et d'augmentation des profits sont tels que L'IA est une opportunité unique pour les nouveaux entrants, les followers, les challengers de ravir des parts de marché voire même le leadership aux belles endormies. Au-delà de la technologie en elle-même, c'est donc une nouvelle guerre économique qui s'annonce et qui ne cache pas son nom quand on entend le gouvernement Chinois en faire une cause nationale ou les Etats-Unis investir des milliards de dollars. C'est dans cette perspective que les directions générales doivent prendre conscience des enjeux et se préparer à déployer tout en formant leurs salariés aux grands principes de l'IA pour qu'ils adhèrent au mieux à cette nouvelle collaboration entre l'humain et la machine.


Par Florian Douetteau, CEO, Dataiku


L'approche analytique fait déjà partie de la stratégie d'entreprise et des indicateurs de performance. Il est désormais temps d'aller plus loin dans ce sens, en renforçant les compétences liées à l'analyse et à l'exploitation des données. C'est tout l'enjeu de la compétition actuelle, que l'on qualifie également de « maturité analytique ».


L'aube d'une nouvelle évolution de la donnée

L'analytique a déjà pris une place majeure dans la vie de l'entreprise, notamment à travers l'approche prédictive. Elle permet aux dirigeants de s'appuyer sur les données pour prendre des décisions plus éclairées. Cependant, il ne suffit plus aujourd'hui de rappeler l'importance d'adopter une culture analytique : il importe aujourd'hui de savoir mesurer les performances d'une telle culture et de la transformer en une réelle stratégie au long cours. Il apparaît que dans la plupart des secteurs, les entreprises sont prêtes à adopter une stratégie orientée par la donnée et l'intelligence artificielle. Les licornes* sont dans la ligne de mire des observateurs, investisseurs et organismes de classement. Elles se caractérisent non seulement par leur valeur marchande, mais également par l'intégration de l'analytique dans leur modèle économique. D'autres s'appuient totalement sur de précieuses mines de données et des modèles d'analyse performants. Uber, Airbnb ou Lyft font partie de ces entreprises qui ont fondé leur modèle sur l'exploitation des données et amènent leur stratégie analytique à maturité.


La « maturité analytique », nouvel indicateur de performance financière et stratégique

De nombreux travaux ont souligné le lien qui s'est établi entre une analyse approfondie des données et la performance des entreprises sur plusieurs aspects.
Tout d'abord, plus les entreprises adoptent une stratégie orientée par les données, plus elles ont de chances d'atteindre des objectifs financiers et opérationnels. Pour Capgemini, l'analytique constitue effectivement un avantage distinctif, qui s'obtient grâce à une prise de conscience du leadership. Selon le rapport de l'Institut international de l'Analytique (IIA), les leaders qui intègrent le numérique dans leur réflexion stratégique et dans ses applications (réseaux sociaux, mobile, équipement mobile des salariés, opérations internes, business models) ont amené leurs entreprises à générer plus de revenus (12%), à réaliser un CA nettement plus élevé (26%) et à accroître leur valeur sur le marché (12%).
On constate ensuite qu'en adoptant une approche orientée données, une entreprise se différencie durablement des autres acteurs de son secteur.
Une approche data-driven renforcée permet également de créer de nouveaux marchés, et d'amener plus aisément de la disruption sur le marché existant. Elle permet d'obtenir les investissements nécessaires pour y parvenir, en raison d'un ratio Investissement/ROI élevé (8,7%).
Enfin, les entreprises ayant adopté une forte culture analytique sont également celles qui sont le mieux perçues par leurs consommateurs, en raison notamment de la réactivité et du pouvoir d'innovation que cette approche leur confère. Les données de l'indice BCG concernant la dernière décennie mettent en évidence un lien évident entre une approche analytique dite « mature » et la réputation d'une entreprise.


L'analytique occasionne aussi un retour sur investissement

Il est à présent évident que l'analytique est source ou accélérateur de performance. Mais ce constat doit s'accompagner de données concrètes.
L'intelligence artificielle d'entreprise promet un avenir dans lequel la maturité analytique des entreprises et de l'industrie peut être quantifiée avec précision, comparée, et donc utilisée comme un indicateur clé de performance pour toute l'entreprise. Les données et l'acuité que confère l'analytique dite « mature » constituent des éléments concrets dont pourraient se servir les entreprises pour prévoir leurs besoins en termes d'investissement et estimer leur ROI. La corrélation entre analytique approfondie et performances étant établie, toutes les entreprises sont désormais en mesure d'estimer la maturité de leur approche en s'appuyant sur leurs résultats. C'est d'ailleurs une nécessité, à une époque où la compétition se joue sur un élément aussi changeant que le Big Data. Les Digital Natives** (Google, Amazon, Netflix, Ebay) en sont d'ailleurs la preuve vivante. Par ailleurs, la maturité analytique n'est pas l'apanage des stratégies basées d'emblée sur les données : à tout âge, une entreprise peut intégrer l'analytique à son business model, à l'instar d'Apple.

Aujourd'hui, quelle que soit la taille ou l'ancienneté d'une entreprise, la concurrence se joue sur la capacité à inclure une analyse pointue des données dans la vision à long terme. Outil de prise de décision, mais également facteur d'innovation et de réactivité, l'analytique va désormais de pair avec la réputation, le capital sympathie, la crédibilité, et, au-delà de tous ces aspects, à la performance globale (financière et stratégique). Il est temps pour tous les secteurs de s'y adapter !

*Les licornes sont des startups ayant levé plus d'un milliard de dollars, qui fondent principalement leur business model sur l'analytique ou fournissent un important volume de données et d'infrastructures analytiques.
** Digital Native est le nom donné aux entreprises dont le modèle économique s'est construit sur l'exploitation des données.


Par Pierre Hébrard, fondateur et CEO, Pricemoov


La tarification dynamique, ou dynamic pricing, consiste à ajuster ses prix à la hausse ou à la baisse en fonction du contexte d'achat. Un contexte qui prend en compte des facteurs internes et externes à l'entreprise, susceptibles d'influencer la demande. Stocks disponibles, stratégie marketing et commerciale, mais aussi les prix de la concurrence, évènements particuliers ou données météorologiques peuvent faire partie de ces facteurs. Cependant, les idées préconçues persistent, alimentant les freins et empêchant de saisir la réalité de la tarification dynamique.


Idée reçue n° 1 : la tarification dynamique n'est utilisée que dans l'aérien

L'idée d'un prix qui évolue en fonction du temps est le plus souvent associée aux billets d'avion, au point que nombreux sont ceux qui utilisent naturellement les comparateurs de vol avant l'achat d'un billet. Pour autant, la tarification dynamique n'est pas l'apanage du secteur aérien.
Toute entreprise ayant une capacité périssable, des coûts fixes importants et une demande fluctuante, est susceptible de faire bouger ses prix. Une capacité considérée comme périssable est une ressource qui se perd ou coûte de l'argent lorsqu'elle n'est pas vendue : il peut s'agir d'une nuit d'hôtel, d'un siège dans un avion, d'un produit à la mode, de fruits et légumes sur les marchés. Afin d'optimiser cette ressource, le commerçant fera évoluer le prix au gré du contexte dans lequel l'offre et la demande évoluent.
C'est ce que fait par exemple l'application Uber lorsqu'elle applique des coefficients multiplicateurs aux heures de pointe. En effet, à ces moments la demande de trajet devient plus importante que l'offre de chauffeurs, justifiant une augmentation des prix. Au contraire, en période de creux, le prix va chuter car chaque minute d'un chauffeur non attribuée à un trajet est une ressource perdue, voire coûteuse.

Idée reçue n° 2 : la tarification dynamique se fait au détriment du consommateur

La tarification dynamique permet en réalité de trouver le prix juste pour s'adapter à l'équilibre changeant entre l'offre et la demande. Les commerçants pourront alors proposer différents niveaux de prix en fonction des différentes sensibilités des clients.  Cela s'observe déjà dans le secteur du voyage : c'est bien parce qu'il existe des classes business qu'il est possible de proposer des billets moins chers (prem's dans les trains, petits prix ou promo dans les avions) ou des programmes de fidélité pour les consommateurs plus sensibles au prix.
Par ailleurs, la variation des prix peut même se faire au bénéfice de tous les consommateurs. Aux États-Unis, le retailer en ligne Jet.com s'est distingué en proposant des produits dont le prix varie en temps réel et régresse en fonction de la quantité achetée. Grâce à une logique d'optimisation des coûts logistiques, cette startup peut offrir des tarifs réduits. Cette technologie de pricing a valu à Jet.com d'être la plus grosse acquisition du retail online (racheté 3,3 milliards de dollars par le géant Walmart seulement un an après sa mise en activité).

Idée reçue n° 3 : un tarif qui varie selon la tête du client

Qui n'a jamais eu l'impression que le prix d'un billet augmentait à chaque consultation ? En réalité, le prix affiché est le même pour un groupe de consommateurs, et ne tient aucunement compte de l'appartenance à telle ou telle catégorie sociale.
En revanche, la tarification personnalisée consiste à proposer des prix sur-mesure, pour une certaine clientèle identifiée et ciblée en fonction de ses habitudes d'achat, par la stratégie marketing et commerciale.
Cependant, la nouvelle réglementation RGPD qui entrera en vigueur le 25 mai prochain, redéfinit notamment comment les données personnelles pourront être utilisées par les entreprises. Elle interdira ainsi l'utilisation des données qui n'auraient pas été renseignées par le client lui-même. Les entreprises ne pourront donc pas, par exemple, adapter leur prix en fonction d'un historique de navigation !

Idée reçue n° 4 : tarification dynamique = yield management

Le yield management consiste à maximiser le revenu total en recherchant la combinaison optimale entre le prix et le taux d'occupation de l'espace de vente. L'un des exemples les plus parlants de cette technique est l'opération adoptée par Marks & Spencer en 2016, lorsque l'enseigne a diminué le prix des sandwichs avant 11h du matin. Une opération qui avait pour objectif d'inciter les clients à acheter leur déjeuner plus tôt, avec pour effet l'étalement de la capacité de vente sur une durée plus longue, et l'augmentation du nombre de clients.
Faire du yield management revient bien à faire de la tarification dynamique ; en revanche, l'inverse ne peut être vrai, car la tarification dynamique  recouvre un champ plus large. Cette technique prend en compte bien d'autres facteurs dans la définition du prix, tels que :  les prix appliqués par la concurrence, les conditions qui influent sur le parcours et la décision d'achat, le net promoter score*, les festivals ayant lieu près du point de vente ou les jours de fête, etc. Elle est d'ailleurs mise en place par des entreprises telles qu'Amazon.

Idée reçue n° 5 : la tarification dynamique ne se fait que dans le commerce en ligne

Deux exigences sont à prendre en compte pour pouvoir faire varier ses prix : des données permettant de comprendre le comportement des utilisateurs, et la possibilité de faire évoluer l'affichage du prix. C'est pour ces raisons que le web semble être le canal indiqué pour faire varier les tarifs. Cependant, grâce aux nouvelles technologies, la tarification dynamique progresse également dans la vente physique.

L'avènement des puces RFID permet ainsi de récolter un maximum de données sur le parcours des produits en magasin, et constitue une source d'informations importante sur la typologie des comportements d'achat. Les étiquettes numériques, que l'on voit de plus en plus en magasin, permettent de faire varier les prix de tout produit à tout moment.

L'exemple récent le plus connu est bien sûr l'ouverture d'Amazon Go, qui combine toutes les données de la plateforme d'Amazon avec les données récoltées en magasin pour proposer le prix plus pertinent à tout moment.

De nouvelles techniques d'intelligence artificielle permettront de segmenter et de prévoir la demande de la manière la plus précise possible. La vigilance s'impose néanmoins aux entreprises : elles doivent non seulement choisir les bons outils, mais également faire preuve de discernement dans l'usage de la tarification dynamique, afin de préserver la relation client et l'image de la marque. 

*Le Net Promoter Score est l'indicateur de la satisfaction client.


Les Trophées de l’Economie Numérique 2018, organisés par la Mêlée, avec le soutien de la Région Occitanie, les agglomérations de Montpellier, Toulouse et Carcassonne et la CCI d'Occitanie,  se préparent pour récompenser les projets numériques porteurs d’innovation qui ont pour objectif d’apporter des solutions numériques.

Pour cette 15e édition, il y aura 5 categories :

• Territoire et citoyenneté
Ce trophée vise à valoriser l’initiative des entreprises, collectivités, associations, administrations ou organismes publics dont le projet vise à développer le territoire, favoriser le lien social et qui s’appuie sur le numérique pour développer ce projet.

• Transition Numérique et Performance
Il récompense les entreprises utilisatrices des technologies numériques, qui assurent le déploiement d’un usage numérique ou qui souhaitent améliorer la performance, la compétitivité, l’organisation interne d’une entreprise, voire d’un secteur d’activité.

• Croissance, Rayonnement et potentiel international
Ce trophée est ouvert aux entreprises numériques, ayant une croissance, une innovation et une performance qui assurent un rayonnement rapide et même un développement international.

• Transition énergétique et technologies vertes
Cette catégorie est ouverte aux entreprises utilisatrices de technologies numériques proposant une innovation dans les problématiques de croissance verte via l’usage du numérique.

• Startup
Ce trophée récompense jeunes talents et jeunes projets innovants, particulièrement prometteur.



4 prix spéciaux 
Chaque gagnant bénéficiera d’une visibilité régionale et nationale et de dotations ou d’accompagnements fournis par les partenaires de l’opération :

  • Grand Prix de l’Economie Numérique, parrainé par la Région,
  • Prix Coup de Coeur Christine Empociello, parrainé par la CCI,
  • Prix Métropole Toulouse 
  • Prix Métropole Montpellier-Méditerranée


Le jury, composé de différents professionnels spécialisés, de journalistes, des parrains des Trophées de l’Economie Numérique, des représentants des différents départements de la Région Occitanie/Pyrénées-Méditerranée ainsi que des vainqueurs de l’édition précédente, se réunira à Blagnac le 11 juin. La remise des prix se fera à Carcassonne, le 26 juin

Les porteurs de projets ont jusqu’au vendredi 1er Juin pour déposer leur dossier de candidature sur le site suivant : www.lamelee.com

A l’occasion du premier vendredi 13 de l’année, la Française des Jeux engagée dans un projet d’entreprise qui place le numérique au cœur de ses priorités, a sollicité Olivier Le Deuff, maître de conférences en Sciences de l’Information et de la Communication à l’Université de Bordeaux Montaigne pour apporter son expertise sur le vendredi 13 et sa place sur les plateformes digitales.

Vendredi 13 sur le web, le besoin de croire à l’aléatoire ?

Les pratiques sur le web recèlent parfois des choses étonnantes, mais le vendredi 13 ne semble pas constituer un objet spécifique à la culture geek ou relever d’une distinction réel/virtuel par des comportements vraiment différents sur les forums et réseaux sociaux. Le Vendredi 13 s’inscrit au final parmi les évènements réguliers du calendrier du web pour lesquels on peut étudier quelques réactions dédiées. Toutefois, on observe un certain détachement vis-à-vis du phénomène superstitieux. On peut même y voir une sorte d’autodérision qui montre le fait d’y croire sans trop y croire, en témoignent les nombreux tweets en ce sens.

Un irrationnel présent dès l’origine du réseau

L’Internet n’est pas un territoire exempt de superstitions et de hasards, voire de légende. Pour rappel, lors de la constitution de l’équipe IPTO qui allait réaliser le réseau ARPANET, le réseau ancêtre de l’Internet, un de ses dirigeants, le chercheur en psychologie, en informatique et psychoacousticien Joseph Licklider aurait tiré au sort à pile ou face pour savoir s’il rejoignait le projet en 1962. L’histoire du réseau n’est donc pas une histoire écrite d’avance, et le principe d’une relative incertitude semble finalement rejoindre la dualité informatique du 0 et du 1.

Le web ? "Vague mais prometteur"

Même la première version du projet du web en 1989 de Tim Berners-Lee n’échappe pas au principe d’incertitude. Son supérieur lui rend le dossier avec une mention « vague mais prometteur ». Les territoires numériques apparaissent alors comme des lieux de promesses et d’espérances propices au fait de tenter sa chance.

Les pratiques sur les réseaux ne sont pas toujours rationnelles même si elles s’accompagnent souvent d’autodérision. Le constat de certains forumistes que la discussion arrive à la page 13 génère parfois l’envie de passer rapidement à la suivante en postant une série de messages surtout quand il s’agit de commenter un match d’un évènement sportif.

Sur les forums de Ligue 1, 30 pages pour une victoire

Il y a quelques années sur un forum de football d’une équipe de Ligue 1, les forumistes avaient pris l’habitude de dépasser les 30 pages de commentaires sur un match, et ce si possible avant le début officiel du match, car cela semblait signifier une plus grande chance de victoires. La mode semble être passée, mais dès que la page 30 arrive, la tentation d’en référer à ce rituel revient de temps en temps.

L’imaginaire du web s’accompagne dès le début d’éléments viraux dont la pertinence interroge. Les chaînes de lettres version papier ont tenté de bénéficier de la viralité du numérique à la fin des années 90 et au début des années 2000. Il s’agissait bien souvent de partager un message via la messagerie électronique pour gagner un téléphone portable ou une caisse de champagne, ce qui était bien sûr totalement faux.

Désormais, la viralité fonctionne sur le partage de statuts sur les réseaux sociaux qui promettent chance ou malheur à celui ou celle qui ne rentre pas dans le jeu de la diffusion. C’est cet imaginaire qui va être à l’origine du projet hoaxbuster, le site créé en 2000 qui veille à vérifier l’information en circulation sur le web.

L’Internet et le web ne sont donc pas exempts de rituels et de superstition voire de représentations étonnantes du fait d’une méconnaissance de l’architecture technique du réseau.

Un besoin d’aléatoire dans un monde d’apparence rationnel qui s’exprime sur le web

Les discours sur les possibilités d’interprétation de la réalité par des données, les fameux big data associés aux possibilités de l’intelligence artificielle et des algorithmes, dont les résultats sont fantasmés et pour beaucoup mis en scène par les séries de science-fiction ou dystopiques à la Black Mirror, ne peuvent faire qu’accroître le désir d’y échapper.

Dès lors, il s’agit de pouvoir sortir d’une histoire pré-écrite, et rien de mieux que de pouvoir s’en remettre à l’aléatoire pour y parvenir, y compris sur Internet. Le vendredi 13 illustre bien ce positionnement. Ce n’est pas parce qu’il n’y a rien à attendre rationnellement, qu’il ne faut pas espérer qu’il puisse quand même se produire quelque chose de bénéfique.

S’il est encore difficile de parfaitement mesurer pleinement les ressentis à partir de ce qui est dit sur les forums et réseaux sociaux, on peut toutefois se reporter aux requêtes exprimées sur les moteurs de recherche. Si on examine les requêtes sur Google qui mentionnent le vendredi 13, les 20 premiers résultats sont clairement associés à LOTO, EuroMillions, au tirage… Jason le tueur de vendredi 13 n’apparaît qu’en 26e position, même si Youtube regorge de références au fameux film, pour ceux qui aiment jouer à se faire peur.

Il reste sans doute d’autres éléments qu’on ne peut pas mesurer en ce qui concerne les pratiques superstitieuses dans les environnements digitaux. Le fait d’envoyer un message à telle heure plutôt qu’à une autre, le fait d’accompagner de pensées positives un message de candidature, le fait d’avoir certaines stratégies sur certains sites d’enchères, etc.

Le vendredi 13 semble être le moment adéquat pour ceux qui n’ont pas peur de gagner


La Fédération nationale des tiers de confiance (FNTC) annonce la création de son cinquième Collège nommé « utilisateurs de services de confiance », ce Collège vise à faire évoluer les pratiques et les règles en fonction des besoins des utilisateurs.
A peine créé et déjà plébiscité, il accueille déjà différentes entreprises parmi les plus grandes avec une forte représentation du secteur bancaire.

« Avec ce nouveau collège dédié aux utilisateurs, la FNTC élargit encore le champ de représentativité de ses membres tout en générant encore plus d'interactions et de mise en avant des bonnes pratiques permettant une évolution numérique sereine et dans le respect des règles légales et opérationnelles. » précise Alain Bobant, président de la FNTC. « Nous sommes particulièrement fiers du succès de ce collège à peine son lancement annoncé et nous appelons d'autres utilisateurs de services de confiance à nous rejoindre. »

Ne pas subir mais maîtriser la numérisation des processus et des usages grâce aux Tiers de Confiance, tel est le maître mot de ce nouveau collège qui se positionne comme une « smart communauté » qui réalise la symbiose entre la compétence des experts et le besoin des utilisateurs.

Ce collège participera aux formations initiales dispensées dans le master « Tiers de Confiance du Numérique » dispensé à l'Université de la Rochelle. De même, les membres du Collège 5 organiseront des formations à destination des entreprises sous l'égide de la FNTC.

Les tiers de confiance du numérique contribuent fortement à l'essor d'une digitalisation fiable et sécurisée. Les plus de 130 membres de la FNTC et leurs différents collèges de réflexion offrent au marché du numérique un inestimable gisement de compétences dans les domaines historiques de la digitalisation : signature électronique, archivage électronique, facture électronique, vote électronique, e-finance, e-santé,… mais également dans ses domaines « montants » : Cachet électronique visible, Big Data, objets connectés, Blockchain, Intelligence Artificielle …


Par Scott Register, VP Cloud & Security Products chez Ixia, une société de Keysight.


Le règlement général sur la protection des données (RGPD) entrera en vigueur le 25 mai prochain dans toute l'Union Européenne avec pour objectif de protéger les données des individus en leur donnant un certain contrôle.

L'un des principaux ingrédients de ce nouveau règlement consiste en la "pseudonymisation". Cela signifie qu’une personne ayant accès à des données ne doit pas être en mesure de les relier à un utilisateur particulier. Pour y parvenir, les entreprises disposent de nombreux moyens qu’elles ont tout intérêt à mettre en place dès le début de la chaine de traitement afin d'assurer une protection maximale.

Si cette nouvelle réglementation peut être perçue comme un fardeau pour les organisations qui doivent notamment réviser le traitement des données utilisateurs, ce ne doit pas être la seule façon de l’aborder, et ce, pour plusieurs raisons.

Tout d’abord, le RGPD vient remplacer un ensemble disparate de réglementations nationales par un régime unique à l'échelle de l'Union Européenne. Cela rend la conformité beaucoup plus simple et moins coûteuse pour les sociétés multinationales.

Deuxièmement, son application peut être utilisée comme une occasion de rationaliser les processus internes et d'améliorer la sécurité. De telles dispositions permettront aux organisations concernées d’en tirer des avantages en termes de coûts à court et à long terme.

La pseudonymisation, le chiffrement ou tout autre moyen potentiellement utilisable pour se mettre en conformité avec le RGPD ne sont pas des défis technologiques. En effet, la technologie appropriée est largement disponible dans des produits prêts à l'emploi. Les vrais défis concernent davantage la façon de gérer des données.

Afin d'assurer la protection et la responsabilité des données personnelles des utilisateurs à toutes les étapes du traitement, des processus uniques devraient être établis pour l'acquisition, la manipulation, le traitement, le stockage et l'élimination de ces données au sein d'un flux de travail unique.

Les professionnels de l'informatique savent que l'intégration de données (combiner et rassembler des données provenant de sources multiples) est l'un des défis opérationnels les plus difficiles auxquels sont confrontées de nombreuses organisations. Souvent, il s'agit d'un processus manuel, à forte consommation de main d’œuvre. De nombreuses organisations pourraient avoir honte de révéler que la gestion et le traitement des données clés se font manuellement, via un simple tableur qui n'est ni automatisé, ni efficace, ni sécurisé...

Aujourd’hui, le caractère obligatoire du RGPD va permettre aux départements IT de forcer l'amélioration des processus de gestion des données.

À partir de mai prochain, les organisations devront mettre toutes les données utilisateurs dans un pool protégé et en surveiller scrupuleusement l'accès (ce qui a néanmoins toujours été l'objectif des équipes de sécurité). Mais il ne s'agira plus de débattre de la probabilité ou du coût d'une violation réelle. Le simple fait de ne pas protéger les données de manière adéquate sera désormais punissable et coûteux. Les entreprises qui ne respecteront pas le RGPD seront passibles de lourdes amendes pouvant aller jusqu'à 4 % de leur chiffre d'affaires annuel.

Un autre avantage à cette exigence est la réduction de l'informatique parallèle puisque les données stockées dans des entrepôts disparates ne sont pas facilement ni pseudonymisables ni auditables.

Une organisation intelligente profitera du RGPD pour ré-imaginer la façon dont elle traite les données, avec la sécurité comme principe de base. En définitive, elle en tirera de nombreux avantages :

Acquisition de données
Le RGPD impliquera de ne pas laisser les données utilisateurs aux points de collecte (terminaux de point de vente par exemple) plus longtemps que nécessaire et de les crypter dès que possible. Cela réduira les besoins de stockage distribué, améliorera la sécurité et accélérera le transfert des données. Côté business, cela présente l'avantage d’offrir une vision en temps quasi réel de l'activité.

Transfert de données
Aujourd’hui, la plupart des organisations ont déployé la technologie VPN. Mais pour celles qui trainent encore, leur départements IT auront de solides arguments pour forcer la mise à niveau !

Traitement et stockage des données
La pseudonymisation suppose que l’on ne puisse pas relier un utilisateur particulier à un ensemble de données. Autrement dit, des données peuvent indiquer que 180 clients se trouvaient un jour dans telle agence bancaire, mais pas qui ils étaient. Cela peut forcer à reconsidérer les données collectées, leur stockage et faire que les décisions majeures basées sur l'utilisateur (ciblage de publicités en fonction du comportement par exemple) soient prises le plus rapidement possible. Encore une fois, cela entrainerait des résultats commerciaux clairement bénéfiques. Et l’automatisation de ces traitements renforcerait la protection des données.

Stockage et disposition des données
Toute donnée utilisateur stockée comporte un certain risque de compromission. Une purge plus agressive des données des utilisateurs, en particulier celles détaillées et non pseudonymisées, réduira les coûts de stockage et dictera des contrôles plus stricts sur la façon de les gérer (comme la disposition des données de l'utilisateur).


Chacune de ces étapes devra être clairement documentée et régulièrement auditée, ce qui relève souvent de la compétence du délégué à la protection des données (DPO). La piste d'audit deviendra particulièrement importante si la pratique d'une organisation est contestée devant les tribunaux, car un journal d'audit clair et cohérent fournira une défense solide de la protection des données de l'organisation et de la conformité au RGPD.

Avec l'échéance qui approche à grands pas, les département IT doivent faire du RGPD une priorité absolue et communiquer autour de leurs initiatives pour faire réagir l'organisation.

Une approche efficace et productive de ce nouveau règlement ne serait pas de décomposer les processus existant en étapes distinctes pour y déployer des solutions de sécurité. Bien qu’améliorée, elle ne serait toujours pas coordonnée.

Il s'agit plutôt d'examiner les questions suivantes :

  • Quelles sont les données que nous recueillons sur nos utilisateurs ?
  • Comment les collecter ?
  • En combien de temps pouvons-nous les transférer du point de collecte au data-center pour les traiter ?
  • Quel traitement faisons-nous de ces données et pendant combien de temps les éléments doivent-ils être personnellement identifiables ?
  • Quand pouvons-nous nous débarrasser de tout ou d'une partie de ce que nous avons collecté ?
  • Comment protéger et pseudonymiser ces données, de manière holistique et facilement vérifiable ?

L'organisation qui envisage le RGPD comme un moyen de réinventer ses processus business plutôt que comme de nouvelles dépenses, constatera que les avantages à long terme vont bien au-delà du simple domaine de la sécurité.




Comme tous les ans FireEye publie le rapport MTRENDS. Le rapport 2018 met à jour la collecte d’informations lors des interventions Mandiant et des analyses basées sur le renseignement FireEye Isight de définir les grandes tendances 2017 en termes de cyber-attaques ainsi que les prévisions pour 2018.

Cette édition du rapport, la septième depuis 2011, offre un comparatif détaillé sur des métriques précis lié à la cyber menace. Ainsi nous pouvons observer cette année les éléments suivants :


  • Un abaissement du temps de résidence moyen de l’attaquant sur le réseau de sa victime lors d’une détection interne, avec une moyenne qui passe de 80 jours en 2016 à 57,5 jours en 2018.Néanmoins le temps de détection moyen global lui reste quasi inchangé en passant de 99 jours à 101 jours en 2018
  • Une volonté de réattaque des victimes par leurs attaquants avec 49% des victimes revisitées par les attaquants après la première détection contre seulement 37% en 2013.
  • Des attaquants qui pendant nos investigations en Europe (EMEA) sont restés 54% des fois plus de 121 jours sur le réseau de leur victime.
  • Plus aucun secteur d’activité n’est épargné par les attaquants, de la cyber criminalité au cyber espionnage toutes les industries même les associations caritatives sont aujourd’hui des cibles. Néanmoins le TOP3 des industries visées par de multiples attaques simultanées est : High Tech, Education, Télécommunication

Le rapport permet aussi de mettre en avant des informations sur les grandes tendances 2017 et les risques associés :


  • Les attaquants utilisent de plus en plus le Phishing et les attaques ciblées à travers l’ingénierie sociale.
  • Les entreprises manquent de ressources et de talents pour faire face à l’industrialisation des attaquants et mettre en place des plans de réponses à incidents Adhoc.
  • L’IRAN a été une des sources les plus active en 2017 avec les publications sur les groupes spécifiques comme APT33, 34 et 35
  • La cyber revêt une importance capitale dans le positionnement géopolitique de certains pays, c’est ainsi que l’on voit apparaître de nouveaux pays sur l’échiquier du risque cyber avec à titre d’exemple en 2017, APT32 au Vietnam
  • Les attaquants sont de plus en plus rapides dans l’utilisation de zero days, ils utilisent aussi de manière massives les outils « autorisés » et la « supply chain » pour attaquer leurs victimes.
  • Les groupes chinois continuent leur moisson de patrimoine informationnel en Europe.


Enfin le rapport permet de mettre en avant les tendances à venir sur 2018, avec un contexte géopolitique tendu qui se traduit déjà par une menace cyber de plus en plus forte et une volonté de tous les états du monde à se doter de compétences sur le sujet. MTRENDS 2018 rappelle aussi que de se concentrer sur les menaces avancées est clef pour les organisations, il ne faut pas pour autant oublier de mettre en place des basiques d’hygiènes informatiques comme la ségrégation réseau, l’authentification forte, la mise en place de processus de réponse à incidents, et d’avoir à tout moment le support de l’exécutif d’entreprise.


Alors que Marc Zuckerberg, le PDG de Facebook, a reconnu cette nuit que ce ne sont pas 50 mais 87 millions de comptes qui pourraient être concernés dans le scandale Cambridge Analytica, l'institut Harris vient de publier son étude Social Life 2018 sur les réseaux sociaux.
Cette enquête montre une profonde évolution du rapport qu'ont les internautes avec les réseaux sociaux.



Les réseaux sociaux prennent trop de place...
"Sur fond de scandales relatifs à la protection de leurs données, les Socionautes hésitent entre inquiétudes (83% pensent que les réseaux sociaux occupent une place beaucoup trop importante dans leur vie quotidienne) et addiction (1 Socionaute Millennial sur 2 se dit atteint du « Fear of Missing Out », la peur de rater quelque chose s'il ne se connecte pas aux réseaux sociaux)", explique Harris.

... mais on n'est pas près à décrocher
"Toutefois, au regard de leurs usages actuels, les internautes ne semblent pas encore réellement réduire leurs usages : 80% des internautes sont actifs (30 derniers jours) sur au moins un média social, dont 75% sur des réseaux sociaux (stable vs. 2017) et 60% via des applications de messagerie (+ 4 points en 1 an, 56% en 2017). Dans le détail, Facebook reste la première plateforme sociale (61% d'actifs 30 derniers jours parmi les internautes français), suivie de sa plateforme de messagerie Messenger, qui connait une augmentation significative du nombre d'utilisateurs actifs (44% vs. 40% en 2017). La suite du top 5 est composée quant à elle de YouTube (31%), WhatsApp (24%) et Instagram (20%)."


Par Antoine Chéron, Avocat associé, www.acbm-avocats.com 

Outre les aspects économiques et sociaux, l’intelligence artificielle suscite de nombreuses interrogations sur le plan juridique.

- Concernant la compétitivité :
 En premier lieu, on notera que le rapport suggère un assouplissement de la législation, à destination des start-ups notamment, afin d’inciter à la recherche et aux expérimentations.
Le rapport prône par exemple la facilitation des tests de logiciel d'intelligence artificielle grâce à la création de "zones franches de l'IA" sur lesquelles "un allègement drastique des formalités administratives du quotidien, des compléments de salaire conséquents et des aides pour l'amélioration de la qualité de vie" seraient proposés.
Il s’agirait donc de se libérer d’un cadre juridique et fiscal trop contraignant, qui décourage la recherche, freinant ainsi la compétitivité de la France.

- Concernant la protection des données personnelles : 
 Le rapport vise également à renforcer la confiance du citoyen dans l’utilisation de ses données, dans un contexte de suspicion. Il s’agirait de renforcer les législations existantes, en garantissant la  transparence et la loyauté dans l’utilisation des données par les algorithmes de l’intelligence artificielle.
On peut citer, à titre d’exemple, la loi pour une République Numérique qui impose à l’Administration d’être totalement transparente lorsqu’elle exécute des traitements algorithmiques.
La nouvelle législation européenne (GDPR) en matière de protection des données personnelles imposera à l’avenir une plus grande transparence si le traitement à vocation à traiter des données personnelles des individus.
 Il conviendra également  de se mettre en conformité au regard du nouveau principe de minimisation dans la collecte de données personnelles.
Le rapport a pour ambition d’aller plus loin dans l’échange de données au niveau national et intra Union européenne. Il préconise en revanche de restreindre les transferts de données hors Union européenne, dans l’optique de limiter la fuite des cerveaux.
Pour cela, il s’agit de faciliter le recours à l’open data, en incitant les entreprises publiques et privées à rendre leurs données publiques, via des plateformes de mutualisation entre le secteur public et le secteur privé.
En matière de santé par exemple, il s’agira de développer des bases de données, plateformes d’accès et d’échange d’informations pour faire avancer la recherche.

- Concernant la protection par les droits de propriété intellectuelle : 
L’intelligence artificielle vise également les enjeux du droit de la propriété intellectuelle, à travers notamment la question de la protection des algorithmes et de leur titularité.
On peut par exemple envisager le recours au secret professionnel, au secret de fabrique ou au droit d’auteur pour protéger sa solution d’intelligence artificielle.

- Concernant le régime de la responsabilité : 
L’une des grandes questions juridiques qui se pose au sujet de l’intelligence artificielle est celle de la détermination de la personne responsable en cas de litige.
Pour donner un exemple, si un robot agissant de manière autonome blesse quelqu’un ou provoque un dommage, qui est responsable ?
On a vu cette question se poser récemment aux Etats-Unis, avec les voitures autonomes qui ont été à l’origine de plusieurs accidents mortels.
Il n’existe pas aujourd’hui de régime juridique propre à l’intelligence artificielle, et aucun fondement juridique n’y apporte de réponse spécifique.
Il s’agit alors de rechercher dans les fondements juridiques préexistants de la responsabilité civile délictuelle des articles 1240 et suivants du Code civil.
La responsabilité civile impose que chacun doit répondre de ses actes. La question qui se pose avec l’intelligence artificielle est celle de la détermination de la personne responsable. Est-ce l’humain à l’origine de l’algorithme défaillant, ou bien le robot ?
Il convient de remarquer que contrairement à l’homme, le robot ne dispose pas de la personnalité juridique, ce qui interdit, selon la législation actuelle, toute possibilité d’indemnisation du dommage par le robot, celui-ci ne disposant pas d’un patrimoine.
Pourrait donc se poser à l’avenir la question de la consécration d’une personnalité juridique propre aux robots, bien que cette réflexion soit encore à ce stade purement théorique.
Le projet de réforme du droit de la responsabilité civile n’envisage d’ailleurs à aucun moment ces enjeux.

- Concernant le fonctionnement de la Justice:
Un autre enjeu juridique de l’intelligence artificielle réside dans la question de la justice prédictive. Peut-il y avoir des algorithmes prédictifs en matière de décisions de justice ?
Le Conseil d’Etat a fait remarquer que si l’intelligence artificielle promet certes des évolutions bénéfiques pour la qualité et l’efficacité de la justice, les progrès de la technologie ne doivent cependant pas masquer des risques pour l’office du juge et l’accès à la justice.
L’open data et la justice prédictive promettent des progrès dont nous devons nous saisir, mais dans le respect des principes fondamentaux de la justice.
Les juges doivent en effet conserver leur liberté d’appréciation et leur indépendance et l’utilisation des algorithmes doit être fondée sur les principes de neutralité et de transparence.



Emmanuel Macron a lancé ce jeudi 29 mars son plan Intelligence artificielle à partir du rapport sur le sujet remis la veille par le député et mathématicien Cédric Villani. Le président de la République veut faire de la France un leader européen et mondial de l'IA et a promis 1,5 milliard d'euros d'ici 2022.

Carole Delga, présidente de la Région Occitanie a salué les orientations du rapport Villani, notamment de l'annonce, par le président de la République de créer en France des instituts interdisciplinaires d'Intelligence Artificielle (IA) dont la vocation sera de fédérer chercheurs, ingénieurs et étudiants au sein d'établissements publics d'enseignement et de recherche.

 « Le rapport remis au gouvernement par la mission Villani, visant à « donner du sens à l'intelligence artificielle », apporte des perspectives importantes pour que la France prenne toute sa place sur ce sujet stratégique. La Région Occitanie / Pyrénées-Méditerranée, grâce à l'excellence de ses laboratoires de recherche, de ses formations supérieures et de son tissu industriel, est un acteur reconnu du Big Data et de l'Intelligence Artificielle. Nous sommes d'ailleurs la 1ère Région de France, et la 8ème en Europe, pour l'effort consacré à la R&D.
C'est la raison pour laquelle l'annonce du Président de la République de créer des instituts interdisciplinaires d'Intelligence Artificielle, est une réelle opportunité pour notre région, qui soutiendra les initiatives que ne manqueront pas de prendre les acteurs locaux. Avec un exceptionnel écosystème de l'innovation et de la recherche, notre région a tous les atouts et le potentiel pour accueillir sur son territoire une telle structure.
La Région a par ailleurs déjà engagé avec de nombreux partenaires du monde académique, économique et de la santé, des travaux pour constituer un Datapôle qui pourra être un point d'appui essentiel pour ce projet. Nous souhaitons être au rendez-vous pour contribuer au développement d'une Intelligence Artificielle éthique, respectueuse de la population et de l'environnement, en cohérence avec notre ambition de faire de notre région la première région à énergie positive d'ici 2050 ! », a déclaré Carole Delga. 



Au sein du cluster Robotics Place, les étudiants du CESI vont présenter leurs projets de création d'entreprises.
Les futurs ingénieurs en Systèmes Électriques, Électroniques Embarqués et Mécatroniques du CESI à Labège organisent une journée Conférence Recherche et Innovation.

La CRI est un événement qui fait la promotion des idées innovantes lors d'une journée ouverte au public le mercredi 4 avril 2018.
Elle rassemble différents acteurs de la recherche et de l'innovation de Toulouse, de grands groupes industriels ainsi que des porteurs de projets innovants, des start-up et des ingénieurs à la recherche d'un moment de partage entrepreneurial.
En complément des conférences prévues, de nombreux stands et activités sont proposés : impression 3D, programmation en réalité virtuelle ...

Rendez-vous mercredi 4 avril au Campus du CESI, 16 rue Magellan à Labège, de 8h30 à 20h00


Pour la première fois en Occitanie, le cluster DigitalPlace et BigUp For Startup se fédèrent pour créer et organiser, jeudi 17 mai 2018 à l’Espace Diagora à Labège, une journée inédite dédiée au business innovation.

Dans le cadre de l’Innovation IT Day, événement phare porté par DigitalPlace et soutenu par la Région Occitanie, le Sicoval, Toulouse Métropole, la French Tech Toulouse et la préfecture de Région, valorisant l’innovation numérique sous toutes ses formes, BigUp For Startup apportera le volet business innovant en accélérant la mise en relation entre les Grands Groupes et les Startup/PME innovantes.

Pour sa 2ème édition Occitanie, BigUp For Startup accueille les 12 grands groupes suivants : Actia, Banque Populaire, BVA, Credit Agricole, EDF, ENEDIS, GRDF, La Dépêche, La Poste, Orange, la SNCF et la société générale.

L'édition 2018 de l'Innovation IT Day apportera plusieurs nouveautés et notamment des espaces d'exposition mieux organisés en trois catégories :
– Les projets matures
– Les projets émergents
– Les offres d’appui à l’innovation

Olivier Ezratty sera speaker lors d’une Keynote exceptionnelle, lors de l’Innovation IT Day, qui abordera plusieurs thèmes :

  • Illustrer les dynamiques de l’innovation dans le numérique et monter le potentiel d’innovation à venir.
  • L’explication de l’articulation de l’innovation dans le numérique
  • Les apports des avancées technologiques dans la télécommunication
  • Monter quelques exemples d’innovation récents dans différents domaines.
  • Le déploiement des innovations
  • Proposition d’éléments méthodologiques pour l’amélioration de la capacité d’innovation des organisations.
Cette 5ème édition sera placée sous le thème de « l’humain au cœur de l’innovation technologique ».


Alors que Facebook est toujours embourbé dans le scandale Cambridge Analytica (les données de 50 millions d'utilisateurs indûment utilisées et ciblées pour de la communication politique en faveur de Donald Trump), la start-up SendinBlue, spécialisée dans le marketing relationnel, a sondé les Français à quelques mois de l’entrée en vigueur du Règlement Général européen sur la Protection des Données personnelles (RGPD).

40% sont inquiets
La majorité des Français se déclare concernée par la collecte et l’usage de leurs données personnelles. Près de la moitié (40%) affirme même s’en inquiéter tout particulièrement. Toutefois, cette crainte reste relative, puisqu’elle concerne principalement l’affichage de contenus comprenant des photos et des commentaires sur les réseaux sociaux : c’est le cas pour 88% des interviewés, 58% s’en disant même « très préoccupés » Les Français sont nettement moins inquiets quand la collecte de données personnelles se fait dans le cadre de l’envoi d’un email, l’achat d’un bien ou d’un service, la création d’un compte sur le site Web d’une marque ou encore pour échanger par messagerie instantanée. La recherche de renseignements spécifiques (pour un voyage, du shopping…) est l’action qui les inquiète le moins : seuls 28% des interviewés se disent très soucieux de l’usage de leurs données personnelles dans ce cas précis.

Une question de générations
Le rapport au données et à leur partage est toutefois très différent en fonction de lâge selon l'enquête. Ainsi, nativement digitale, la génération des 18/24 ans est, sans surprise, la moins frileuse sur l’éventuel usage qui pourrait être fait de ses données personnelles. Concernant leur navigation sur les réseaux sociaux, dont ils sont les premiers utilisateurs, les millénials sont à peine 1 sur 2 à s’en préoccuper (45%). Il en va de même pour l’ensemble des actions réalisées sur Internet, où ils sont globalement toujours en deçà des autres catégories d’âge. A contrario, les 65 ans et plus, moins familiers avec ce média, expriment une forte inquiétude (64%) quant à la confidentialité des informations qu’ils transmettent en ligne.
Quant aux 35/49 ans, ils s’avèrent les plus soucieux du devenir de leurs données personnelles, lorsqu’ils achètent un bien ou un service (billets de spectacle, vêtements…). Un résultat qui s’explique sans doute par leur pouvoir d’achat plus élevé et donc une propension plus forte à utiliser Internet pour cet usage.