Réunion de wikipédiens en Finlande pour mettre à jour des fiches. Teemu Perhiö/Flickr, CC BY-SA
Par Alexandre Hocquet, Université de Lorraine


Wikipédia est (ou devrait être) un objet extraordinaire à enseigner : tout le monde connaît Wikipédia, et presque tout le monde le connaît mal. Cela devrait être la situation idéale pour un enseignant : intéresser les étudiants avec quelque chose qu’ils connaissent, les surprendre en leur montrant qu’ils peuvent y découvrir beaucoup de choses.
Je propose un cours à toutes les formations et tous les niveaux : la découverte de Wikipédia touche à des compétences transversales et peut être fructueuse de la première année de licence jusqu'au doctorat. Malheureusement, mes propositions restent souvent lettre morte auprès des collègues qui font les maquettes pédagogiques.


Apprendre, analyser, tester… Sean MacEntee / Flickr, CC BY

Un des principaux malentendus est que « enseigner Wikipédia » est vu par les collègues comme une formation courte : au mieux « apprendre à l’utiliser », au pire « apprendre à s’en méfier ». Pourtant, il y a dans Wikipédia de quoi apprendre pendant tout un semestre.
Tout d’abord, plonger dans Wikipédia demande de s’y faire petit à petit. Surtout, Wikipédia est un objet d’étude pertinent pour de nombreux aspects, pour moi qui voudrait enseigner mon domaine de recherche : les STS, ou, dit autrement, les relations entre sciences et sociétés.

Laboratoire d'analyse critique

L’enseignement de l’analyse critique est à la mode en ce moment, particulièrement dans l’injonction ministérielle à se méfier « des théories du complot », à peine différente de l’injonction ministérielle à se méfier « d’Internet ». Pour l’école, pour l’université et pour la presse, ce qui vient d’Internet est suspect a priori et Wikipédia est le « usual suspect » dans les entreprises de décrédibilisation de la part de ces trois institutions. Pourtant Wikipédia est un laboratoire très intéressant pour tester une « analyse critique des médias ».
Plonger dans Wikipédia permet de se mettre à l’épreuve d’une communauté de pairs plutôt que d’une voix magistrale. Intervenir dans Wikipédia, c’est soumettre sa production (ou tout simplement son avis) aux mécanismes de recherche de consensus, de la vérifiabilité, de la neutralité de point de vue (des notions wikipédiennes qui elles-mêmes demandent à être déconstruites mais cela s'apprend en plongeant dedans).

Ces notions épistémologiques ne sont pas seulement celles d’un mode de production de connaissance bien particulier, elles sont aussi liées (et se façonnent mutuellement) avec l’infrastructure technique et logicielle de Wikipédia (qu’est ce que le wiki et d’où vient-il ? Que sont les bots et comment travaillent-ils ?), l’infrastructure juridique et politique (quel est le rôle de la Wikimedia Foundation, en quoi la production est elle liée aux licences ?).

Enseigner le bien commun

Les licences utilisées dans Wikipédia, et Wikipédia elle-même, sont aussi un projet politique lié au monde du libre, aux « creative commons », et plus généralement aux « biens communs ». Enseigner Wikipédia c’est aussi enseigner un projet politique particulier et nouveau : c’est le seul « bien commun » à avoir réussi à exister à grande échelle. Les politiques du libre ne sont pas seulement un projet, ce sont aussi une mise en oeuvre, dans lesquelles la notion de forking est primordiale (le forking, en tant qu’action politique, est l’équivalent d’un schisme en religion; à la fois une garantie de démocratie et une menace de division).


Wikipedia, un bien à partager. cea+ / Flickr, CC BY

De manière plus générale, Wikipédia est un des rares exemples à grande échelle d’un projet qui se veut « Open » et qui est obligé chaque jour par la pratique de définir ce qui est « Open » et ce qui ne l’est pas, parfois avec violence. L'Open est un concept flou. Au delà d’un washing politique ou d’une vision militante, définir ce qu'est l'Open en pratique est malaisé. Wikipédia est donc une étude de cas essentielle pour comprendre les « politiques de l’Open ».
Enfin, Wikipédia est aussi une communauté et ce projet politique est aussi un projet d’organisation communautaire par les principes, les règles, les protocoles et la technique. L’organisation des débats, les règles de recherche de consensus, les procédures de vote s’y inventent. Wikipédia est une excellente étude de cas pour enseigner la « culture numérique » par l’exemple.
Wikipédia permet de comprendre des projets techniques, des projets politiques, des projets épistémologiques liés au monde du libre, au monde du software, au monde des « algorithmes » et transpose ces notions dans un monde accessible au grand public. En ce sens, j’ai la conviction que, pour comprendre ce monde, pour acquérir une « littératie numérique », il est plus utile de plonger dans les entrailles de Wikipédia que « d’apprendre à coder ».

Politique, technique et sociologie

Mon but est de parvenir à faire partager ma vision distanciée mais pas complètement de Wikipédia, faire toucher du doigt comment Wikipédia est un monde avec des aspects techniques, des aspects politiques, des aspects sociologiques, démocratiques, juridiques, épistémologiques uniques et surtout complètement entremêlés les uns aux autres. Je le fais en racontant des anecdotes.


Wikipédia, tout un monde. Esther Vargas / Flickr, CC BY-SA

Ces anecdotes ont pour but de révéler ces enchevêtrements en racontant une histoire. Elles sont censées surprendre sur un sujet que tout le monde connaît mais que personne ne connaît ET révéler les tensions et interpénétrations de tous ces thèmes. Elles servent aussi à provoquer des questions-réponses, particulièrement si l’anecdote a, ou a eu, un succès médiatique ou si elle a été relatée dans la presse.

Par exemple, quand est abordée la question de l’ajout de photos, les principes de wikimedia commons, et/ou les règles du copyvio, l’anecdote du selfie du macaque met en lumière ces sujets, leur enchevêtrement, et leurs implications à la fois juridiques, techniques, procédurales, et de choix de licence, tout en traitant du militantisme du copyleft. L’anecdote est donc tout sauf futile : elle met en lumière cette complexité.
En dehors de la structure universitaire, une équipe de wikipédiens a créé un Massive Online Open Course qui a pour but de faire découvrir Wikipédia et d'apprendre à y contribuer. Il est pédagogiquement très réussi, beaucoup mieux que de nombreux MOOCs réalisés par des professionnels. Le but de ce MOOC, évidemment sous licence libre, est d'être réutilisable, modulable, modifiable pour pouvoir être enseigné dans différents cursus universitaires.
Il reste beaucoup de choses à faire pour rendre l’Université et l’enseignement de Wikipédia compatibles, mais de plus en plus de gens s’y mettent… et en débattent.The Conversation


Apprendre à contribuer sur Wikipédia.

Alexandre Hocquet, Professeur des Universités en Histoire des Sciences, Visiting fellow at the Science History Institute, Université de Lorraine
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
AirbusCyberSecurity


La France continue de muscler la sécurité des opérateurs d'importance vitale (OIV), c'est-à-dire des organisations identifiées par l'État comme ayant des activités indispensables ou dangereuses pour la population. On en compte actuellement 250 dans 12 secteurs d'activité (activités civiles, militaires, santé, énergie, transports, télécommunications, etc.). Pour faire face aux nouvelles cybermenaces, l'article 22 de la loi de programmation militaire, qui fait suite aux préconisations du Livre blanc sur la défense et la sécurité nationale de 2013, a imposé aux OIV le renforcement de la sécurité des systèmes d'information critiques qu'ils exploitent.

La France est ainsi le premier pays à être passé par la réglementation pour mettre en place un dispositif efficace et obligatoire de cybersécurité de ces infrastructures critiques.

C'est dans ce contexte que Thales et Airbus CyberSecurity, leaders européens des systèmes d'information critiques et de la cybersécurité, viennent de s'associer pour accompagner les OIV dans la lutte contre les cyberattaques.

Une solution unique pour détecter les virus

Les deux sociétés vont proposer une solution unique associant le système d'analyse de fichiers Orion Malware d'Airbus CyberSecurity et la sonde de détection d'intrusions Cybels Sensor de Thales. Cette dernière a reçu en avril 2019 le visa de sécurité de l'Agence nationale de la sécurité des systèmes d'information (ANSSI) pour sa qualification élémentaire.

La sonde de Thales, déjà active chez de nombreux clients (la Poste, Galileo) est capable d'analyser de grands volumes de données. Les fichiers suspects capturés sur un réseau par la sonde sont ensuite analysés de façon approfondie en moins d'une minute par Orion Malware, qui fait appel à de l'intelligence artificielle pour améliorer la classification des virus détectés. Le rapport clair qui en découle, accessible aux non-experts, permet ensuite d'apporter les bonnes réponses aux cyberattaques.
vtc


Par Théodore Monzies, co-fondateur de Eurecab, plateforme de réservations de VTC

Unanimement reconnues par les clients pour leur efficacité, souvent décriées par les livreurs ou les chauffeurs pour leur manque d’humanité, les plateformes numériques de services ne laissent pas indifférentes. Qu’il s’agisse des livreurs Déliveroo ou des chauffeurs Uber, des dizaines de milliers de personnes travaillent désormais pour ces entités en France. Dans le monde, ils sont des millions.

Il y a quelques jours, un séisme a ébranlé ce petit monde. L’Etat de Californie a adopté une loi obligeant les entreprises Uber et Lyft à traiter leurs chauffeurs non plus comme des indépendants, mais comme des employés . Il y a quelque chose de troublant dans cette décision. Non pas que l’on se soucie de la condition des chauffeurs, mais plutôt que l’on puisse se contenter de penser qu’il y aurait seulement deux voies possibles : d’un côté le salariat et la protection des chauffeurs, de l’autre le statu quo et leur exploitation à outrance. Car aucune de ces deux voies n’offre un futur satisfaisant.

La première – le salariat- n’est tout simplement pas adaptée à l’économie des services à la demande. Dans le transport de personnes par exemple, les variations de demande, de temps de trajet, sont tellement fortes et imprévisibles qu’organiser un planning de chauffeurs relève du cauchemar. Deux sociétés ont essayé ce modèle : Navendis et Voitures Jaunes. Aucune d’entre elles n’est encore en vie aujourd’hui.

La seconde option -le statu quo- n’est pas non plus envisageable. La décision de l’Etat de Californie est révélatrice d’un malaise plus profond qui touche les travailleurs œuvrant sur ces plateformes. Ce malaise tient au décalage entre le discours commercial vantant l’indépendance et la réalité. Comment en effet affirmer que les travailleurs des plateformes sont indépendants alors que par exemple ils subissent des baisses de rémunération décidées unilatéralement ? Tant que ce décalage ne sera pas réduit, le modèle actuel des plateformes sera attaqué et alimentera le fantasme d’une humanité gouvernée par les algorithmes.

Il est donc nécessaire qu’il y ait un rééquilibrage du rapport de forces entre les plateformes et leurs travailleurs. Ce rééquilibrage doit provenir des plateformes elles même et non du régulateur. En effet, ce serait courir le risque d’une réglementation soit constamment en retard d’un temps par rapport à des évolutions techniques beaucoup trop rapides, soit trop contraignante -par exemple salarier tous les chauffeurs.

Aux plateformes donc de se réinventer pour être à la hauteur des attentes de la société. La tâche est difficile mais pas impossible : il faut rendre aux travailleurs des plateformes leur indépendance, leur permettre d’opérer comme de vrais entrepreneurs mais sans pour autant dégrader la qualité et la compétitivité du service offert aux client. Pour cela, une seule solution : la plateforme doit se positionner non plus comme un intermédiaire opaque qui décide de tout, mais comme un facilitateur qui crée les conditions afin qu’offre et demande puissent se rencontrer.


hacker


A l’occasion du du mois européen de la cybersécurité et alors que se déroulent les Assises de la Sécurité (du 9 au 12 octobre 2019), le cabinet Wavestone dévoile le panorama de son benchmark dédié aux incidents en matière de cybersécurité.

Pour cela, le cabinet a passé en revue les interventions de son équipe de gestion de crise cybersécurité, le CERT-W, entre septembre 2018 et août 2019. "Cela constitue une quarantaine d’incidents de sécurité majeurs ayant mené à l’interruption d’activités métiers ou une compromission avancée de systèmes d’intervention et ce, dans des secteurs diversifiés : industrie, secteur public, agroalimentaire, technologies de l’information, finance, etc. L’enjeu de ce benchmark est d’éclairer les organisations et plus globalement la société sur l’état de la menace cyber en France et de partager les clés pour une meilleure anticipation et gestion des risques, au travers de retours d’expérience concrets", explique le cabinet.

Motivation première : l'appât du gain

Pour 43% des attaquants, la motivation première reste les gains financiers. Ces attaques sont issues de ransomwares (virus bloquant les ordinateurs et demandant une rançon) pour la majorité des réponses des incidents analysés (36%), suivies des actions frauduleuses (7%).

Le vol de données

La deuxième motivation des attaquants est le vol de données, tant métiers que techniques. Cela représente 34% des attaques analysées. 4% des attaques visent à nuire à l’image de l’entreprise via de la défiguration de sites web, le vol de comptes sur les réseaux, etc. et 4% des compromissions visent à gagner en nouvelles capacité d’attaque : contournement des mécanismes de sécurité, attaques sur des partenaires de confiance, écoute illicite du réseau, etc.

167 jours entre une intrusion et sa détection 

La moitié des organisations figurant dans ce benchmark sont parvenues à détecter l’intrusion dans les deux jours après le commencement de l’attaque. Cela démontre une forte capacité en détection, qui leur a permis de réagir rapidement et d’optimiser leur chance de stopper un effet domino qui aurait amené à la compromission de l’Active Directory, le cœur du Système d’Information. 35% des entreprises n’ont pas réussi à le détecter dans les 6 à 9 mois.

En croisant ce constat avec les méthodes de détection, le constat est plus inquiétant encore : seulement 26% des incidents de sécurité sont identifiés par le service de détection cybersécurité de l’entreprise. Dans 44% des cas, ce sont les collaborateurs qui ont alertés directement.

Plus de 50% des attaquants ne présentent pas de compétences techniques avancées

La majorité des cyber-attaquants sont opportunistes (65%), ils ne relèvent pas d’un haut niveau de technicité ou ne visent pas une organisation en particulier. Ils cherchent et abusent des systèmes peu protégés et facilement attaquables. Ces attaques pourraient être évitées si les mesures de sécurité étaient situées au-dessus de la moyenne.

30% des attaques gérées ciblent spécifiquement une organisation. Elles visent des informations sensibles et précises au sein de l’organisation. Les attaquants sont mandatés avec un objectif clair et mettent ainsi tous les moyens à disposition pour arriver à leurs fins.

Enfin, 5% des attaques sont considérées comme « diffuses » : celles-ci correspondent aux habituelles infections virales ou encore au spam. Elles ne visent pas une organisation particulière et ont un effet limité sur le SI (de type déni de service, perte de données utilisateurs, etc.). Cela permet d’estimer au mieux le niveau de compétences techniques des attaquants.

Toujours les mêmes portes d’entrée...


  • Dans la majorité des cas (1 cas sur 3), l’attaquant a exploité une application web vulnérable, ce qui met en relief un chiffre alarmant issu d’une précédente étude de Wavestone : 100% des applications web sont vulnérables… ce sont autant de portes d’entrées facilement accessibles.
  • Pour 1 cas sur 10, l’attaquant s’est infiltré dans le système d’information en exploitant un service RDP exposé sur Internet (mécanisme standard permettant l’accès à distance à des systèmes informatiques).
  • Enfin, pour 1 cas sur 10, l’attaquant s’est infiltré dans le système d’information par un spear-phishing (phishing ciblé visant une entreprise spécifique ou un groupe d’utilisateurs particuliers).

Pour 20% des cas, l’identification du vecteur d’intrusion a été vaine : manque de traces techniques, destruction ou le décommissionnement des systèmes, manque de ressources locales pour mener à bien les actions d’investigation, …

Au moins 6 semaines sont nécessaires pour une reconstruction saine

Le temps nécessaire pour revenir à une situation technique normale dépend de la taille de l’entreprise, de son niveau de maturité en matière de cyber-résilience mais également et fortement du type d’attaque auquel elle est confrontée :

A 1 semaine la durée de retour à la normale pour un ransomware dit « simple » ;
A 3,5 semaines la durée de retour à une situation correcte pour une attaque ou un ransomworm ayant détruit une partie importante du système d’information;
A minima 6 semaines pour une reconstruction saine du SI. Cela induit la reconstruction du cœur de confiance du système d’information pour bascule vers un nouvel environnement sain mais également le nettoyage et la réimportation des données métiers créés pendant la crise.
Ces semaines de reconstruction ont, pour la plupart des cas, un impact fort sur l’activité de l’entreprise et ainsi sur son chiffre d’affaire.
code


David Bégasse, Animateur de l’équipe d’architecture et d’expertise en Web Technologies chez SII

Apprentissage du code sur les bancs de l’école, formations pour adulte à marche forcée, essor de plateformes « no code » ou encore intelligence artificielle : jamais le monde du développement en 2019 n’avait semblé autant à portée de clic des entreprises. La quatrième révolution industrielle semble avoir fait davantage que descendre le code de son piédestal : elle permet à tout un chacun de créer plus rapidement des applications métiers basiques. Alors forcément, face à une pénurie de développeurs sur le marché du travail, on est en droit de se demander : demain tout le monde sera t-il développeur ? Le métier du développement est-il progressivement en train de disparaître … ou bien seulement en train de muter ?

Le code à portée de clic


En une dizaine d’années, l’informatique a connu des mutations très profondes. En pleine transition digitale, les grandes entreprises ont dû coller aux besoins de leur clientèle, parfois plus vite que ce que l’informatique était capable de produire : pénurie de développeurs, manque de compétences sur des technologies fraichement débarquées, etc. Pour gagner en productivité et rester dans le wagon de tête, l’idée de limiter les coûts de production pour intégrer des solutions clés en main, sans beaucoup de technicité et donc de code, fit rapidement son chemin.
Sur ce point précis, l’arrivée de l’intelligence artificielle a justement été un raz-de-marée technologique. En 10 ans, elle a pu faire émerger tout un lot de plateformes : « no code » (sans code), « low code » (avec peu de code) ou encore « sketch to code » (dessiner pour coder). Celles-ci ont permis à des salariés qui n’étaient pas des experts techniques de mettre rapidement en place dans une entreprise des applications simples sans l’aide de développeurs. Ces outils peuvent déployer des applications quatre fois plus rapidement qu’un développeur traditionnel. Ils ont démocratisé l’accès au code dans le monde du travail et ont fait muter les métiers du développement.

Les développeurs en mutation


Si la démocratisation du code est certaine, le métier de développeur n’est pas pour autant menacé d’extinction. En revanche, il ne se limitera plus à une simple activité de codeur. L’IA le génère mieux que lui. Somme toute, le débat est le même qu’on trouve dans la sphère publique sur l’évolution des métiers du digital. Les tâches exécutives seront délaissées au profit de missions à plus haute valeur ajoutée. Si l’IA assure les tâches basiques de développement, place au développeur de devenir son superviseur, son orchestrateur. En bref, un chef de projet du code qui puisse gérer les algorithmes… qui génèrent du code.
Par ailleurs, on observe que le marché est surtout en voie de segmentation. Le mythe du développeur « full stack » ne trompe plus personne. Avec de nouveaux langages de programmation qui tombent tous les 6 mois, il est illusoire de croire qu’un développeur puisse tous les maîtriser. Le temps de l’informaticien des années 70 qui maîtrisait la chaîne de A à Z est aujourd’hui révolu. En 2019 un développeur se spécialise sur certains segments informatiques. En ce moment même, certains s’orientent justement vers les plateformes low code en faisant un pari sur l’avenir pour venir former une toute nouvelle génération de développeurs.
Sur des besoins spécialisés, il faudra faire appel à un développeur. En effet, ces plateformes ne peuvent couvrir tous les besoins informatiques.  Elles brident la liberté et la créativité des projets alors que les entreprises souhaitent en garder la maîtrise de A à Z.
L’intelligence artificielle a favorisé l’émergence de plateformes « no code »  qui ont démocratisé les métiers du développement. A l’avenir, nous ne serons pas pas tous développeurs. Mais nous serons tous des artisans du code capables de concevoir nos propres applications avec le support de machines… qu’il faudra bien pouvoir coder… grâce aux développeurs.


Après Free et SFR, il était temps pour Orange de mettre à jour sa Livebox. C'est désormais chose faite avec la présentation, ce mercredi de la Livebox 5 conçue avec une empreinte carbone réduite et des débits doublés.

Davantage de débit

La Livebox 5 est désormais plus simple à installer car elle nécessite moins de câbles, n’ayant plus besoin du boîtier fibre (ONT) qui s'intercalait entre la prise et la box. La nouvelle Livebox 5 apporte un débit jusqu’à 2Gbit/s partagés en sens descendant et jusqu’à 600Mbit/s en sens montant. Le débit descendant a de son côté été doublé et permet des usages simultanés pour tous les équipements du foyer en offrant jusqu’à 1Gbit/s par équipement. Ces débits augmentés permettent de profiter des nouveaux usages comme regarder des vidéos en streaming en haute qualité.

Un nouveau Wifi

Autre point d'amélioration, la couverture du Wifi. La nouvelle Livebox est équipée d'un "Wifi intelligent" mais qui reste un Wifi 5 alors que la nouvelle norme Wifi 6 vient de sortir... Ce wifi selon Orange, "réduit les perturbations générées par le Wifi des voisins en sélectionnant automatiquement la meilleure fréquence et le meilleur canal de la box. Les tests ont permis de montrer une amélioration de 40% des débits descendants (en comparaison avec le Wifi des Livebox non équipées)", explique Orange. 
Par ailleurs, pour une meilleure couverture de grands appartements ou des maisons, un répéteur Wifi est mis à disposition gratuitement sur demande avec les offres Livebox Up et Packs Open Up.


Une Livebox plus verte

La nouvelle box est également plus verte. "À chaque génération de Livebox, Orange cherche à progresser dans la réduction de l’impact carbone de ses équipements. Chaque année, ce sont 2,7 millions de Livebox qui sont réemployées, et 100% des box restituées qui sont recyclées", explique l'opérateur en préambule. 
"Dans la continuité des démarches entreprises avec la Livebox 4 et le décodeur TV UHD, Orange a travaillé avec son écosystème de partenaires pour améliorer la production et diminuer de 29% l’empreinte carbone de la nouvelle Livebox 5", assure Orange.
La nouvelle box dispose ainsi d'une coque 100% en plastique recyclé, d'une fabrication plus légère et plus compacte, de moins de composants électroniques et d'un nouveau design permettant une ventilation passive, sans ventilateur.
« De ses fonctionnalités aux composants et matériaux utilisés, notre nouvelle Livebox a été conçue pour offrir le meilleur du réseau tout en réduisant son impact environnemental. Orange est particulièrement fier de lancer aujourd’hui un produit qui répond à la fois à notre exigence de qualité des services proposés à nos clients et à notre exigence de responsabilité environnementale » précise Fabienne Dulac, Directrice Exécutive d’Orange France. 
La nouvelle Livebox est disponible dans l’offre Livebox Up Fibre (à partir de 30,99€/mois pendant 12 mois puis 49,99€/mois) et l'offre Packs Open Up Fibre (à partir de 28,99€/mois pendant 12 mois puis 52,99€/mois).

computer


Par Christian Dhinaut, Directeur Stratégie Produits CRM Divalto

Boosté par la demande des entreprises et les évolutions technologiques, le marché du CRM (Customer Relationship Management ou la gestion de la relation client) est en pleine croissance et évolue à toute vitesse. En 2018 par exemple, il représentait 48,2 milliards de dollars de chiffre d'affaires selon Gartner* et devrait atteindre 1 065 millions d'euros en 2021, devenant ainsi le principal poste de dépense des entreprises en matière de logiciels. Pourquoi ? Grâce à de nouvelles tendances dont la percée est inévitable et l'intégration indispensable : l'intelligence artificielle, les objets connectés, le CRM mobile ainsi que l'hyperpersonnalisation.

Ainsi, par bien des aspects, le digital a révolutionné les processus d'entreprise, y compris au sein de la Gestion de la Relation Clients. Aujourd'hui, pour mener à bien la transition des entreprises dans le domaine du CRM, il est nécessaire de bien comprendre les enjeux de l'adoption de ce type de solutions et de la mettre en place intelligemment. Objectif : faciliter par la suite l'intégration des nouvelles innovations technologiques avec lesquelles il faudra compter.

Réussir son projet CRM en 4 points clés !

Point 1 - Adopter une démarche globale centrée sur le « parcours client »


Un outil non exclusif aux commerciaux & des bénéfices pour tous les services
Une des idées reçues sur les CRM est que seuls les employés travaillant au service vente d'une entreprise sont concernés par les logiciels de Customer Relationship Management. Or, il est important pour tous les collaborateurs d'une entreprise de penser au développement de la relation clients. Bien évidemment, les services marketing seraient les premiers de la chaîne de développement à devoir s'équiper de ces applications logicielles mais les acteurs de la logistique et de l'ingénierie devraient également être sensibilisés. Impliquer les collaborateurs de tous les services dans le processus de mise en place d'une solution CRM permet d'optimiser son utilisation et son efficacité dans les stratégies à long terme.
Un outil pluridisciplinaire pour une meilleure compréhension du client
Attention également à ne pas négliger l'aspect « parcours client » dans le développement d'une entreprise du XXIème siècle. Les entreprises qui ont fait succès ces dernières années sont celles qui ont misé sur une stratégie cross-canal ou omnicanal : soit répondre de façon personnalisée aux questions des acheteurs potentiels ou fidèles via tous les canaux numériques et traditionnels. Il s'agit ici de se démarquer auprès d'acheteurs constamment sollicités par la concurrence. Et si l'omniprésence des logiciels CRM est bien établie dans le BtoC, comme peuvent en témoigner le succès des TUNA (Tesla, Uber, Netflix et Airbnb), le secteur du BtoB est loin derrière. L'intérêt pour les entreprises BtoB est donc de se positionner au plus vite afin de bénéficier du statut de précurseur dans le domaine tout en optimisant leurs relations clients.
Les avantages d'établir une démarche « parcours clients »
Le processus d'implémentation d'un logiciel CRM dans une entreprise sera d'autant plus réussi s'il s'appuie sur cette démarche globale du développement de « parcours clients ». Cette dernière a d'ailleurs de multiples avantages dans la compréhension globale des comportements des acheteurs. Notamment, une meilleure compréhension du parcours achat, surtout à cette époque de l'ère digitale où les acheteurs potentiels ont accès à tous types de renseignement grâce à Internet. Ces processus peuvent également permettre d'appréhender et de réduire les obstacles entre la première prise de contact et l'acte d'achat, d'améliorer l'expérience client et de le fidéliser. Enfin, une entreprise qui a réussi dans sa démarche centrée sur le « parcours clients » pourra faire de ses acheteurs fidèles de véritables ambassadeurs de la marque.

Point 2 - Sensibiliser l'organisation à la pratique du CRM


D'après une enquête du cabinet ACEMIS parue en 2016 sur les causes d'échecs de mise en place de CRM en entreprise, il ressort que le premier frein majeur à l'usage des CRM est la difficulté pour les utilisateurs à l'adopter. Face à un logiciel impliquant nécessairement de grands changements dans leurs habitudes de travail, l'entreprise se doit alors de mettre en place une véritable communication autour du projet pour affirmer sa nécessité et son intérêt dans sa transformation digitale.
Un processus d'implication des collaborateurs nécessaire
Impliquer les collaborateurs dans le processus de développement de la solution est un bon moyen de leur faire accepter ces changements majeurs, en leur demandant par exemple de valider le paramétrage des données, de l'interface et des règles d'utilisation. Il est également vital à la pérennité du projet de consacrer une partie du budget à la formation des équipes ; une adoption rapide du logiciel rentabilisera bien plus vite l'investissement.
En dernier lieu, après implémentation de la solution CRM, il convient de vérifier qu'elle est correctement et intégralement utilisée par les différents services de Gestion de la Relation Clients en effectuant un suivi régulier.

Point 3 - Structurer les données clients et valider l'intégration du SI


Assurer la qualité et la fiabilité des données
Si la difficile adoption des logiciels de CRM est le premier frein pour établir une solution CRM pérenne, assurer la qualité des données enregistrées est le second. L'un des points clés de l'intégration d'une solution CRM réussie est de récupérer les données précédemment traitées sous d'autres formes et de les intégrer au nouveau système CRM. Un nettoyage des bases de données récupérées est fortement préconisé à ce stade, ainsi qu'un enrichissement à partir de sources externes. Une donnée saisie (entreprise, activité, intérêts, contact, ...) étant rapidement obsolète, il faut s'assurer de sa mise à jour régulière.
Un découpage des tâches et une attribution des rôles au sein de l'entreprise peut également aider à un meilleur développement de la solution. Par exemple, définir clairement qui sera concerné par tel type de données permet une organisation plus fluide et surtout d'assurer que les données seront attribuées aux spécialistes en la matière. Il convient de mettre en place des KPI concernant la qualité et la complétude de la base de données : savoir si tous les champs utiles sont bien remplis et s'ils sont à jour. A titre d'exemple, si le décideur ciblé chez le prospect est le directeur financier il faut que les champs relatifs à ce profil soient complétés. Cela permet d'enrichir sa connaissance client et ses capacités de ciblage et segmentation.
Intégrer le logiciel CRM au système d'informations existant
Il s'agit également d'implémenter le CRM dans le S.I, notamment de le connecter au logiciel ERP et au formulaire de prise de contacts sur le site web de l'entreprise. L'un des enjeux de la mise en place d'une telle solution de Gestion de la Relation Clients est donc de veiller à ce qu'elle puisse s'intégrer aux logiciels déjà utilisés dans l'entreprise (agenda, messagerie, etc.). Au lieu de créer un tout nouveau logiciel qui viendrait s'ajouter aux autres, il s'agit de développer une solution qui se connecte à l'ensemble des outils déjà en place. Avant tout choix de CRM, il sera ainsi nécessaire de faire valider par des équipes techniques les possibilités d'interfaçage de la solution (API, webservices, webhook, etc.)

Point 4 - Choisir un CRM adapté aux besoins de l'entreprise

Un logiciel adapté aux principaux utilisateurs
La réussite d'un projet CRM repose évidemment sur le choix d'un logiciel adapté aux besoins de l'entreprise. Il s'agit d'identifier les besoins de l'entreprise en établissant un cahier des charges qui répondra à des questions du type :  Qui utilisera la solution ? Ce CRM convient-il au business model de l'entreprise (actuel et futur) ? Après avoir répondu à ces quelques questions, l'entreprise concernée peut effectuer un premier tour de marché et sélectionner les outils susceptibles de répondre à ses besoins. A ce stade, il ne faut pas hésiter à mettre en place un environnement de test ou POC (Proof Of Concept) pour valider la réponse aux besoins avec les utilisateurs cibles.
La solution se doit d'être personnalisable au type d'activité de l'entreprise. L'outil idéal doit être suffisamment souple pour s'adapter aux besoins spécifiques des équipes opérationnelles (force de vente, marketing, service clients, finances, ...)
Une solution pour chaque business model
Il convient de se doter d'un outil qui pilote le business model de l'entreprise à la fois par le traitement de tous les canaux de vente, et la mise en place d'outils reporting et analytiques.
computer


Par Chris Huff, Directeur de la stratégie chez Kofax

Une image contenant homme, personne, complet, murDescription générée avec un niveau de confiance très élevéL'automatisation robotisée des processus (RPA) est un sujet d'actualité de nos jours et, à juste titre, un point d'intérêt dans de nombreuses initiatives de transformation numérique. En fait, la quête pour trouver le fournisseur de l'outil RPA qui possède le plus de gadgets et de widgets est devenue une sorte de « combat de rue ». Mais ceux qui se focalisent sur ce niveau tactique peuvent perdre la vue d'ensemble. Pour vraiment aller de l'avant avec les initiatives de transformation numérique et résoudre un plus large éventail de problèmes de gestion avec l'automatisation, les entreprises recherchent de plus en plus les capacités d'une plate-forme d'automatisation qui leur permet d'optimiser leurs opérations de bout en bout.

Bien qu'il puisse sembler au départ décourageant de déployer une plate-forme pour des opérations de bout en bout, les professionnels IT peuvent suivre un processus en trois étapes pour structurer leurs initiatives en vue de la transformation numérique de leur entreprise.

Étape 1 : Comprendre où on en est aujourd'hui

La transformation numérique commence par l'évaluation de l'état de préparation opérationnelle du point de vue de la technologie et des processus. L'informatique joue un rôle indispensable pour faire en sorte que les technologies de transformation, telles que l'automatisation, s'intègrent dans le cadre informatique plus large. Le groupe IT établira également des lignes directrices pour la gestion et la sécurité de l'environnement technologique.

Parallèlement à la participation des services informatiques, il est important d'impliquer des parties prenantes plus fonctionnelles dans l'ensemble de l'entreprise pour évaluer dans quelle mesure leurs processus sont bien documentés. L'automatisation est plus puissante lorsqu'elle est déployée sur des processus bien définis et qui fonctionnent déjà correctement ; son ROI peut être plus complexe lorsqu'elle est déployée sur des processus fragmentés ou sans documentation. En d'autres termes, il faut d'abord optimiser et ensuite automatiser pour obtenir les meilleurs résultats.

Étape 2 : Établir une analyse de rentabilisation pour l'automatisation et adopter une « approche plate-forme » dès le premier jour


Après avoir effectué les évaluations de « l'état de préparation opérationnelle » ci-dessus, il est important d'établir une analyse de rentabilisation qui établit clairement les liens entre l'automatisation et les objectifs de l'entreprise en termes stratégiques, de gestion d'effectifs, de gains opérationnels et financiers. Avec une telle analyse de retour sur investissement, tous les cas d'utilisation possibles devraient être classés en fonction de leur potentiel pour l'entreprise. Une organisation qui effectue ce travail dès le départ est plus en mesure de déterminer quelles technologies d'automatisation sont nécessaires pour résoudre les problèmes opérationnels qui leurs sont propres. Plus précisément, ces problèmes peuvent aller de l'amélioration de la façon dont l'information est saisie et extraite jusqu'à des actions précises dans les systèmes et applications en aval.

Après avoir pris des mesures pour harmoniser les cas d'utilisation qui génèrent un retour sur investissement, ainsi que les technologies requises pour les automatiser, une organisation peut passer à la conception de solutions d'automatisation au sein de la plate-forme. Un tel groupe de technologies qui automatise les processus d'affaires de bout en bout crée une valeur significative pour une organisation lorsqu'elles sont regroupées et intégrées dans une plate-forme. Ces technologies comprennent :


  • Capture cognitive : Intégrer depuis n'importe quel canal et comprendre n'importe quel document pour en extraire l'information pertinente.
  • Orchestration des processus : Intégrer les personnes, les technologies d'automatisation, les systèmes, les applications, etc. le long d'un flux de travail plus large d'une manière intuitive pour l'utilisateur métier.
  • Mobilité et engagement : Engager les clients de manière efficiente par le biais d'Internet ou d'appareils mobiles.
  • Analyses avancées : Fournir un aperçu axé sur les données en fonction des résultats obtenus grâce à l'automatisation.
  • Intelligence Artificielle : Automatiser la prise de décision complexe et personnaliser le service aux utilisateurs finaux.


Une approche de plate-forme intégrée évite aux employés d'avoir à apprendre des solutions multiples et à l'équipe d'approvisionnement d'avoir à gérer une panoplie de solutions des fournisseurs. Ainsi, en adoptant une plate-forme intégrée, les professionnels de l'informatique augmentent la capacité de leur organisation à réduire les coûts, le time-to-value et la complexité, tout en maximisant la satisfaction des clients et des employés.

Selon le cabinet d'analyse HFS, la RPA est un très bon remède pour des problèmes ponctuels, mais ne fournit pas de réponse à long terme. « C'est l'automatisation intégrée qui permet de transformer l'entreprise et d'obtenir une expérience digitale de bout en bout. »

Étape 3 : Créer un centre d'excellence


Il est important pour les entreprises de créer un modèle d'exploitation autour de l'automatisation qui s'adapte à leurs activités, également connu sous le nom de Centre d'excellence pour l'automatisation intelligente. Une équipe du Centre d'excellence guide tout ce qui a trait à l'automatisation, y compris le maintien et la supervision des normes à l'échelle de l'entreprise, la formation, la gestion des fournisseurs, l'établissement de la meilleure pratique et bien d'autres aspects. Les organisations disposent également d'une certaine souplesse dans la façon dont elles structurent leur programme. Il existe trois modèles principaux :

Centralisé : Une seule équipe est responsable de la gestion et du contrôle de tous les aspects du programme.
Décentralisé : Les responsabilités relatives à l'exécution du programme d'automatisation sont réparties entre les différentes unités opérationnelles de l'entreprise.
Hybride : Certains aspects du programme d'automatisation sont gérés par une seule équipe centralisée, tandis que d'autres sont reproduits d'une unité opérationnelle à l'autre.
Il n'y a pas de « bonne » ou de « mauvaise » réponse ; le plus important est de commencer par le modèle qui a le plus de sens compte tenu de la situation actuelle d'une organisation, puis de l'adapter au besoin.

Grâce à une approche de plate-forme intégrée, les entreprises peuvent accélérer leurs initiatives de transformation numérique et commencer à travailler comme les entreprises de demain qui sont dotées d'une plate-forme numérique. Travailler comme demain apporte plusieurs avantages : une meilleure productivité, une prise de décision plus rapide, un service personnalisé aux clients et une main-d'œuvre plus autonome.
mastercard


L'institut Ifop vient de réaliser pour le compte de Mastercard et Oxygen une cartographie régionale des usages et nouvelles tendances liés au paiement. Parmi les enseignements de cette enquête :

Les habitudes pour le sans contact

Le recours au sans contact est ancré dans les habitudes de paiement d’une grande partie des habitants de la région.
73% l’utilisent au moins une fois par mois, dont 14% tous les jours ou presque, 42% une à trois fois par semaine et 17% une à trois fois par mois. A l’opposé, 26% indiquent utiliser ce mode de paiement moins d’une fois par mois ou jamais (1% ne le connaissant pas).
Dans le cadre de leurs achats au quotidien, les habitants de la région Occitanie, recherchent avant tout la sécurité (72%). Viennent ensuite le critère de facilité (15%) et de rapidité (10%).

Critique sur la fiabilité

La principale critique adressée au paiement en « sans contact » par les habitants de la région d’Occitanie est son manque de fiabilité.
Le premier obstacle perçu du « sans contact » est « le manque de confiance » qu’il suscite (27%). Des freins plus exogènes sont cités dans un second temps : « peu de commerçants le proposent » (11%), « la carte de paiement ne le permet pas » (10%), « une mauvaise connaissance du fonctionnement » (3%) ou encore le fait de ne disposer « d’aucune carte de paiement » (3%). Par ailleurs, 36% des habitants d’Occitanie estiment qu’ils ne perçoivent aucuns obstacles à l’utilisation du paiement « sans contact ».

L'émergence du paiement par smartphone

A l’exception du paiement par smartphone, les moyens de paiements connectés sont relativement peu connus et peu utilisés.
Le paiement via smartphone est connu de 9 habitants sur 10 et 28% y ont déjà eu recours. 51% connaissent l’existence du paiement connecté grâce à une montre, 32% par un bracelet ou une bague, 20% via le réfrigérateur et 21% via une voiture. A l’exception du Smartphone, l’utilisation de ces supports en tant que moyen de paiement est marginale (entre 1% et 3% selon les objets). 

smartphone


Par Marlène Joseph, Product & Marketing Manager EMEA chez PNY Technologies

Aujourd’hui, 94% des français sont équipés de téléphones portables. Parmi eux, ils sont 74% à posséder un smartphone[1]. 12 ans après la « révolution iPhone », l’usage des appareils numériques s’est totalement démocratisé. Parmi toutes les fonctionnalités possibles en un seul appareil, il y en a une qui a totalement chamboulé les habitudes des utilisateurs : la prise de photo et de vidéo avec son téléphone. Bien que le marché du reflex reste un marché de niche pour les appareils des gammes professionnelles, l’utilisation du portable pour la photographie a vite pris le dessus sur tous les autres appareils. La tendance est à la décroissance pour les appareils photo numériques avec une chute de l’ordre de 25% sur les livraisons de ces produits entre 2018 et 2019[2].

En 1991, Michael Jackson créait l’événement en utilisant la technique du morphing pour la première fois en dehors du circuit cinématographique, pour le clip de Black or White. Aujourd’hui, ce procédé peut être réalisé par n’importe qui grâce à bon nombre d’applications. Le XXIème siècle voit son lot de révolutions technologiques pénétrer le grand public. En quelques années, les réseaux sociaux sont devenus des repères et ont encore plus démocratisé l’image comme vecteur d’informations. Instagram, le réseau social de l’image par excellence, compte depuis juin 2018 plus d’1 milliard d’utilisateurs actifs dans le monde[3]. Et si le succès de cette application a été si fulgurant c’est bel et bien grâce aux possibilités de photos réalisées avec les smartphones. Ce nouveau moyen de capter l’image chamboule bien plus qu’on ne le croit.

La révolution de la phonéographie

Mais qu’est-ce que la phonéographie ? Elle résulte de l’intégration de la prise d’image par les téléphones mobiles. Mais sa fulgurante ascension est belle et bien due aux évolutions des réseaux sociaux et des applications. Pour satisfaire cette tendance, les fabricants de téléphones ont poussé la technique vers toujours plus de performance et de professionnalisme accessible par tous. Car il s’agit bien d’un point différenciateur pour énormément d’utilisateurs. À chaque sortie de nouveau smartphone, les attentes autour de la prise de photo et de vidéos sont scrutées.  Qu’il s’agisse d’Apple, de Samsung, Huawei ou Xiaomi, le point de différenciation se trouve bien souvent sur la capacité de leurs appareils photos intégrés.  D’ailleurs, le nouvel iPhone 11 Pro, présenté lors de la Keynote d’Apple le 10 septembre dernier révèle notamment un triple appareil photo ultra grand-angle et une qualité vidéo 4K plus vraie que nature avec des spécificités techniques impressionnantes (60 images par seconde).

Le pouvoir grandissant de l’image

Plus de 50% des utilisateurs de Snapchat ont moins de 25 ans[4]. Très populaire auprès des adolescents et des jeunes adultes, cette application démontre à elle seule le pouvoir que l’image a sur les nouvelles générations. De discussions par photos et vidéos interposées jusqu’au contenu 100% visuel, les nouvelles technologies ont encore plus exacerbé le pouvoir que l’image a sur les populations. La télévision avait déjà été pointée du doigt à la fin du XXème pour être trop intrusive, tout comme la publicité pour véhiculer une réalité qui n’existait que sur les écrans. Aujourd’hui, l’image est impossible à éviter notamment avec les smartphones. Le partage de photos et de vidéos se fait très facilement et toutes les générations sont amenées à prendre part à cette pratique. Pour preuve, Instagram (dont le modèle repose sur la publication de photos et de vidéos) figure dans le top 4 des applications les plus utilisées en France[5] avec 17 millions d’utilisateurs actifs par mois.

Un marché global de l’image mouvante

Avec la démocratisation de la photographie, de nouveaux accessoires voient le jour pour augmenter les possibilités autour de cette pratique.

Car encore une fois, si une niche reste ancrée sur la photo professionnelle avec des appareils ciblés, la grande majorité des utilisateurs n’utilise que son smartphone pour prendre des photos. Certains réussissent même à pousser l’exercice en professionnalisant leur pratique, devenant ainsi influenceurs et représentants pour des marques grand public. Il n’est d’ailleurs pas rare de voir ces influenceurs passer des contrats avec des marques grâce à leurs photos prises avec smartphone. Qu’il s’agisse du bon angle ou d’un talent inné pour la photographie, le moins que l’on puisse dire c’est que la stratégie des plus grands fabricants fonctionne. Et afin de contenter ces utilisateurs, un florilège d’accessoires a fait son apparition : lentilles pour smartphone, trépieds, stabilisateurs, solutions de stockage et de charge ultra performantes…

Surtout, l’arrivée de la phonéographie permet également aux galeries et musées d’ouvrir leurs portes à une nouvelle génération d’artistes, comme vu récemment avec l’exposition Talking Pictures au Metropolitan Museum of Art (MET) de New-York.

Vers toujours plus de professionnalisme

La démocratisation du smartphone a remodelé le monde de la photographie et de la vidéo. Plus besoin d’être un professionnel pour saisir l’instant présent. Pour preuve, le 15 janvier 2009, c’est avec un tweet accompagné d’une image que l’internaute Janis Krums informe le monde entier qu’un avion a échoué dans l’Hudson River de Manhattan. 10 ans plus tard, des films sont entièrement tournés avec des smartphones avec une qualité souvent impressionnante, comme le Thriller Paranoïa, réalisé par Steven Soderbergh en 2018, ou encore le court métrage Détour, réalisé par Michel Gondry 2017. La question à se poser désormais c’est de savoir si la phonéographie est arrivée à maturité. Il serait facile de répondre par l’affirmative tant les progrès ont été stupéfiants en une décennie. Cependant, alors que certains produits étaient avant destinés à des publics très ciblés (par exemple les amateurs de sport extrême avec la GoPro), aujourd’hui les frontières sont poreuses et le grand public est à la recherche d’une offre globale et de performances techniques à la pointe.

Nous allons de plus en plus vers des écosystèmes de produits bien plus complets pour satisfaire le public : des appareils de qualité, des accessoires utiles et des capacités de stockage qui défient l’entendement, et qui sont, de plus, accessibles au grand public.

La phonéographie n’en est qu’à ses débuts. L’innovation constante des smartphones en matière de photo réduit la frontière entre le téléphone et certains appareils photo. Les smartphones sont sans cesse améliorés avec des mégapixels, capteurs, stabilisateurs et ouvertures de champs qui se rapprochent de certains appareils purement professionnels. Avec la combinaison d’appareils performants et d’écosystèmes d’accessoires pertinents, la phonéographie se professionnalise (prises de vue, support pour la création de contenus photo et vidéo de qualité) et tout cela améliore l’expérience utilisateur et amène à plus de créativité et de passion pour s’exprimer. Le proverbe « Une image vaut mille mots », attribué au philosophe chinois Confucius, illustre parfaitement le poids l’expression visuelle, au cœur de la communication actuelle.


A l'heure où la numérisation des actes médicaux s'accélère, la sécurité des données médicales est capitale. Pour l'heure elle est plutôt perfectible à en croire l'étude menée par la société allemande Greenbone Networks. Celle-ci a mené, entre mi-juillet 2019 et début septembre 2019, une analyse d'environ 2 300 systèmes d'archivage d'images médicales connectés à internet.

400 millions sont accessibles ou facilement téléchargeables


Selon le rapport, publié le 16 septembre, sur les 2 300 systèmes d'archives analysés dans le monde, 590 ont été identifiés comme accessibles sur internet. En tout, ils contiennent plus de 24 millions d'enregistrements de données provenant de patients de 52 pays différents. Plus de 737 millions d'images sont liées à ces données patients, dont environ 400 millions sont accessibles ou facilement téléchargeables sur Internet.
Par ailleurs, 39 systèmes permettent d'accéder aux données des patients via un Web Viewer HTTP non crypté, sans aucune protection.

2,6 millions d'images médicales en France concernées


La France apparaît également dans le rapport puisque les experts de Greenbone Networks ont détecté 7 serveurs médicaux non sécurisés en France. Celles-ci hébergeaient plus de 2,6 millions d'images (2 668 170 précisément) en libre accès dans 47 500 dossiers patients.

Parmi les données ainsi accessibles, il y a les nom et prénom du patient, sa date de naissance, la date d'examen, la portée de l'enquête, le type de procédure d'imagerie, le nom du médecin traitant, celui de l'institut ou de la clinique et le nombre d'images générées.

"La disponibilité en ligne de fichiers à caractère hautement confidentiel démontre que les organisations et les individus n’ont pas pleinement conscience des risques encourus lorsqu’ils hébergent des documents de nature médicale sur des serveurs accessibles depuis Internet. Pour réaliser leur étude, les experts de Greenbone Networks ont utilisé des outils accessibles en ligne de découverte d’équipements connectés. Ils se sont contentés de rechercher les systèmes intégrant le protocole DICOM, un standard technologique basé sur TCP/IP  utilisé notamment par les acteurs de la santé pour l’échange de données médicales. Autant dire que ce type de recherche est accessible au plus grand nombre, et qu’une connaissance poussée des systèmes d’information n’est pas nécessaire. Il s’agit donc d’une victoire facile pour des personnes mal intentionnées.", explique Christophe Lambert, directeur Systems Engineering Grands Comptes EMEA chez Cohesity, un spécialiste de la protection des données.


iotValley


La Région Occitanie, la communauté d’agglomération du Sicoval et l’IoT Valley, écosystème spécialisé dans l’Internet des Objets fort de 40 entreprises et 700 collaborateurs, ont annoncé mercredi 18 septembre le lancement, dès janvier 2020, de la construction du premier bâtiment du campus IoT Valley à Labège. Représentant un investissement de 42 M€, cet équipement unique en Europe ouvrira ses portes dans le courant du premier trimestre 2022.

100 entreprises et start-up


Ce premier bâtiment de 20 000 m2, dessiné par le cabinet Jean-Paul Viguier et Associés, dont l’Agence Régionale d’Aménagement et de Construction (ARAC) assure la maîtrise d’ouvrage, constitue la phase 1 de la construction du vaste projet immobilier. Il regroupera des espaces de bureaux et de vie, une agora modulable, des lieux de formation... 100% connecté, grâce à l'intégration d'une multitude de services IoT, le bâtiment offrira à ses utilisateurs et à ses visiteurs une expérience inédite.

Dès son ouverture, le bâtiment accueillera l’association IoT Valley, en charge de sa gestion, ainsi que 100 entreprises et startups, notamment le siège de Sigfox, un Lab, un organisme de formation, un startup studio et l’incubateur inter-écoles « Do-It-Ocracy ».

Ce nouveau campus servira d'accélérateur à la mission que s'est fixée l'IoT Valley depuis maintenant 9 ans : accompagner la transition numérique des PME et ETI régionales et nationales.

Un besoin plus qu'actuel alors que 63 % des PME-ETI industrielles disent avoir initié une démarche de transformation de leur organisation en 2019, selon BPI France.
"La France compte environ 5 800 ETI et 138 000 PME, soit un écosystème de plus de 140 000 entreprises, qui engagent ou souhaitent engager un tournant digital sans toujours trop savoir par où commencer. Nous souhaitons leur faire profiter de notre expérience afin de les aider à commencer du bon pied", explique Bertran Ruiz, directeur général de l'IoT Valley.

"L'IoT Valley s'est toujours positionnée comme un pont entre le monde des entreprises et celui des startups. Si les deux univers se connaissent de mieux en mieux, un fossé réside, constituant bien souvent un frein au développement de l'innovation au sein des ETI et PME. Notre ambition est de combler ce fossé afin de le faire disparaître", précise Ludovic Le Moan, président fondateur de l’IoT Valley.

data



Par Raphaël Savy, Directeur Europe du Sud, Alteryx

Depuis le premier recensement « moderne » effectué au niveau national en 1694 par Louis Phélypeaux, comte de Pontchartrain, le gouvernement français a commencé à recueillir des données. L’État est ainsi l’un des plus anciens producteurs de données et ce pour des besoins d’analyse et de gouvernance. Un travail si essentiel qu’il est de nos jours difficile à quantifier tant l’usage que l’on a des données est omniprésent. Aujourd’hui, les données gouvernementales jouent un rôle majeur dans tous les domaines. C’est le cas notamment d’Etalab qui illustre la volonté de la France d’ouvrir les données publiques via le lancement du portail Data.gouv.fr.

Si la science des données peut avoir un impact significatif sur des décisions cruciales prises dans le secteur public, le sujet reste complexe et difficile à traiter. En effet, la majorité des données gouvernementales sont difficiles d’accès et d’utilisation tant elles sont hétérogènes. Afin d’aider les Chief Data Officer (CDO) du secteur public, Alteryx a listé cinq conseils que ces derniers doivent suivre afin de pouvoir exploiter, pour le bien commun, les bases de données de l’État.

Tirer parti des meilleurs modèles de leur catégorie pour le partage des données

De nombreuses organisations publiques et privées ont créé des centres de données pour pouvoir partager celles qui sont utiles entre divers utilisateurs. Néanmoins, ces nombreuses bases sont difficilement accessibles et cela peut freiner la collaboration. Il est donc crucial pour les CDOs, notamment dans le secteur public, de construire des bases de données communes, avec des modèles permettant à d’autres entités, en particulier les agences locales et régionales, de contribuer avec leurs propres données. Grâce à un référentiel collaboratif, les data scientists pourront identifier des tendances et recueillir des informations précieuses pour faciliter le processus décisionnel.

L’importance de la diversité

A l’heure où les sources et les formats de données disponibles se diversifient, les entreprises qui sauront en tirer profit seront celles avec la plus forte croissance. Il en est de même pour les administrations publiques. En sachant extraire l’essence même des données dont ils disposent, ils pourront ainsi améliorer le service usager. Transport of London (TfL) a d’ailleurs annoncé le lancement d’un programme d’analyse de données pour surveiller les mouvements des passagers sur le réseau londonien. En collectant anonymement ces données, TfL veut ainsi aider les usagers à éviter les encombrements et améliorer la politique des transports.

Mais plus que l’hétérogénéité des données, c’est de la diversité au sein des équipes dont dépendra la réussite d’un projet. D’ailleurs, ceux qui savent travailler avec plusieurs interlocuteurs (industriels, universitaires, …) font de la diversité des profils un levier de richesse, de performance et de développement pour leurs projets.

Les CDOs devraient donc faire appel à ce vaste réseau diversifié pour composer leurs équipes. Néanmoins, l’un des principaux obstacles auquel ils sont actuellement confrontés est l’absence de profils qualifiés dans la science des données. Face à une telle pénurie de talents, force est de constater que les administrations publiques ne pourront pas enrôler le (ou les) profil(s) tant recherché(s). Pour y remédier, certaines font appel à des profils hétérogènes. Ces profils et leurs différents points de vue s’avèrent exceptionnellement précieux en science des données, surtout lorsqu’il s’agit de résoudre des problèmes incroyablement complexes. Cette diversité de pensées peut contrebalancer les préjugés et les idées reçues qui peuvent être pénalisants pour créer une meilleure analyse des données.

Créer des ensembles de données en se basant sur un problème

De nombreuses administrations ont progressivement repensé leur organisation en créant des départements « data », afin d’imaginer une nouvelle gouvernance de leurs données. Cette nouvelle organisation s’explique par un paysage de plus en plus complexe suite à l’explosion des sources de données mal structurées, mal documentées et mal entretenues et qui sont souvent appelées « data swamps ». Mal conservés et perdant rapidement leur valeur, ces ensembles de données peuvent rapidement devenir des failles de sécurité. Pour éviter cela, les CDOs doivent acquérir une vision d’ensemble des données et démarrer une gouvernance data.

Fournir des données aussi précises que possible

Il existe toute une série d’ensembles de données gouvernementales qui sont regroupées au niveau national, régional ou parfois local. Cette disponibilité des données administratives à grande échelle pourrait permettre d'obtenir de meilleurs moyens de mesurer l’efficacité de mesures économiques grâce à des données plus étendues et granulaires. En effet, la granularité ou la finesse des données recueillies sont essentielles pour la qualité des observations faites. Cette granularité est d’autant plus utile à l’heure du RGPD. En effet, l’anonymisation nécessite une analyse des données méticuleuse afin de décider de quelles données l’administration aura besoin et celles qu’il est inutile de garder, décuplant la valeur des données restantes.

Profiter des meilleures technologies existantes


Chaque jour, ce sont 4 millions de recherches Google qui sont effectuées, 2,46 millions de contenus partagés sur Facebook, 347 222 photos via WhatsApp ou encore 204 millions emails qui sont envoyés. Toutes ces données représentent une source incroyable, dès lors qu’elles sont rendues accessibles et exploitées. En effet, leur mise à la disposition de tous permet de tester, valider et améliorer les modèles prédictifs existants afin de les faire progresser. L’accessibilité des données est le fondement même de la capacité de chacun à les explorer et les associer pour mieux les comprendre et en tirer de plus grands bénéfices.

Ainsi, afin de tirer profit des technologies et des outils existants les CDOs peuvent mettre en œuvre des plateformes communautaires. Ces outils pourront être un levier de connaissance et de croissance pour l’entreprise et l’administration, fournissant de précieuses ressources pour les équipes qui pourront y trouver les méthodes existantes et les meilleures pratiques. Par exemple Kaggle Data, une communauté de scientifiques des données en ligne, est un excellent exemple du type de plateforme dont les CDOs peuvent s’inspirer pour construire des modèles basés sur des informations accessibles au public.

Assumer le rôle de CDO pour un organisme public comporte des nuances et, pour assurer son succès, les nouveaux CDOs du secteur public doivent tenir compte de bien plus que le simple fait de structurer des ensembles de données. Dans cette révolution des données, la France devra tracer son propre chemin. Elle le fera avec d’autant plus de clarté, et d’autant plus de vigueur, qu’elle aura pris soin de maîtriser et de s’approprier les outils et les pratiques qui vont lui permettre d’exploiter tout le potentiel qui réside dans toutes ses données qui sont actuellement éparpillées à travers ses différentes administrations.

La diversité des données qui existent dans le secteur public est unique et exige des CDOs et des professionnels des données qu’ils exploitent les meilleurs modèles de leur catégorie et qui sont propices à la collaboration. Ces ensembles de données, en particulier, ont le potentiel d’orienter les décisions qui ont une répercussion sur certains des plus grands défis du pays.


La Fédération Française des Télécoms (qui regroupe les opérateurs Bouygues Telecoms, Orange, SFR...) et ses partenaires, le Centre Pompidou, Radio France et Télérama remettront ce vendredi 20 septembre à 10 heures, à la veille des Journées du Patrimoine, les prix telecoms innovations. Cette année, en effet, le thème porte sur l'accès à la culture et au patrimoine par le numérique.

La marraine de cette édition 2019 des prix telecoms innovations est Paula Forteza, députée des Français de l’étranger et spécialiste du numérique.

Application pour mettre en valeur le patrimoine local


L'un des quatre projets récompensés cette année est la start-up toulousaine GranaQuest, une application d'escape game basée sur la réalité virtuelle permettant de mettre en valeur la culture et le patrimoine des collectivités locales. "L'escapegame est partout, mais avec GranaQuest, il n'a jamais été aussi intelligent et spectaculaire, le tout au service des villes et villages", assure Arthur Dreyfuss, président de la FFTélécoms.

Concrètement "au cours d’une partie durant généralement de 1 à 2h, les joueurs sont plongés dans une véritable aventure en équipe, durant laquelle ils doivent résoudre des énigmes en se basant sur la seule réflexion associée à l’observation de l’environnement immédiat et l’usage de la réalité augmentée", explique la start-up.

"Le fil conducteur entre toutes les quêtes est la récupération en fin de partie d’un des Granas ; pierres magiques disparues au fil des siècles. Le financement de GranaQuest est assuré, soit par des parties payées directement par le consommateur final, soit par des contrats avec les communautés d’agglomération."

Les deux fondateurs ambitionnent d’occuper une place inédite à mi-chemin entre l’espace game, le géocaching et le e-tourisme.
Dans le métro. Photo by Martin Adams on Unsplash
Par Luc Rocher, Université catholique de Louvain


Téléphones, ordinateurs, cartes de crédit, dossiers médicaux, montres connectées, ou encore assistants virtuels : chaque instant de nos vies – en ligne et hors ligne – produit des données personnelles, collectées et partagées à grande échelle. Nos comportements, nos modes de vie, s’y lisent facilement. Mais faut-il s’en inquiéter ? Après tout, ces données qui nous révèlent sont souvent anonymisées par les organismes qui les collectent. C’est du moins ce que l’on peut lire sur leurs sites. Leur travail est-il efficace ? Et les données anonymes le sont-elles vraiment ? Dans notre dernier article publié dans la revue Nature Communications, nous développons une méthode mathématique qui montre que c’est loin d’être acquis. Elle a pu nous amener à réidentifier des individus parmi des bases de données anonymes et fortement échantillonnées, remettant en question les outils utilisés actuellement pour partager les données personnelles à travers le monde.

Traitement d’échantillons viraux. Les données personnelles de santé sont parmi les plus sensibles. James Gathany/CDC

Matière première

D’abord, quelques ordres de grandeur. Ces dix dernières années, nos données personnelles ont été collectées à une vitesse inégalée : 90 % de celles circulant sur Internet ont été créées il y a moins de deux ans ! Objets connectés, informations médicales ou financières, réseaux sociaux, ces données sont la matière première de l’économie numérique comme de la recherche scientifique moderne. Mais, très vite, on a vu apparaître certaines dérives. Notamment les atteintes à la vie privée qui se sont multipliées. Témoin, parmi de nombreuses affaires, le scandale Cambridge Analytica… Depuis, 80 % des Européen·ne·s estiment avoir perdu le contrôle sur leurs données.
En réponse, les compagnies et organismes qui les collectent affirment souvent qu’elles le sont de manière « anonyme ». Par exemple, la société Transport for London (TfL), en charge du métro londonien, a entrepris de surveiller les déplacements des passagers sur le réseau via les signaux wifi « anonymes » de leurs téléphones portables. En Belgique, plus de 15 hôpitaux revendent les données confidentielles de leurs patients à une multinationale, Quintiles IMS, sous couvert d’anonymat. Enfin, en France, Orange et SFR ont revendu des données de géolocalisation en temps réel ou en différé, données là encore « anonymisées ».
Point intéressant, une donnée anonyme n’est plus considérée comme donnée personnelle. Elle échappe donc aux régimes de protection comme le RGPD en Europe. Partager des données personnelles anonymisées ne nécessite donc plus le consentement des participant·e·s… Puisqu’ils et elles sont anonymes !

Ré-identification

Or, des chercheur·e·s et journalistes ont depuis longtemps montré que certaines données anonymes peuvent être ré-identifiées. Dans les années 1990, Latanya Sweeney avait pu ré-identifier les données médicales de William Weld (alors gouverneur du Massachusetts), sur base de son code postal, sa date de naissance et son genre. Deux journalistes allemands ont récemment ré-identifié l’historique de navigation d’un juge et d’un député, retrouvant leurs préférences sexuelles et leurs traitements médicaux dans des données anonymes obtenues en se faisant passer pour des acheteurs potentiels. Et, aux États-Unis, les dossiers fiscaux du président américain Trump ont pu lui être ré-attribués par le New York Times en utilisant des données anonymes publiées par le fisc américain, l’IRS.
Compagnies et gouvernements minimisent souvent ces ré-identifications. Leur ligne de défense : parmi des petites bases de données, toujours incomplètes, personne ne saura jamais si une ré-identification est correcte ou non et si des chercheur·e·s ou journalistes ont vraiment réidentifié la bonne personne.

Un guide pour protéger les données en Australie. Australian Government, CC BY

Cela implique que l’organisme collecteur fasse un travail dit d’échantillonage sur la base de données. Ainsi, l’autorité de protection des données australienne [OAIC], suggère dans son guide de dés-identification que l’échantillonnage augmente « l’incertitude qu’une personne particulière fasse réellement partie d’une base de données anonyme ». Prenons un exemple pour expliquer cela. Admettons que votre employeur retrouve des données vous correspondant dans un échantillon de 10 000 patients, soit 1 % d’une large base de données médicales. Ces données – comprenant par exemple votre lieu et date de naissance, genre, status marital, etc. – pourraient bien appartenir à une autre personne qui partage ces caractéristiques. Car cette base de données de 10 000 personnes ne représente que 0,015 % de la population française. Et ces données réidentifiées pourraient correspondre à n’importe quelle autre personne parmi les 99,985 % autres Français·e·s.
Échantillonner (partager par exemple 1 % d’une base de données) est ainsi une technique largement utilisée. Réduire la taille des données partagées permet de justifier que ces données sont anonymes, car personne ne pourra jamais prouver qu’une ré-identification est correcte.

Un algorithme qui remet en question l’anonymat

Le problème ? Nos travaux démontrent au contraire qu’un algorithme peut apprendre à estimer, avec grande précision, si des données réidentifiées appartiennent bien à la bonne personne ou non.
Il y a bien entendu, si c’est en France, de nombreux hommes trentenaires, habitant à Paris. Si je retrouve un seul homme de 30 ans parmi les données anonymes de 1 000 personnes, collectées et revendues par un cabinet d’assurance parisien, il y a peu de chance qu’elles correspondent à mon voisin Émeric. Les données correspondant à ces trois attributs (homme, 30 ans, habitant à Paris) seront sans doute celles d’un autre Français.
Mais au fur et à mesure que ces données s’enrichissent, qu’on apprend davantage de caractéristiques, il devient illusoire qu’une seconde personne ait les mêmes caractéristiques. Il y a ainsi sans doute un seul homme à Paris, né le 5 janvier 1989, roulant en vélo électrique et habitant avec ses deux enfants (deux filles) et un berger allemand : mon voisin Émeric.
Après avoir « appris » quelles caractéristiques rendent les individus uniques, notre algorithme génère des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes. Le modèle développé permettrait par exemple aux journalistes du New York Times de savoir à coup sûr si les dossiers identifiés appartenaient vraiment à Donald Trump.
Nos résultats montrent que 99,98 % des Américains seraient correctement ré-identifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques. Les chiffres sont similaires à travers le monde (16 attributs en ajoutant la nationalité). Une quinzaine de caractéristiques qui suffisent à identifier un individu, ce n’est hélas pas beaucoup. Le « data broker » Acxiom, un courtier de données qui achète et qui revend nos données personnelles dans 60 pays, possède par exemple jusqu’à 5,000 attributs par personne.
Nos travaux remettent ainsi en question les pratiques actuelles utilisées pour dés-identifier des données personnelles. Cela interroge sur les limites de l’anonymisation : utiliser ainsi ces données protège-t-il toujours notre vie privée ? Alors que les standards d’anonymisation sont en passe d’être redéfinis par les pouvoirs publics, au niveau national et au sein de l’Union européenne, il est crucial pour ces standards d’être rigoureux, de promouvoir de meilleures méthodes de partage des données, et de prendre en compte tout risque futur. C’est à la fois important pour nos vies privées, pour la croissance de l’économie numérique et pour le dynamisme de la recherche scientifique.The Conversation

Luc Rocher, Doctorant, ingénierie mathématique, Université catholique de Louvain
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.