cybersecurite


Par Thomas Leconte, Responsable avant-vente chez MTI France

La cybersécurité ne se limite pas à se protéger de malveillances externes. Bien souvent, les risques sont intimement liés à l'interne, de façon accidentelle ou intentionnelle. Mieux connaître ces menaces, c'est déjà les anticiper.

Lorsqu'on se figure un cybercriminel, on imagine une silhouette inquiétante, penchée sur un clavier dans un lieu sombre et lointain. Or dans les faits, les menaces les plus vives pour une entreprise sont bien plus proches qu'on ne le pense.

Un collègue croisé le matin même dans l'ascenseur ou dans le cadre d'une réunion stratégique est peut-être sur le point de devenir responsable de la fuite de données qui va coûter des millions à l'entreprise.

Les menaces internes doivent être prises au sérieux et leur nature doit être bien appréhendée pour qu'une protection efficace soit mise en place, sans pour autant affecter les opérations quotidiennes, la productivité ou l'agilité de l'entreprise.

Chaque entreprise est confrontée à des cybermenaces différentes, dont les caractéristiques dépendent d'une série de facteurs tels que son domaine d'activité, son infrastructure et sa sécurité informatique, ainsi que les méthodes de travail qu'elle applique. Il existe toutefois plusieurs règles qui s'appliquent généralement à tous les scénarios de menace interne.

Les compromissions internes sont généralement accidentelles

Les organisations qui ont reconnu la gravité des menaces internes se focalisent souvent sur la prévention des attaques malveillantes, telles que celles perpétrées avec un motif de vengeance par des employés mécontents, ou celles visant à voler l'organisation. Toutefois, selon le Forum sur la sécurité de l'information, la plupart des infractions sont accidentelles et non intentionnelles.

Les hackers savent identifier les collaborateurs à cibler

Les cybercriminels ciblent souvent les employés disposant de privilèges importants, tels que des administrateurs système, le personnel du service d'assistance informatique et les membres de comité de direction. Piégés par des attaques de phishing très ciblées, ils ouvrent sans le savoir la porte aux cyberpirates et leur permettent d'accéder à l'infrastructure de l'entreprise.

Les tiers utilisateurs et les ex-collaborateurs : des menaces particulières

De nombreuses organisations donnent accès à leurs réseaux à des personnes tierces, telles que des clients, des fournisseurs et des sous-traitants. N'étant pas employés de la société, ces individus sont plus difficiles à gérer que les employés, ce qui rend le contrôle de leur accès encore plus ardu.

Mais les anciens collaborateurs (ou en phase de départ) peuvent devenir de véritables menaces. Si la plupart des atteintes internes sont involontaires, 1 incident interne sur 4 provient d'un (ex)employé malveillant, généralement motivé par la vengeance contre l'organisation, suite au licenciement par exemple, ou les croyances politiques et religieuses, voire même sous pression d'un réseau criminel.

Les cyberpirates agissent selon un plan précis

Les attaques internes sont généralement exécutées en plusieurs étapes. Tout d'abord, une approche par phishing ou autre stratagème d'ingénierie sociale, permettant de récupérer un compte à droits limités. Ensuite, ces privilèges sont étendus via une collecte de mots de passe ou de hachage de mots de passe, et d'autres informations d'authentification. La technique Pass-the-hash est alors utilisée pour se déplacer sur le réseau et accéder aux différents systèmes. Enfin, les données cibles ou autres ressources sont localisées et compromises.

Quelle que soit l'origine et l'intentionnalité de la compromission, se protéger contre les menaces internes nécessite de développer une véritable culture de la cybersécurité en interne, afin que les collaborateurs prennent conscience des risques et adoptent les bons réflexes (complexité et modification régulière des mots de passe, utilisation ou non du Cloud public, etc.)

Mais l'application du principe du moindre privilège (droits d'un utilisateur strictement limités aux besoins de son travail) reste essentielle afin de contenir au maximum les risques suite à la compromission d'un compte utilisateur : moins ce dernier aura de droits, moins l'attaque sera efficace.
voiture autonome




Avis d'expert par Eric Le Calvez, Vice President Strategic Telecom Clients chez Vertiv France

Et si les véhicules connectés représentaient l'une des plus grandes opportunités offertes à l'industrie des télécommunications d'amortir les lourds investissements réalisés dans les réseaux 5G ? Une piste à explorer mais encore incertaine, dans un marché qui se cherche encore.

Voitures connectées : 5G vs courte portée

Selon Gartner, 250 millions de voitures connectées prendront la route d'ici 2020 : pas (encore) totalement autonomes, leurs connexions sans fil leur permettront de proposer des processus de conduite automatisés, de « l'info-divertissement » ou encore de la télémétrie pour renforcer la sécurité sur la route. Reste à définir les protocoles de communications.

Ainsi, des constructeurs tels que Renault, Toyota et Hyundai privilégient un système véhicule à véhicule (V2V) : une technologie de courte portée dédiée à la communication entre véhicules, qui offre l'avantage de sa disponibilité immédiate pour l'intégration de fonctions de sécurité connectées.

De leur côté, Volkswagen et BMW, ainsi que les opérateurs télécom, défendent le choix d'un système cellulaire longue portée, permettant aux voitures de partager les ondes avec les signaux téléphoniques et le trafic de données mobiles. Une solution de monétisation toute trouvée pour la 5G !

Concrètement, en offrant aux véhicules la capacité de communiquer entre eux, le V2V réduit les distances entre eux sans nuire à la sécurité. La 5G offrirait quant à elle des perspectives beaucoup plus avancées : et notamment une communication avec les infrastructures environnantes et les piétons, réduisant là aussi les risques et la mortalité routière. Tandis qu'un suivi précis des réseaux de véhicules permettrait de fluidifier le trafic grâce à une répartition homogène des flux de véhicules.

On parle alors de vehicle-to-everything (V2X), une technologie plus lente que la V2V, mais qui offre, à terme, une approche plus holistique de la création d'un système routier plus intelligent et plus sûr.

V2V et V2X : plus forts ensemble

C'est à l'automne 2018 que la Commission Européenne devait trancher quant aux technologies à embarquer en matière de véhicules connectés, mais la décision a été reportée sine die. À ce stade, la ligne officielle reste donc une « neutralité technologique » permettant aux systèmes de fonctionner aussi bien en Wi-Fi qu'en 5G. Si l'industrie des télécoms est bien sûr inquiète d'un choix en faveur de la courte portée, les plus larges potentialités du V2X devraient tout de même offrir un rôle de premier plan à la 5G.

Mais derrière les opérateurs télécom, c'est toute une infrastructure qui doit être mise en place. Autrement dit, les professionnels des datacenters auront un rôle critique à jouer quand les entreprises de télécommunications chercheront à se positionner comme colonne vertébrale du réseau de véhicules connectés.

Car plus que dans tout autre secteur ou application, la performance des réseaux et des infrastructures sous-jacentes en matière de véhicules connectés et qui plus est de véhicules autonomes, sont vitales, au sens le plus littéral du terme. La proposition de services et de valeur du V2X reposera donc la capacité des opérateurs télécom à se doter d'infrastructures en mesure de répondre à cette criticité vitale.

La 5G : performances, sécurité et analytiques en question

Gérer de façon automatique les situations à risques et réduire les accidents, les blessures et la mortalité : telle est donc la promesse du V2X. Mais en cas de dysfonctionnement, les conséquences peuvent être dramatiques. Si la faible latence de la 5G est évidemment clé dans ce dispositif, elle est loin d'être suffisante. Pour gagner en performances et en efficacité, le traitement des données doit lui aussi se trouver au plus près de la collecte, à savoir la route. D'où la nécessite de créer un réseau de datacenters dit « Edge », maillant les territoires de la façon la plus granulaire possible.

En devenant connectés, les véhicules s'assimilent donc à de nouveaux terminaux et sont donc à ce titre exposés à de nouvelles menaces : malveillances, malwares, etc... La sécurité, enjeu essentiel du véhicule connecté, est prise très au sérieux. Au niveau européen, le partenariat public-privé pour l'infrastructure 5G (5GPPP) recommande ainsi que les opérateurs télécom investissent dans des technologies de sécurité standardisées. Parmi lesquelles le découpage réseau, la micro-segmentation et MTC Space, afin de renforcer l'immunité aux menaces.

Enfin, derrière la voiture connectée, c'est toute une économie qui est en train de se mettre en place, basée sur la collecte et l'analyse des données. Selon Mark Fields, CEO de Ford, les renseignements issus des données des véhicules connectées permettront de « transformer l'expérience client et créer de nouveaux services ». Les pouvoirs publics y voient quant à eux la possibilité de fluidifier le trafic et d'améliorer la sécurité routière.

Et si cette « nouvelle économie » est une véritable opportunité commerciale, notamment pour les telcos qui cherchent à générer de nouveaux flux de revenus, elle s'accompagne néanmoins de responsabilités immenses, au cœur desquelles l'infrastructure n'a jamais été aussi critique. En bref, au-delà de l'objet en lui-même, ce sont bien les équipes Infrastructure & Opérations qui sont le centre névralgique de l'avenir du véhicule connecté voire autonome.

facebook


Par Emmanuel Schalit, CEO de Dashlane

Ces derniers temps, Facebook est devenu aussi clivant que l’art moderne : on aime ou déteste. Certains d’entre nous s’en serviront aveuglément et inconditionnellement au quotidien pour publier des photos de leurs récents voyages dans des lieux idylliques, partager des moments marquants, voire bombarder leurs abonnés avec des publications sur leurs habitudes alimentaires. Les autres s’éloigneront de la plateforme par peur, méfiance, confusion, ou par crainte de ce qui pourrait arriver avec les gigantesques quantités de données collectées par Facebook sur ses utilisateurs. Quelle que soit votre position sur le sujet, il est indéniable que depuis sa création en 2004, le réseau social a lentement diminué la capacité de concentration des consommateurs. Mais à quel prix ?

Un récent incident impliquant la fonction « Se connecter avec Facebook » a attisé des flammes déjà bien ardentes, obligeant les cadres de l’entreprise à réagir. Cet incident devrait vous faire réfléchir à votre utilisation de la plateforme à l’avenir.

Une année difficile 

Départs de responsables ; énorme fuite de données ; problèmes avec les autorités de régulation... 2018 a été une année difficile pour Facebook. Malgré des revenus encore florissants (jusqu’à maintenant) et ses 2,3 milliards d’utilisateurs actifs dans le monde entier, les consommateurs et les régulateurs commencent à se demander si l’entreprise agit toujours dans le meilleur intérêt de ses utilisateurs.

En septembre dernier, Facebook a ainsi révélé que ses systèmes avaient été la cible d’une attaque qui avait compromis des informations sur les identités numériques de 50 millions de ses utilisateurs. Par la suite, il est apparu que 40 millions d’individus supplémentaires avaient été potentiellement affectés par ce piratage. La cause de l’incident : une vulnérabilité tirant parti d’une faille au niveau de la fonctionnalité « Aperçu du profil en tant que ». Plus précisément, les éléments exposés étaient des tokens d’accès (Facebook Identity Tokens), des clefs permettant par exemple de rester connectés sur Facebook sur son smartphone, sans avoir à constamment ressaisir son mot de passe. Nous verrons plus tard en quoi cela constitue un énorme problème.

Mais même avant cette révélation, il était déjà devenu clair que Facebook n’accordait pas toute l’attention nécessaire à la protection des informations de ses utilisateurs. En juillet, l’entreprise admettait avoir permis à 61 entreprises d’accéder aux données de ses utilisateurs sans leur consentement explicite, alors qu’elle avait par le passé empêché de tels accès de façon plus globale. Et bien sûr, avant cela, le scandale Cambridge Analytica, un cabinet d’analyse de données qui a créé des profils d’utilisateurs de Facebook à des fins de ciblage de publicités politiques.

Facebook, l’ami des données 

Pas loin derrière Google, Facebook est une des sociétés qui collecte le plus de données. La quantité d’informations dont la plateforme dispose sur ses utilisateurs n’est limitée que par ce que l’on y divulgue – et pour certains, cela inclut énormément de choses. Pour d’autres, le problème va au-delà de l’exposition de leurs propres vies : lorsque de futurs parents partagent des photos d’échographies, cela peut marquer le début de la création d’une empreinte numérique dangereusement riche. Ainsi, les enfants verraient en moyenne plus d’un millier de photos d’eux publiées en ligne avant leurs 13 ans.

Facebook sait à quoi ses utilisateurs ressemblent (et dans certains cas, alors même qu’ils sont encore dans le ventre de leurs mères), connaît leurs déplacements, sait où ils souhaitent se rendre et où ils sont tout au long de leur trajet. Le réseau social sait ce qu’ils aiment, ce qu’ils n’apprécient pas et ce dont ils discutent. Il sait également quels smartphones ils possèdent, quelles applications ils utilisent, comment, quand et où. Toutes ces données sont ensuite exploitées pour proposer aux utilisateurs le « meilleur » contenu publicitaire ; par conséquent, celui qui convient le mieux aux préférences des utilisateurs et qui coûte le plus cher aux annonceurs. Une aubaine pour l’entreprise.

Mais ce n’est pas tout : Facebook a également accès à d’énormes quantités de données sur plus de 2 milliards d’individus, et dispose des ressources nécessaires pour les exploiter. En fait, son modèle économique tout entier est basé sur la monétisation de ces données, et à cet égard, l’entreprise se porte de toute évidence comme un charme.

Pas de chance, en revanche, pour les utilisateurs dont les comptes (et potentiellement les données) ont été compromis lors du récent piratage. Mais il y a pire, malheureusement.
Depuis des années, Facebook propose la fonctionnalité « Se connecter avec Facebook » pour simplifier la vie de ses utilisateurs. Des dizaines de milliers de services très populaires comme Airbnb, Uber ou Spotify acceptent ces fichiers d’identification de Facebook (Facebook Identity Tokens) comme alternative à la combinaison identifiant / mot de passe. Pour des consommateurs pressés et dont la capacité de concentration est réduite à seulement 8 secondes, l’intérêt de cette approche est évident. Mais les conséquences sont désormais plus claires. Même pour ceux qui n’ont jamais utilisé cette fonctionnalité, le simple fait de posséder un compte sur le réseau social (ce qui a pour effet de générer un de ces fameux fichier d’accès à Facebook) signifie que les pirates pouvaient prendre le contrôle de comptes sur Airbnb, Spotify, Uber... ou sur les dizaines de milliers d’autres services compatibles avec cette fonction.
Centraliser les tokens d’identité numérique comme l’a fait Facebook pendant des années a toujours été une mauvaise idée. Dès lors, l’important n’était pas de savoir si un problème surviendrait, mais quand.

Utilisez Facebook à vos risques et périls 

Les révélations sur les pratiques du géant de Californie en matière de collecte de données personnelles (et sur le récent piratage dont il a été victime) auront suffi à convaincre certains utilisateurs de quitter Facebook pour de bon, tandis que d’autres auront mis à jour leurs paramètres de confidentialité – ce qui ne résoudra pas le problème de fond. Enfin, certains, bien évidemment, ne changeront rien à leurs habitudes.
Pourtant, même s’ils ne publient que très peu de contenu sur Facebook, beaucoup ont déjà partagé des détails financiers et de paiement avec d’autres applications. L’entreprise n’est pas un spécialiste de la sécurité, ni même un média social. Facebook ne réalise pas de profit en aidant ses utilisateurs à améliorer leurs vies sociales, mais en exploitant leurs données et en vendant des espaces publicitaires. Ainsi, sur les 40 milliards de dollars de chiffre d’affaires enregistrés par l’entreprise en 2017, 39,9 provenaient de la publicité digitale. Alors pourquoi les particuliers sont-ils si nombreux à lui donner la clef pour accéder à autant de données personnelles ? Pourquoi faire confiance à Facebook pour conserver les clefs d’autant d’autres comptes en ligne ?
Par confort, serait-on tenté de répondre. Pourtant, il existe une alternative à la fois pratique et sécurisée – l’idéal, même pour ceux dont la capacité de concentration ne dépasse pas les 8 secondes !

Les gestionnaires de mots de passe constituent une solution sécurisée pour stocker une multitude de mots de passe, d’identités numériques et de coordonnées de paiement pour plusieurs applications et comptes. Ces outils remplissent automatiquement ces informations quel que soit l’appareil utilisé. Et surtout, ces données ne sont pas sur Facebook. Alors que la vulnérabilité du site a été maintes fois démontrée, les gestionnaires de mots de passe offrent la garantie inverse. Chaque compte est conservé à part, et le mot de passe principal du coffre-fort n’est pas conservé en ligne. En effet, les gestionnaires de mots de passe ne centralisent pas d’informations personnelles.

Tant que Facebook n’aura pas compris qu’il est impossible de sécuriser un système d’identités centralisé tel que « Se connecter avec Facebook », la seule solution pour éviter les conséquences d’un piratage est de fermer son compte. Êtes-vous prêts à le faire ?
privacy


La Journée de la Protection des Données qui se tient ce lundi 28 javnier marque l'anniversaire de la Convention pour la Protection des Personnes à l'égard du traitement automatisé des données à caractère personnel. Signée par le Conseil de l'Europe le 28 janvier 1981, cette journée se veut l’occasion de sensibiliser le grand public sur la nécessité de la protection des données personnelles et du respect de la vie privée mais également de souligner l’importance de garantir une protection des données en bonne et due forme.

Il suffit d’ailleurs de regarder les différentes actualités pour constater que les fuites de données dues à des protocoles obsolètes ou à des cyberattaques prouvent à quel point cette journée est capitale.

En ce sens, 2018 aura d’ailleurs vu rentrer en vigueur l'introduction du règlement général de l'UE sur la protection des données (RGPD).

A l'heure où les attaques informatiques se multiplient (hack, phishing, BEC…), engendrant la divulgation massive de données personnelles, il est urgent de repenser nos habitudes en matière de traitements des données et de stockage.

Les particuliers ne sont généralement pas conscients des risques liés à la protection de leurs données ni de leurs droits à cet égard. Ainsi, ils négligent bien souvent de protéger leurs informations personnelles.

Kingston Technology profite de cette journée pour rappeler l’importance des risques et que des solutions de protection efficaces existent.
"Dans un contexte où Internet est présent quotidiennement dans nos vies, il est de plus en plus rare de pouvoir effectuer des recherches en ligne sans aucun risque. Chez Kingston, nous mettons un point d’honneur à proposer des produits de stockage sécurisés afin que toutes les données des utilisateurs, aussi sensibles qu’elles soient, puissent être sauvegardées et uniquement consultables par ce dernier. Un de nos objectifs principaux est de s’assurer que les principes de protection des données soient adaptés aux besoins d’aujourd’hui » déclare Laurent Sirgy, Directeur France SEMEA de Kingston Technology.

Les conseils d'Andrew Filev


Andrew Filev, CEO de Wrike, nous livre quelques conseils pour préserver sa vie privée en ligne.

Notre sécurité ne va jamais au-delà de celle de notre compte en ligne
La plupart des applications utilisent notre compte de messagerie pour vérifier notre identité. Cela signifie que si quelqu'un peut accéder à ce compte, il dispose de tout ce dont il a besoin pour réinitialiser le mot de passe de nos applications bancaires, de nos fichiers, et même des applications d'entreprise que nous utilisons au bureau. L’authentification en deux étapes (2FA) constitue un niveau de sécurité supplémentaire entre nos données et les menaces potentielles, afin que nous seul puissions y accéder. Il est essentiel d’utiliser 2FA lorsque celle-ci est disponible sur toutes nos applications afin d’empêcher la violation d’une application par une autre. Malheureusement, selon l’ingénieur de Google Grzegorz Milka, moins de 10% des utilisateurs Gmail utilisent 2FA depuis 2018.

Attention aux regards indiscrets
Vous arrive-t-il de regarder par-dessus votre épaule à un guichet automatique pour vous assurer que personne ne vous regarde saisir votre code PIN ? Si tel est le cas, vous faites preuve de discernement pour protéger votre vie privée contre une menace largement sous-estimée - les regards indiscrets. La même menace existe lorsque nous sommes assis dans un café, un espace de travail partagé ou dans un train. Malgré sa simplicité, un écran de sécurité empêchant les personnes à proximité de regarder notre écran ne doit pas être négligé et doit faire partie de l’arsenal de protection de nos données personnelles comme de celles de notre employeur, de nos clients ou de nos partenaires. Certaines applications possèdent même des fonctionnalités de ‘floutage’ permettant de masquer des informations.

Protéger les travaux en cours
Lorsque nous collaborons avec des personnes extérieures à notre entreprise, nous pouvons être tentés de stocker un document dans le cloud et d’activer le partage de liens pour leur donner l'accès. Il faut surtout résister à cette tentation. La bonne attitude est de protéger les fichiers par mot de passe avec la possibilité de révoquer l'accès, et ce sur une plate-forme qui enregistre qui a accédé à quelles données et quand.

Application inconnue, accès fermé
Le scandale de Cambridge Analytica a attiré l’attention du public sur un phénomène que les professionnels de la cyber sécurité connaissent bien : la plupart des violations proviennent en premier lieu du fait que les utilisateurs ont laissé libre accès à leurs données. Aucune application ne devrait accéder à nos données sans avoir au préalable vérifié sa légitimité, quelles données elle collecte et comment elles sont utilisées.

Gare au ‘phishing’ !
76% des organisations ont déjà subi une attaque de phishing (hameçonnage), mais beaucoup d’entre nous ne sont toujours pas capables de détecter une attaque de ce type. En cas de doute sur un message email, il est impératif de vérifier l’adresse de l’expéditeur pour confirmer sa légitimité. Si notre entreprise utilise des extensions de messagerie .com et que notre patron nous envoie un email depuis un compte .net (ou mal orthographié), il y a de fortes présomptions qu’il s’agisse d’un message malveillant. En cas de doute, mieux vaut contacter l'expéditeur présumé pour vérifier.
computer

Par Bassem Asseh, Directeur Europe du Sud de GitHub


Alors qu'il fut un temps où les développeurs étaient uniquement associés à de simples lignes de codes, la multiplication de la création des logiciels les positionne comme figure de proue de la transformation numérique.  Leurs « simples » lignes de code transforment désormais les règles de tous les métiers.


Il y a dix ou quinze ans, être développeur de logiciels était le point de passage obligé à la sortie d'une école d'ingénieur, avant d'évoluer vers un autre métier telle la direction de projet. Non seulement « l'informaticien », comme on disait alors, avait une image ringarde, mais il se situait au bas de l'échelle organisationnelle et il était appelé à vite passer à autre chose que le développement. Depuis, les choses ont bien changé : «l'informaticien » est devenu un « développeur », désignation autrement plus efficace. Surtout, le développeur est devenu l'acteur incontournable de la transformation numérique des entreprises, convoité et de mieux en mieux rémunéré.

L'intelligence logicielle améliore le niveau de service

Aujourd'hui, le déploiement numérique des entreprises consiste essentiellement à créer, gérer et optimiser des sites, des applications mobiles ou encore des systèmes d'information d'entreprise (logistique, comptabilité, ressources humaines…). Ainsi, pour un acteur de la grande distribution, cela comprend non seulement le site web où se fait l'acte d'achat, mais aussi toute la logistique interne et externe pour traiter les commandes et les acheminer jusqu'au client. Le rôle des développeurs consiste donc à traduire en intelligence logicielle – in fine en lignes de code – les règles métier définies par la stratégie des entreprises. Il peut s'agir, par exemple, d'une règle marketing qui consiste à recommander des ouvrages de Leïla Slimani à un client ayant acheté un livre de Virginie Despentes, dans le but d'augmenter son panier. Autre exemple : une règle logistique établissant que lorsqu'un client achète une machine à café, celle-ci doit lui être acheminée depuis l'ent repôt le plus proche du lieu de livraison de manière à assurer la livraison en 24 h. Dans ce cas, le numérique aide à fournir un meilleur niveau de service tout en réduisant les coûts de transport.

Miser sur les développeurs pour une transformation digitale réussite

Le numérique s'affranchit des deux contraintes qui ont depuis toujours régi les interactions humaines : l'espace et le temps. Dans cette configuration, la rapidité est un facteur capital dans le succès des entreprises à conquérir de nouveaux marchés d'autant plus qu'une règle semble se vérifier dans le numérique : “winner takes all” – le gagnant rafle la mise. Pourtant, nombre d'entreprises n'ont pas encore pris la mesure de l'importance des développeurs et continuent à sous-traiter leurs systèmes informatiques. Au regard du rythme effréné du numérique qui demande une grande réactivité, il est nécessaire que se côtoient les équipes qui conçoivent les règles métiers et celles qui les déploient techniquement. L'intégration organisationnelle des développeurs à une entreprise devient progressivement une condition sine qua non de la réussite de sa transformation numérique, afin que toutes les parties prenantes partagent et mettent en œuvre la même stratégie. Dans The New King makers: how developers conquered the world (O'Reilly), Stephen O'Grady mettait en lumière, dès 2013, cet essor des développeurs : “les développeurs sont le socle qui a le plus de valeur pour les entreprises d'aujourd'hui quel que soit leur secteur d'activité. [...] Les entreprises qui réussissent cherchent perpétuellement un avantage compétitif, un avant-poste qui leur permette de devancer leurs concurrents potentiels. Pour de nombreuses entreprises, les développeurs seront cet avant-poste. Les entreprises qui réussiront dans les dix prochaines années seront celles qui comprennent et apprécient à sa juste valeur l'importance des développeurs.”. Certains PDG d'entreprises, y compris en France, ne reculent désormais plus devant des séances d'initiation au développement logiciel.

La « boucle de valeur » : un changement de paradigme 

Historiquement, à la base du modèle des entreprises ou des secteurs économiques était la chaîne de valeur. Schématiquement, cette chaîne était constituée de maillons successifs : les matières premières, que l'on transformait puis que l'on mettait sur les marchés où la vente des services ou produits finaux générait du chiffre d'affaires. Dans ce contexte-ci l'interaction avec le client n'intervenait qu'à la dernière étape. L'irruption du numérique a bouleversé cette chaîne en établissant un rapport direct entre l'entreprise et le client où il est incité à donner son avis sur les produits ou les services, à chaque maillon, Au lieu d'une chaîne à sens unique, on voit désormais s'établir une “boucle de valeur”, un cercle vertueux qui génère de la valeur grâce à la communication et à l'interaction constantes : le client voit ses préférences prises en compte et l'entreprise collecte en retour ces informations (big data) pour améliorer son offre globale, dans une relation mutuellement bénéfique. Cette boucle de valeur n'est possible que grâce aux équipes de développement qui transforment les règles métiers destinées à affiner la connaissance des clients et à l'amélioration des services et des produits.

Le métier de développeur est aujourd'hui en constante expansion car il n'existe presque plus de secteur économique qui puisse se passer de logiciels : les artisans en utilisent pour concevoir leurs plans, les agriculteurs en utilisent pour semer et récolter, etc. Mais, plus que cela, le métier de développeur est en transformation permanente : de nouvelles technologies et de nouveaux langages apparaissent régulièrement, qui nécessitent de se former et de cultiver sa créativité ; et c'est sans doute ce qui fait la richesse de ce métier, qui commence enfin à être reconnu à sa juste valeur.
alexa
Les enceintes connectées Echo d'Amazon


Chaque année depuis 2001, Deloitte propose ses prédictions concernant les tendances de l’industrie TMT (Technologie, Médias et Télécommunications).

« 2019 sera définie par la manière dont les nouvelles technologies modifient constamment notre façon de vivre et de travailler » a déclaré Duncan Stewart, Directeur du Centre de recherches technologies, médias et télécommunications chez Deloitte. « Des enceintes intelligentes au réseau 5G, l'accès aux technologies de pointe s'améliore rapidement. À mesure que les obstacles seront dépassés, le potentiel de connectivité accrue et d’innovations augmentera de manière exponentielle. »

La 5G arrive, permettant des connexions plus rapides


En 2019, les réseaux sans fil de cinquième génération (5G) devraient arriver à grande échelle, offrant des connexions plus rapides aux consommateurs comme aux entreprises et augmentant les opportunités de revenus des entreprises de télécommunication.

Parmi les opérateurs de réseaux sans fil, 72 opérateurs testent actuellement une offre 5G. Deloitte prévoit qu'en 2019, 25 opérateurs de réseaux sans fil lanceront le service 5G, un chiffre qui devrait doubler d'ici 2020. Au total, ce marché devrait atteindre les 15 à 20 millions d'unités d'ici 2020. Un million supplémentaire de modems 5G devrait également être vendu en 2019.

« La 5G permet de multiplier par cent le trafic et l'efficacité du réseau par rapport à la 4G, ce qui offre un potentiel de transformation pour l'avenir de la connectivité dans le monde » déclare Ariane Bucaille, associée responsable TMT chez Deloitte France.

L’Intelligence artificielle va toucher l’ensemble des entreprises


Deloitte prévoit qu'en 2019, les sociétés accéléreront davantage leur utilisation des logiciels et des services d'intelligence artificielle (IA) basés sur le cloud. Parmi les entreprises utilisant l'IA, 70% obtiendront des fonctionnalités d'IA via des logiciels d'entreprise basés sur le cloud, 65% créeront des applications d’IA à l'aide de services de développement basés sur le cloud et, d'ici 2020, le taux de pénétration des logiciels d'entreprise avec intégration d'IA, et le développement des services d'IA sur le cloud, atteindront respectivement environ 87% et 83%.

« Jusqu’à présent, les géants de la technologie ont bénéficié en premier de l'Intelligence Artificielle » continue Ariane Bucaille. « Nous prévoyons que la mise en œuvre de solutions intégrant de l’Intelligence Artificielle s’étendra rapidement à toutes les entreprises, en particulier sur des plateformes basées sur le cloud. »

Miser sur les retransmissions sportives


Deloitte prévoit que 60% des hommes nord-américains âgés de 18 à 34 ans qui regardent le sport à la télévision effectueront également des paris sportifs. Par conséquent, 40% de l’audience des programmes télévisés américains à destination des hommes âgés entre 25 à 34 ans sera motivée par les paris sportifs.

La percée des imprimantes 3D


Les ventes d'imprimantes 3D professionnelles, de matériaux et de services pour les grandes entreprises publiques dépasseront 2,7 milliards de dollars en 2019 et 3 milliards de dollars en 2020, avec une croissance de 12,5% par an. Le nombre de matériaux pouvant être imprimés en 3D a plus que doublé au cours des cinq dernières années, ce qui (avec d’autres améliorations) a conduit à un rebond du potentiel de croissance du secteur.

La radio reste un medium pertinent


Deloitte prévoit que plus de 85% de la population adulte écoutera la radio au moins une fois par semaine dans les pays développés (la même proportion qu'en 2018), et cette proportion varie dans les pays en développement. Au total, près de 3 milliards de personnes dans le monde écouteront la radio chaque semaine. Aux États-Unis, Deloitte prévoit que plus de 90% des 18 à 34 ans écouteront la radio au moins une fois par semaine en 2019. Ils consacreront donc probablement plus de temps à écouter la radio qu'à regarder la télévision d'ici 2025.

Des enceintes intelligentes


Selon les prévisions de Deloitte Global, le marché des enceintes connectées s'élèvera à 7 milliards de dollars américains en 2019, devenant ainsi la catégorie des appareils connectés affichant la plus forte croissance. Cependant, l'industrie devra surmonter des obstacles afin d'atteindre son plein potentiel de croissance. Les technologies de reconnaissance vocale continuent de s’améliorer, mais la prise en compte des particularités de toutes les langues devra être élargie pour que la technologie devienne inclusive et puisse être adoptée au niveau mondial.
data


Commentaire de Mark Barrenechea, CEO OpenText

La Journée Mondiale de la Protection des Données aura lieu à la fin d’un mois de janvier 2019 mouvementé : le vol de données de centaines d’élus en Allemagne, le piratage de 772 millions d’adresses e-mail connu sous le nom de Collection #1, l’amende infligée à Google pour non-respect du RGPD, sans oublier les enquêtes chez Facebook qui sont encore en cours, depuis l’affaire Cambridge Analytica.

Dans ce contexte, voici le commentaire de Mark Barrenechea.

« Plus de 2,5 milliards de milliards d’octets de données sont créés chaque jour. Ce rythme ne va aller qu’en accélérant à mesure que les voitures autonomes, les capteurs, les drones et l’Internet des objets (IoT) inaugurent de nouveaux formats à la vitesse grand V. Clairement, notre avenir sera « data » ou ne sera pas. Ces données représentent la sève de l’entreprise et leur utilisation adéquate nécessite un élément essentiel à son succès : la confiance.

Les données sont indissociables de l’activité et de la vie


Si l’on bannit les données, ou la confiance nécessaire à leur protection, le monde s’écroule : tout le commerce s’arrête ; les comptes bancaires voient leur solde réduit à zéro ; les avions s’écrasent ; les voitures s’immobilisent ; l’approvisionnement en énergie et en eau s’interrompt. Les données sont indissociables de l’activité et de la vie, et aussi indispensables que l’eau, l’air et l’électricité. Plus encore, les données et les systèmes connaissent de telles avancées que notre forme humaine et cognitive se dessine dans les propres traces numériques que nous laissons. Chaque jour nous construisons, brique par brique et bit par bit, un double numérique de nous-mêmes, consciemment ou non.

Les données personnelles englobent nos différents comportements


La nature des données a changé, elles vont aujourd’hui bien au-delà de nos coordonnées dans un annuaire téléphonique il y a dix ans. A l’ère du numérique, les données personnelles englobent nos différents comportements (la liste de nos amis, nos lectures, nos photos, ou l’enregistrement de tous nos appels téléphoniques). Or quelle est véritablement la différence entre un acteur malveillant volant les données de 135 millions d’utilisateurs de cartes de crédit ou un réseau social revendant les données de 85 millions de personnes à un cabinet-conseil en politique ? Les acteurs sont différents mais l’effet sur les consommateurs est le même : une rupture de la confiance. Qu’il s’agisse d’administrations, de particuliers ou d’entreprises qui se voient confier des données, leur obligation première consiste à les défendre et les protéger. Cette confiance transcende les produits ou les services. »
Google


Par Antoine Chéron, avocat associé ACBM Avocats,  

Le géant américain Google vient d’être condamné par la CNIL (Commission Nationale de l’Informatique et des Liberté) à 50 millions d’euros d’amende pour manquement à ses obligations dans le cadre du RGPD (Règlement Européen Général sur la Protection des Données personnelles).

La CNIL reproche à Google le manque de transparence dans le traitement des données personnelles, une information insatisfaisante car insuffisamment « claire et compréhensible » et une absence de consentement pour la personnalisation de la publicité.

La CNIL, précise dans son communiqué du 21 janvier 2019, que les associations None Of Your Business et La Quadrature du Net, à l’origine de la plainte contre Google et ses services Instagram et WhatsApp, reprochaient à Google «  de ne pas disposer d’une base juridique valable pour traiter les données personnelles des utilisateurs de ses services, notamment à des fins de personnalisation de la publicité ».

La commission a donc procédé à des contrôles en ligne sur les services de Google en septembre 2018 et a constaté plusieurs manquements. Elle constate une information insuffisante des utilisateurs de la plateforme : « les informations fournies par Google ne sont pas aisément accessibles pour les utilisateurs » et qu’ainsi, « L'information sur ces traitements (est) diluée dans plusieurs documents » ce qui ne permet pas à l'utilisateur de prendre conscience de  l’ampleur du traitement des données réalisé par Google.

Ce manque de clarté et de transparence empêche l’utilisateur de donner un consentement avisé et éclairé sur le traitement de ses données et la personnalisation de la publicité : "Des informations essentielles, telles que les finalités pour lesquelles les données sont traitées, la durée de conservation des données ou les catégories de données utilisées pour la personnalisation de la publicité, sont excessivement disséminées dans plusieurs documents, qui comportent des boutons et liens qu'il est nécessaire d'activer pour prendre connaissance d'informations complémentaires" relève la CNIL.

Ces manquements aux dispositions du RGPD ont ainsi motivé la CNIL à fixer la plus lourde sanction jamais infligée par une instance de régulation européenne.

Pour mieux comprendre le contexte, le RGPD est devenu une obligation, depuis son entrée en vigueur le 25 mai 2018, pour les entreprises visitées depuis l’Europe. Il vise à apporter plus de transparences dans le traitement des données personnelles et à garantir une utilisation respectueuse et protectrice des droits des personnes dont les données personnelles peuvent être traitées et exploitées par des entreprises.

Afin d’assurer son effectivité, le RGPD prévoit diverses sanctions graduelles et proportionnées à la gravité des manquements commis. Ainsi, avant de prononcer une amende à l’encontre d’une entreprise, la CNIL peut, notamment, lui demander de se mettre en conformité avec le RGPD. À défaut d’exécution, la CNIL peut adresser à cette société une injonction. Puis, si la société persiste à ne pas s’exécuter, la CNIL la condamne à une sanction financière (article 58 RGPD).
Le montant de l’amende administrative varie en fonction de l’obligation concernée et de la gravité du manquement. Par exemple, les plus lourdes amendes peuvent correspondre à 4% du chiffre d’affaires mondial de l’entreprise fautive (article 83 du RGPD).
Si, en l’espèce les 50 millions d’euros d’amende correspondent à la plus lourde sanction jamais infligée par la CNIL, la précédente était seulement de 150 000 euros, elle n’est rien comparée au chiffre d’affaires annuel mondial de Google qui s’élevait à plus de 100 milliards de dollars en 2017.
Google dispose de deux mois pour faire appel devant le Conseil d’Etat et contester le montant de cette amende. Cependant, il semble que la CNIL soit bien décidée à faire respecter les dispositions du RGPD et garantir une véritable protection dans le traitement des données par les entreprises. Ce sur quoi nous ne pouvons que nous réjouir.


hackers


La Haute Autorité pour la diffusion des oeuvres et la protection des droits sur Internet (Hadopi), mise en place en 2009, a souhaité mettre à jour la cartographie de l’écosystème illicite, identifiée dans de précédents travaux réalisés en 2012. Présentée mardi, cette nouvelle étude, réalisée par la société EY, montre combien les sites de piratage de contenus culturels se sont complexifiés et combien la Haute autorité paraît désarmée.
"Si en 2012 hébergeurs et sites de référencement étaient au coeur du système, il apparaît aujourd’hui que celui-ci s’étend largement au-delà de ces seuls acteurs. Pour être pleinement efficace, la lutte contre la piraterie devra désormais s’intéresser à ces autres acteurs, tels que les prestataires techniques ou les services aux internautes, entre autres", indique la Hadopi.

Trois grandes familles d'acteurs du piratage

On peut distinguer trois grandes familles d’acteurs: aux acteurs centraux, situés au cœur de l’écosystème, s’ajoutent désormais des fournisseurs de services utilisés par des acteurs centraux d’une part et des internautes d’autre part, indique l'étude.
Les acteurs centraux regroupent d’abord les sites de référencement, qui renvoient l’internaute, au moyen de liens hypertextes, vers les sites hébergeant les contenus illicites, quel que soit le mode d’accès final: pair à pair, téléchargement direct ou streaming au sens large - contenus ou flux de programmes TV en direct; les services d’agrégation de contenus font aussi partie de cette première catégorie. Les hébergeurs de contenus sont l’autre pilier de cette catégorie: il s’agit des sites hébergeant des fichiers contrefaisants, le plus souvent chargés (ou uploadés)par leurs utilisateurs.
Les fournisseurs de services utilisés par les services illicites permettent aux acteurs centraux de fonctionner, à la fois sur le plan technique et sur celui de la monétisation des services. Il peut alors s’agir d’acteurs sans lien avec les pratiques de piraterie (bureau d’enregistrement de noms de domaine, services d’optimisation du trafic et de sécurisation des sites, acteurs de la publicité ou du paiement en ligne) ou s’étant spécialisés dans les services illicites. Dans cette dernière catégorie, on peut évoquer les services permettant de dissimuler l’adresse IP des sites pour compliquer les mesures de blocage.
Enfin, des acteurs proposent des services utilisés par les internautes, avec deux objectifs:
  • d’une part, pour trouver plus facilement des œuvres contrefaisantes, le recours à des sites généralistes (moteurs de recherche) ou spécialisés dans les usages illicites (forums dédiés au piratage, tutoriels, etc.) peut être nécessaire;
  • d’autre part, pour contourner les mesures de lutte contre le piratage, les internautes peuvent recourir à des DNS alternatifs ou des VPN, entre autres, ou encore optimiser leurs usages illicites au moyen de débrideurs qui permettent de disposer d’accès premium à de nombreuses plateformes d’hébergement à moindre coût. 


Des flux financiers croisés

L’analyse des flux économiques révèle les interactions qui lient les acteurs de l’écosystème illicite. De manière générale, pour les acteurs au cœur du système – hébergeurs et sites de référencement – on distingue trois principales sources de revenu: des recettes publicitaires dues à la monétisation de l’audience, des services payants à destination du consommateur illicite (la vente d’abonnements payants en téléchargement direct, par exemple) et, plus rarement, des recettes liées au minage de crypto-monnaie.

593 condamnations en justice en 2017-2018



L’Hadopi, instituée il y a 10 ans, a mis en place une "riposte graduée" contre le piratage (lettres d'avertissement avant sanction). En 2018, elle avait envoyé 1338334 premières recommandations, 131316 2es recommandations et fait 2959 constats de négligence caractérisée. Sur ces constats, 1031 ont été transmis au procureur de la République et 593 décisions de justice ont été prises...



Un résultat qui fait souvent s'interroger sur la pertinence de l'existence de la Hadopi.
Celle-ci se concentre sur les réseaux pair-à-pair (P2P), mais elle est largement démunie face aux autres technologies de piratage.

Les intermédiaires techniques, c'est quoi ?
Seedbox
Une seedbox est un serveur informatique privé dédié à l’émission et à la réception de fichiers. Les seedboxes utilisent en général le protocole pair à pair BitTorrent pour émettre et recevoir des données. Les seedboxes sont souvent proposées par des prestataires spécialisés et les utilisateurs se connectent à distance à leur seedbox pour y récupérer les contenus téléchargés ou pour y stocker des contenus à partager.
DNS
Le Domain Name System (DNS) est le système mis en place pour accéder à un site Internet grâce à son nom de domaine. Une adresse de type www.nomdedomaine.com est plus facile à retenir que l’adresse IP du serveur hébergeant le site en question (par exemple: 212.85.128.7). Le système DNS sert donc à convertir l’adresse www.nomdedomaine.com en 212.85.128.7. Ce service est généralement assuré par les FAI mais d’autres acteurs comme Google, Cloudflare ou Cisco, proposent aussi des DNS dits alternatifs.
VPN
Un Réseau Privé Virtuel, ou VPN pour Virtual Private Network en anglais, est un réseau privé construit au sein d’une infrastructure informatique publique. Un VPN permet que les échanges entre deux ordinateurs ou serveurs soient cryptés et ne soient pas lisibles par le reste du réseau, formant une sorte de tunnel sécurisé. En accédant par exemple à Internet via un VPN présent en Pologne, un internaute peut être perçu comme étant physiquement en Pologne – avec une adresse IP locale – alors qu'il est en réalité situé en France, déjouant ainsi d’éventuelles mesures de blocage locales.
Débrideur
Service permettant de contourner les limites imposées par certaines plateformes d'hébergement sur Internet, comme les limites de visionnage pour les sites de streaming et les limites de téléchargement pour les sites de téléchargement direct. Ces limites portent habituellement sur les débits de connexion, sur le nombre de contenus accessibles gratuitement, sur le volume de données ou sur la taille maximale des fichiers téléchargeables.
tv


La télévision sans la télévision. Tel pourrait être le titre de l'enquête annuelle "L'année TV 2018" rendue publique ce mercredi 23 ja,ver par Médiamétrie. La télévision, sans le téléviseur pour être plus juste car les Français consomment désormais les programmes sur quatre écrans :  téléviseur, ordinateur, smartphone et tablette.
"En 2017, nous notions déjà une convergence accrue des usages TV, internet et vidéo. Toujours en croissance, ces usages s’additionnent et se complètent. Mais la force du téléviseur ne se dément pas, il reste l’écran roi pour les téléspectateurs portés par une année 2018 de sport et d’actualité", explique  Julien Rosanvallon, Directeur Exécutif Télévision et Internet de Médiamétrie.

Le replay en hausse de 26%

Les nouveaux usages de la TV - le replay (télévision de rattrapage) et le visionnage de programmes sur les écrans internet – poursuivent leur progression. Chaque jour en 2018, plus de 7,2 millions de Français ont regardé des programmes TV en replay pendant plus d’une heure chacun (1h03). Un usage en croissance de 26% en deux ans, favorisé par la montée en puissance de la réception TV par fibre et ADSL.
Il est vrai que ces dernières années, les chaînes ont mieux structuré leur offre. TF1 a lancé MyTF1 qui regroupe les replay de toutes ses chaînes (TF1, TMC, TFX), idem pour M6 et France.tv. Face à un Netflix très conquérant, ces groupes historiques se sont alliés pour créer Salto, une plateforme unique toujours en développement.

L'ordinateur devient un écran clé

Les écrans internet contribuent aussi à cette évolution de l’audience TV avec aujourd’hui 40% de foyers équipés des 4 écrans (téléviseur, smartphone, ordinateur et tablette). Aussi, en 2018, 4,5 millions de Français ont regardé quotidiennement des programmes TV sur leur ordinateur, leur tablette ou leur smartphone pendant 1h16 chacun. Un usage en croissance de près de 30% en deux ans.

Les fictions ont le vent en poupe

Ces nouveaux modes de consommation des programmes TV bénéficient particulièrement aux fictions qui voient leurs audiences se renforcer grâce au replay et aux écrans internet. Ce genre dont les Français sont adeptes représente 50% de la consommation en replay tous écrans et 1/3 de la consommation de programmes sur internet. Preview, replay et écrans internet pèsent même pour plus des 2/3 dans l’audience de certaines séries. Des contenus qui se regardent à la carte et sur tous les écrans « En 2018 plus que jamais, les 4 écrans - téléviseur, ordinateur, smartphone et tablette - ont participé au développement du média et à l’expérience télévisuelle. Ils rassemblent chaque jour plus de 44 millions de téléspectateurs ».

Près de 4 heures de télévision chaque jour

Au quotidien, les Français regardent des programmes TV pendant 3 heures et 46 minutes, tous écrans et tous lieux confondus. A la faveur d’une année exceptionnelle et riche en événements sportifs et d’actualité, le téléviseur joue un rôle clé dans la robustesse du média. Il s’octroie 3 heures et 36 minutes du temps d’écoute quotidien des Français. Un chiffre en recul de 6 minutes en un an, mais en augmentation de 12 minutes sur 10 ans.
La TV continue d’être fortement ancrée dans le quotidien des Français : 60% d’entre eux la regardent au moins 4 soirs par semaine. Et ils ne sont pas moins nombreux qu’avant : quand le fameux pic d’audience touchait 24,1 millions de Français en 2008, il rassemble toujours aujourd’hui 23,9 millions de téléspectateurs à 21h29.



Coupe du monde et Gilets jaunes
Parmi les les audiences phares de l'année, Médiamétrie souligne l'importance de la Coupe du monde et des Gilets jaunes.
La Coupe du Monde de football  occupe à elle seule les 22 premières places du Top 50 des programmes de l’année. Elle a par ailleurs favorisé le rééquipement des foyers en TV high-tech : au 2ème trimestre 2018, à la veille de l’évènement sportif planétaire, 95% des équipés TV avaient un téléviseur HD et 66% possédaient une TV connectée. C’est 3,1 points de plus qu’un an auparavant. Le téléviseur reste ainsi l’équipement média le plus présent dans les foyers français.
Enfin, les Gilets jaunes ont eux aussi porté l’audience des chaînes en mobilisant 151 heures de programmes entre le 6 novembre et la fin de l’année
iot


Par Christophe da Fonseca, Sales Development Manager France chez Paessler AG

D’après les prévisions, il y aura plus de 75 milliards d’objets connectés en activité d’ici 2025, soit plus du triple par rapport à aujourd’hui. L’impact de l’IoT (Internet des Objets) dans nos vies et dans les entreprises s’annonce donc majeur, d'où l’importance primordiale de sécuriser les appareils et les flux de données qu’ils génèrent.

Les appareils connectés, et communiquant entre eux, prennent une place de plus en plus importante dans nos vies, qu’il s’agisse des lumières que l’on peut allumer avec son smartphone, des imprimantes qui commandent elles-mêmes un nouveau toner à remplacer ou encore des assistants virtuels qui activent la radio sur commande vocale. Ces derniers, qu’ils se nomment Siri, Alexa ou Google Home, font entrer les réseaux au cœur du quotidien des utilisateurs.

Comme pour la plupart des développements technologiques, l’impact de l’Internet of Things (IoT) suscite donc des inquiétudes, et à juste titre. S’incrustant chez nous, au travail et dans tous les autres aspects de notre vie, les appareils ont de plus en plus accès à nos informations les plus personnelles et les plus sensibles, dont des identifiants de connexion et des mots de passe.

L’IoT comporte également des risques pour les entreprises qui peuvent s’avérer encore plus graves que dans la sphère privée. En partageant des données sensibles avec des fournisseurs de services, comment en effet en garder le contrôle ? Des défaillances de sécurité amenant à des interruptions de processus opérationnels coûteront non seulement beaucoup d’argent, mais éroderont également la confiance des clients. Dans certains cas extrêmes, la survie même de l’entreprise peut être en jeu. Cela est d’autant plus vrai pour le secteur de l’industrie ayant recours à l’IIoT (Internet des Objets Industriel).

L’IT et les objets physiques : deux mondes se rencontrent


Des équipements IoT qui inspirent un sentiment élevé de sécurité restent encore de grandes exceptions Le problème n’est cependant pas spécifique à l’IoT dans la course à l’évolution technologique. Par exemple, l’airbag n’est apparu dans les voitures que lorsque celles-ci ont atteint un certain degré de maturité, et l’on pouvait tout de même compter sur elles pour rouler avant cela. Néanmoins, les erreurs commises peuvent avoir des conséquences fatales à ce niveau de maturité, et les premières heures de l’histoire des technologies sont pleines de catastrophes. De plus, comparativement à l’ancien monde analogique, un désastre IT peut aujourd’hui être beaucoup plus grave, à l’heure où tout est devenu connecté.

Dans le cas de l’Internet des Objets, il existe un problème fondamental : l’IoT unit deux domaines auparavant distincts, avec d’un côté l’IT en constante évolution et de l’autre des appareils et des objets industriels classiques. Au cours des dernières décennies, des processus fondamentalement différents se sont ainsi mis en place dans chacun des deux domaines. Un ordinateur portable vieux de 6 ans ou un iPhone âgé de 4 ans sont considérés dans le monde IT comme des modèles obsolètes qui doivent être remplacés le plus rapidement possible. En revanche, des composants industriels peuvent durer 20 à 25 ans.

Et l’obsolescence de l’IoT est encore plus forte pour le moment. Par exemple, le système de communication installé dans une turbine contrôlée par l’IoT sera obsolète bien avant que le système IT lui-même doivent être remplacé, et il paraît peu probable que des mises à jour soient proposées pendant toute la durée de sa vie opérationnelle. Et personne ne peut garantir que l'algorithme de chiffrement mis en œuvre dans une machine contrôlée par l'IoT sera toujours sécurisé dans 10 ou 20 ans. On peut en effet supposer que les principes de bases de la sécurité IoT auront changé d’ici là. Dès lors, comment faire face à cette situation problématique ?

Le facteur humain en question


Mais les problèmes ne s’arrêtent pas là, car le facteur humain vient s’y ajouter. Les collaborateurs impliqués dans l’installation, la maintenance et le contrôle des systèmes IoT dans les environnements industriels et commerciaux ne sont généralement pas des experts IT. En cas de défaillance d’une installation industrielle, il sera naturel pour un technicien de se focaliser sur sa technologie spécifique et en se basant sur sa formation et son expérience. Il recherchera donc un défaut des équipements sans soupçonner une cyber-attaque de l’installation. En cas de coupure de courant dans une grande entreprise, aucun gestionnaire de bâtiment ne songera à une éventuelle attaque de hackers.

Alors, par où commencer ? Comment les collaborateurs concernés peuvent-ils être formés de manière complète ? Doivent-ils suivre des cours de formation industrielle classique auxquels on ajoute des modules IT ? Ou faut-il permettre aux experts IT et aux administrateurs systèmes d’être formés à l’avance en fonction des besoins de l’industrie ?

Il n’est ainsi pas difficile d’imaginer des scénarios catastrophes, d’autant plus que l’IoT s’impose également dans des infrastructures très sensibles, comme dans le secteur de la santé ou de l’énergie. On estime que près d’un tiers de toutes les machines dans l’industrie sont désormais « intelligentes », avec a priori la capacité de communiquer. Il s’agit donc non seulement de veiller à ce que les machines soient sécurisées, mais aussi à ce que les humains disposent d’un niveau de conscience et de compétence suffisant au sujet des capacités des machines, afin d’évaluer correctement les risques liés à la sécurité.

L’IoT est une porte d’entrée pour de nombreuses menaces


L’IoT connecte des systèmes techniques (de production) et parfois aussi des pièces mécaniques/électroniques ou même des matières premières, avec le Web, via des interfaces de communication normalisées. Cela ouvre la possibilité de superviser et de contrôler les appareils et les flux pour les utilisateurs autorisés, mais aussi d’offrir un accès à des personnes malveillantes si le système IoT est mal sécurisé.

Ces dernières peuvent ainsi collecter des informations sur les systèmes, en prendre le contrôle et pourquoi pas déclencher des dysfonctionnements. Dans certains cas, les cyber-criminels ont juste besoin d’avoir accès à un mot de passe pour y parvenir, ce qui est plutôt facile. On peut dès lors envisager des scénarios de menace de type espionnage industriel, dans lesquels les hackers deviennent des instruments contre les concurrents de leurs donneurs d’ordre.

Beaucoup de questions se posent, mais peu de réponses émergent pour le moment, car il est difficile de progresser dans ce domaine encore très jeune et de convaincre avec des propositions réalisables. Il n’existe effectivement que très peu de zones de tests empiriques actuellement. En attendant une plus grande maturité technologique de l’IoT, avoir recours à la supervision permet d’obtenir une visibilité complète de l’ensemble du réseau, ce qui peut fortement contribuer à sa sécurité.



File 20190117 32810 s1lfvx.jpg?ixlib=rb 1.1
Loin de se résumer à des grilles théoriques, l'éducation aux médias repose sur de nombreuses mises en situation. Shutterstock
Par Laurence Corroy, Université Sorbonne Nouvelle, Paris 3 – USPC


Apprendre aux élèves à identifier les sources d’une information, à repérer une vidéo truquée, ou leur faire découvrir le processus de fabrication d’un journal : autant d’actions liées à cette éducation aux médias dont les responsables politiques et le grand public se préoccupent de plus en plus alors que l’actualité s’accélère et que les « fake news » déferlent sur Internet. Mais que recouvre vraiment cette éducation ? Quels en sont les fondements ?
C’est dans la seconde moitié du XXe siècle qu’elle s’est progressivement formalisée. Après avoir expérimenté l’éducation par les médias, en se servant d’articles ou reportages vidéo comme supports pédagogiques, afin d’illustrer les disciplines enseignées, les enseignants ont pris la mesure de la nécessité d’étudier les médias pour eux-mêmes. Les rencontres internationales sous l’égide de l’Unesco ont dans un premier temps cherché à la définir, à encourager la recherche scientifique de ce nouveau champ et à convaincre les décideurs de son importance.
Lors d’un symposium organisé en 1982, une déclaration des pays représentés acte le fait que les médias représentent un élément important de la culture contemporaine et que leur fonction instrumentale, visant à favoriser la participation active des citoyens, est à prendre en compte. Un appel est alors lancé pour développer des programmes permettant de comprendre et d’analyser les phénomènes de communication, du premier degré au supérieur.

Des compétences civiques et techniques

Bouleversant le rapport au savoir et à l’information, l’arrivée d’Internet fait naître de nouvelles inquiétudes. Saisis par l’urgence de penser l’éducation aux médias alors que la société bascule vers le numérique, le Conseil de l’Europe et la commission européenne ont multiplié depuis une quinzaine d’années les recommandations à leurs États membres afin que chaque pays introduise l’éducation aux médias dans son cursus scolaire.
L’Union européenne la définit comme
« une expression étendue qui englobe toutes les capacités techniques, cognitives, sociales, civiques et créatives qui permettent à tout citoyen d’avoir accès aux médias, de faire preuve d’esprit critique à leur égard et d’interagir avec eux ».
En France, elle est présente depuis 2006 dans le socle commun des connaissances que tous les élèves sont censés maîtriser à la fin du collège. Inscrite dans la loi de refondation de l’école en juillet 2013, elle se voit assigner comme objectif
« de permettre aux élèves d’exercer leur citoyenneté dans une société de l’information et de la communication, former des “cybercitoyens” actifs, éclairés et responsables de demain ».
Elle est présente dans le parcours citoyen, avec l’enjeu « d’apprendre aux élèves à lire, à décrypter l’information et l’image, à aiguiser leur esprit critique, à se forger une opinion, compétences essentielles pour exercer une citoyenneté éclairée et responsable en démocratie ».
Elle apparaît aussi en pointillés dans les cinq domaines du nouveau socle commun des connaissances mis en application en septembre 2016. L’élève doit connaître les principes de base des algorithmes et les fins des langages informatiques. Il est aussi question du traitement de l’information et sa hiérarchisation, le fonctionnement des médias et de leurs enjeux, la production de contenus, la culture numérique, la gestion éthique des réseaux sociaux et de l’identité numérique…

Des attentes importantes

L’enjeu paraît d’autant plus crucial que la fréquentation assidue par les jeunes des médias de masse inquiète tout autant qu’elle intéresse une pluralité d’acteurs aux intérêts divergents. Les médias de masse étant devenus incontournables dans les pratiques culturelles des jeunes générations, il existe un large consensus pour que l’école s’y intéresse, en proposant leur étude : ce qu’ils sont, les messages qu’ils véhiculent, le système marchand dans lequel ils s’insèrent…
Pour autant, le choix de faire de l’éducation aux médias un enseignement transversal peut la fragiliser car cela repose largement sur l’engagement des enseignants qui n’ont pas obligatoirement reçu un enseignement spécifique et peuvent se sentir démunis ou insuffisamment formés. L’attente est immense lorsqu’il s’agit de trouver les mots en face d’élèves traumatisés, tout en gérant ses propres émotions, à chaud, lors d’événements dramatiques qui déchirent le temps social et médiatique.
La recherche française, pourtant active, souffre d’un manque cruel de postes de professeurs en université, ce qui freine la formation de jeunes doctorants.
Enfin, l’éducation aux médias, par sa volonté de forger l’esprit critique des élèves, est parfois mise en question : elle pourrait même, dit-on, contribuer à faire douter de tout. La tentation serait alors, pour les plus jeunes, de mettre au même niveau les sources journalistiques et les théories du complot qui circulent sur le Net.

« Learning by doing »

Pour éviter ce dernier écueil, il est crucial d’allier dans les classes l’analyse des messages médiatiques à une pratique créative, de la maternelle à l’université. C’est en manipulant textes et images, en réalisant des journaux, des expositions, des reportages, ou des blogs que les élèves vont comprendre les contraintes techniques et les exigences éthiques qui accompagnent tout travail médiatique de qualité.

Faire réaliser un journal aux élèves les sensibilise aux contraintes de l’information.

Le piège ouvert par le concept des « digital natives » est de penser que les nouvelles générations des élèves se forment sans difficulté au cybermonde. Elles ont, en réalité, besoin d’un accompagnement de fond que seule l’école peut leur apporter.
L’éducation aux médias se pose comme une éducation totale au sens de Rousseau, car elle cherche avant tout à faire des êtres libres. Capables d’exercer leur esprit critique face à tous les messages médiatiques… Il est temps que les pouvoirs publics en prennent toute la mesure.The Conversation

Certains collèges organisent même des journaux télévisés “grandeur nature”.

Laurence Corroy, maître de conférences HDR, Université Sorbonne Nouvelle, Paris 3 – USPC
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
email


Tribune de Paul Gillet, Directeur de l'agence MilleSoixanteQuatre


Les conflits générationnels au sein des services de communication n’ont jamais été aussi forts. Alors que quelques dinosaures du service com croient encore que les outils du crétacé supérieur tels que les emailings ont toutes leurs chances, oui il y en a encore, d’autres s’escriment dans une lutte darwinienne pour repenser les newsletters.

Darwin et Lamarck n’ont qu’à bien se tenir, des communicants new gen insufflent des newsletters nouvelle génération aux formats variés et au ton décalé, nouveaux moteurs des stratégies de leads génération pour les entreprises.

Génération spam 


Star des campagnes B2B, la newsletter est la dernière représentante d’une ère où le mailing est roi. Si elle a su se faire une place de choix dans le grand jeu évolutionniste des outils de communication au début des années 2000, elle ne doit pas être identifiée aux pushs publicitaires qui pullulent dans nos spams. Et pourtant…

Souvent bâclée par ses expéditeurs, elle se caractérise encore à coups de titres déceptifs et de contenus mal optimisés là où elle devrait être synonyme de pertinence, de valeur et de créativité. Dans ce canal qui a très vite été saturé, se démarquer est la clé : la qualité est le seul critère différenciant.

Le RGPD change la donne


En marge des problématiques de contenu, reste celle de l’attractivité. Depuis mai 2018, le RGPD rend désormais obligatoire de recueillir le consentement explicite des destinataires avant de les inscrire dans sa base de données. Histoire d’enterrer ces mailings-spam dont on ne peut jamais se désabonner ?

Aujourd’hui, les seuls contenus reçus sont donc ceux qui ont été explicitement demandés. Si le règlement replace le consommateur au cœur des problématiques des marques, la conséquence est immédiate : pour être en conformité, et pour continuer à toucher sa cible – voire pour finir par réellement la toucher – il n’y a plus d’autre choix que de proposer un contenu de qualité, aussi léché que goûtu, singulier et nécessairement pertinent.

« Content is king »


Comment ? Organiser le push des contenus, créés par de nombreuses marques auprès d’une communauté sous la forme d’une newsletter, permet de thématiser les prises de parole. Sous la partie émergée de l’iceberg se cache donc une véritable mine d’or : un levier nouvelle génération pour fidéliser son audience en proposant des contenus spécifiquement pensés pour séduire par l’image, l’expertise et la pertinence.

Cette transition, déjà réalisée par des acteurs B2C, est la direction que doit prendre le B2B au niveau digital. En façonnant un newsmag au croisement de leur identité et des attentes de leur audience, les marques se positionnent alors sur le territoire du owned et redonnent toute leur valeur à l’emailing lorsqu’il est adossé à une stratégie de content marketing.

Aujourd’hui, alors que le contenu de marque prédomine à coups de brand content et de brand advocacy, la newsletter permet de s’exprimer d’une seule voix, en transformant ce format fossilisé en un levier attractif et fidélisant. Has-been la newsletter ? Seulement pour ceux qui n’ont pas (encore) pris ce virage !

De la même manière que le TGV Magazine a redéfini les mags d’entreprise, le B2B doit réinventer ses newsletters pour coller à des codes marketing plus contemporains. Désormais, le design est roi, la pertinence est cruciale, et la qualité, indispensable. Ensemble, ils forment le socle d’une génération de leads 2.0 où tout le monde sort gagnant.
smartphone


A l'occasion de la Journée Mondiale de la Protection des Données – 28 janvier - , la SMEREP, via son enquête annuelle en collaboration avec OpinionWay, a tenu à mettre en avant le numérique et en particulier le ressenti des étudiants par rapport à la protection de leurs données personnelles.

37% des étudiants utilisent une application bien-être/santé et 13% une application médicale, et 50% d'entre eux ne sont pas confiants dans la protection de leurs données personnelles par les applications qui utilisent, dont 15% ne se disent pas du tout confiant.

« Le numérique prend aujourd'hui une place prépondérante dans la vie des étudiants, et la question de la protection des données personnelles a été l'un des grands sujets de 2018 et continuera à l'être en 2019. Ainsi, il nous parait indispensable d'intégrer les problématiques liées au numérique à des réflexions sociétales plus globales dans le but de sensibiliser, d'éduquer les jeunes et la sphère éducative sur les bonnes pratiques liées au digital. » d'Hadrien Le Roux, Président de la SMEREP.
fake review


A côté des fake news, les fausses informations qui minentle débat public, existent les fake reviews, les faux avis postés sur des sites d'e-commerce ou des comparateurs bien installés comme Tripadvisor.

Enquêtes menées par la DGCCRF

Ces faux avis font d'ailleurs l'objet d'un véritable business étant donné que 80% des acheteurs en ligne tiennent compte des avis postés avant de réaliser leur achat. Depuis 2010, les enquêtes menées par la DGCCRF relèvent des pratiques commerciales trompeuses récurrentes qui nuisent aux consommateurs (dont le choix a été faussé) et aux professionnels (dont les produits subissent une concurrence déloyale).

Fermes à clics et robots

Les plateforme comme Tripadvisor, Booking.com, Yelp ou Google luttent contre ces faux avis mais la tâche de modération est difficile et coûteuse face aux "fermes à clics" installées en Asie, en Afrique du Sud ou en Amérique Latine, qui utilisent des robots de publication automatique.
Les choses pourtant sont en train de changer. Le Parlement européen vient d’adopter à une large majorité (37 pour, 1 contre, 1 abstention) sa position sur le paquet législatif réformant certains aspect du droit des consommateurs en Europe qui va permettre à ces derniers de mieux être protégés lorsqu’ils font des achats sur Internet. Les faux avis de clients seront désormais repérables.

"Responsabiliser les plateformes"

"Les avis clients sur les sites marchands sont lus avant 85% des réservations d’hôtel et 62% des réservations de restaurants. Dans ce contexte, il est essentiel de responsabiliser les plateformes en ligne sur la transparence en matière de vérification des avis clients. En tant que présidente du Comité régional du tourisme (CRT) Occitanie, je suis régulièrement alertée sur l’impact des avis frauduleux sur les réservations » rappelle l’eurodéputée (Les Radicaux de Gauchee) Virginie Rozière.
"Je me félicite que le Parlement européen ait décidé d’imposer aux plateformes en ligne de mentionner clairement l’existence ou non d’un contrôle des avis et les caractéristiques de ce contrôle. Les consommateurs se trouveront ainsi informés de la fiabilité des informations mises à leur disposition. Cette mesure de responsabilisation des plateformes est nécessaire pour protéger les entrepreneurs, les entreprises et les consommateurs" estime l'eurodéputée.
internet


La députée européenne (Les Radicaux de gauche) Virginie Rozière ne mâche pas ses mots pour dénoncer l'attitude des géants du web qui veulent torpiller la directive européenne instituant des droits voisins pour la presse et les éditeurs.

Deux articles pour défendre la presse et les éditeurs

Pour rappel, l'article 11, a introduit un «droit voisin» qui permettra aux journaux, aux magazines et aux agences de presse, d'être rémunérés lorsque leurs articles sont republiés en ligne, notamment par les géants du numérique comme Google et son service d'agrégation d'articles GoogleNews.

L'article 13, quant à lui, prévoit d'obliger les plateformes (YouTube, etc.) à filtrer automatiquement les contenus mis en ligne a priori, c'est-à-dire avant même qu'ils ne soient visibles par les autres internautes. Actuellement, la suppression des contenus qui enfreignent les droits des ayants droit se fait a posteriori après signalement ; une jurisprudence qui date de 2000.

Les géants du net sont évidemment contre ces deux articles.

Des Etats membres sensibles aux opérations de lobbying des géants du net

Alors qu’un trilogue sur les droits d'auteurs devait avoir lieu ce lundi 21 janvier, celui-ci a été annulé, faute d’accord des États membres. Depuis quelques jours, en effet, une dizaine d'Etats émettent des réserves sur la directive adoptée en fin d'année dernière après une intense bataille parlementaire marquée par des opérations de lobbying rarement vues jusqu'à présent.

"Depuis quelques mois, les géants du web, notamment Google et YouTube ont lancé une grande campagne de désinformation sur les droits d’auteur. Nous ne sommes pas naïfs, cette campagne a pesé dans la balance, dans le désaccord des États membres", estime Virginie Rozière, faisant référence à une campagne de YouTube (propriété de Google) sur l'article 13 ou de Google.

"Une campagne de désinformation sur la mort d'internet"

Les GAFA utilisent tous les moyens d’action pour peser sur le Parlement européen. « En tentant de faire croire que certains contenus vont disparaitre ou que les internautes ne pourront plus parodier certaines oeuvres, Google et YouTube mentent pour exercer un pouvoir d’influence sur l’opinion publique" explique Virginie Rozière. "YouTube et Google mènent une campagne de désinformation et de manipulation, les députés européens ont reçu des dizaines de milliers de messages en provenance des Etats-Unis pour annoncer la mort d’Internet si nous votions ce texte » raconte la Députée européenne.


"Tout travail mérite salaire"

Si YouTube place des publicités, collecte des données, fait des bénéfices énormes qu’il conserve, "nous avons besoin d’un principe qui dit qu’à partir du moment où de la richesse est créée en exploitant une œuvre, une partie des bénéfices doit être reversée au créateur de celle-ci. Tout travail mérite salaire. Nous ne devons pas laisser les GAFA imposer leurs règles en Europe, nous devons protéger la culture et ses créateurs ».

Les représentants des États membres ont maintenant jusqu’à la fin du mois de février pour valider une nouvelle version du texte.
news


Par Mickaël Réault, dirigeant-fondateur de Sindup

Indispensable au bon fonctionnement de nos sociétés et à leur compréhension, l'information est également un produit de consommation. Inscrite dans un marché de l'offre et de la demande, elle s'éloigne parfois de son but premier pour détourner l'attention de consommateurs de plus en plus demandeurs de contenus sensationnels. Réussir à bien s'informer est devenu aussi compliqué que bien manger. Pour parvenir à maitriser la complexité du monde dans lequel on vit, les sciences de l'information vont devoir être vulgarisées et généralisées pour faire converger consommateur et producteurs vers une information plus saine.

« Pour votre santé mentale, prenez du recul : informez-vous avec modération. » Verra-t-on un jour ce type de mention légale figurer sur nos différents canaux ? Chaines d'informations en continue, blogs, emails, réseaux sociaux et messageries (Twitter, Linkedin, Facebook, Twitch, Snapchat, WhatsApp, etc.) auront-ils ainsi le devoir de sensibiliser leur public du danger potentiel qu'ils peuvent représenter ? Il est en effet aujourd'hui indiscutable que, propulsée à haute dose, multiforme et associée à toute une série d'alertes et autres notifications, l'information joue avec notre cerveau et pas toujours de la meilleure des façons. Junk information, déferlante, etc. la question du volume est moins nouvelle que celle de son impact amplifié depuis l'arrivée des smartphones. Selon le Docteur Kardaras, expert américain en addictologie, avec leurs applications à base d'alertes et de récompenses aléatoires les smartphones sont devenus une véritable pompe à dopamine. Ce neuromédiateur du plaisir procure, lorsqu'il est libéré par nos neurones, une sensation de bien-être et d'accoutumance à l'image du sucre consommé, pour le plaisir, en grande quantité dans notre alimentation malgré ses effets catastrophiques sur la santé. La conséquence biologique directe est la mise en sommeil du cortex préfrontal réfléchi et raisonné pour stimuler, là encore, la dopamine. Si on ajoute à cela le manque de temps, on se retrouve avec une grande partie du volume d'informations immédiates consommées comme dans un fast-food. Derrière c'est la création d'une véritable dépendance. On parle désormais de « News Addict ».

Résister au tsunami informationnel

Pourtant, face aux transformations, nombreuses et majeures qui opèrent et vont s'amplifier ces prochaines années, l'information joue plus que jamais un rôle prédominant. Dans un contexte où chaque individu subit une sorte d'écartèlement informationnel horizontal par le nombre de sujets à suivre et vertical, par le volume, chacun doit pourtant parvenir à assimiler les changements d'un monde complexe pour se projeter :

Quelle sera ma place dans la société de demain ?
Quelles sont les compétences à acquérir ?
Comment repenser mon business model ?

Désorientés, déstabilisés par le fait que tout soit remis en cause (définition et sens du travail, de la famille, des croyances, impacts technologiques et climatiques) beaucoup se sentent emportés par un tsunami qui requerrait un temps considérable pour tout lire et tout assimiler. En 2011, dans son ouvrage intitulé « A-t-on encore besoin des journalistes ? Manifeste pour un « journalisme augmenté », Eric Scherer, Directeur de la Prospective France Télévision écrivait déjà que « Le pouvoir des journalistes sera moins dans la production d'information que dans une mission indispensable de filtre du tsunami informationnel mondial ». Quand on sait que l'humanité produit aujourd'hui autant d'information en deux jours qu'elle ne l'a fait en deux millions d'années, les risques de manipulation et, in fine, de mise en danger de nos démocraties sont démultipliés. Il apparait urgent de se mettre en ordre de marche pour parvenir à naviguer dans les eaux complexes de la décennie à venir. Pour autant nous disposons de moins en moins de temps pour nous informer et ce temps disponible est trop souvent inondé par des informations à faible valeur ajoutée.

Solliciter l'IA comme Auxiliaire d'Information ?

Pour l'humain, de façon générale, vient s'ajouter une forme de compétition avec l'intelligence artificielle et cette crainte d'être dépassé. Paradoxalement, pour être en mesure de maitriser la complexité du monde dans lequel on vit et la difficulté d'être bien informé, l'IA peut devenir un véritable allié. Conscients du risque de laisser progressivement une machine penser à notre place, certains, comme Joël de Rosnay, auteur de « La symphonie du vivant », préfèrent parler d'IA en termes d'Intelligence Auxiliaire.
Citigroup, par exemple, explore actuellement l'utilisation de Watson d'IBM pour gérer la masse de publications financières, comme les 9 000 pages de données produites quotidiennement par l'agence Reuters. Dans cet esprit, l'IA pourrait même être envisagée pour dépister les Fake News. Il faudra malgré tout apprendre à déjouer nos propres biais cognitifs en connaissant leurs mécaniques mentales pour sortir de nos bulles de valeurs et de croyances. Il s'agit là d'une première étape pour contrecarrer les techniques d'influence et de manipulation qui cherchent à tromper notre cerveau. Pour Etienne Klein, physicien et philosophe des sciences, « nous préférons le bien-être à la vérité : plutôt que d'aimer la vérité parce qu'elle est la vérité, nous déclarons vraies les idées que nous aimons. Qu'elles soient vraies ou fausses, peu nous importe : nous voulons simplement qu'elles nous fassent du bien à l'âme. »

Adopter une hygiène mentale face à l'information

Il est urgent de nous interroger sur le temps dont nous disposons pour nous informer et ce que nous en faisons. Se laisse-t-on porter par ce flot de communication subit ou savons-nous en tirer parti ? Etienne Klein compare cette déferlante, lorsqu'elle est subie, à une crise épileptique durant laquelle chaque neurone échange avec tous les autres des informations à faible valeur ajoutée, alors qu'en temps normal, un neurone ne communique de l'information pertinente qu'à 10 000 autres neurones maximum. Il faut s'inviter collectivement et individuellement à poser des bases solides pour maitriser la manière dont nous souhaitons nous informer. Avec quoi nous voulons nourrir notre cerveau et quelles démarches mettre en place pour atteindre nos différents objectifs : évolution ou réorientation professionnelle, définition de la stratégie d'une entreprise, choix politiques, appropriation des nouvelles technologies, anticipation des transformations générant risques et opportunités, etc. Pour cela, il existe des techniques issues des sciences de l'information et des outils pour se mettre en ordre de marche. Mais la prise de conscience et la volonté restent les clés principales. Pour bien utiliser les outils, il faut d'abord s'intéresser aux fondamentaux, développer les bons réflexes, définir ses objectifs et démocratiser les sciences de l'information pour rendre l'humain plus résiliant. Il est urgent de former et d'enseigner les bons réflexes dans les écoles, lycées, entreprises, etc. Comment devenir citoyen d'une société qu'on ne comprendrait pas ? En ce sens, au niveau de l'éducation, les sciences de l'information doivent s'inviter dans les écoles dès le plus jeune âge. A ce titre l'association d'origine québécquoise, « Les petits débrouillards » est un bon exemple du genre. Egalement implantée et très active en France, cette association sensibilise aux sciences dans les établissements sur les temps extra scolaires grâce à un réseau de 2 000 bénévoles, 700 000 enfants et jeunes bénéficient chaque année de ces activités. Les sciences de l'information y sont notamment abordées de manière ludique pour apprendre à déjouer les biais cognitifs, les fake news et autres techniques de manipulation.

Contribuons aux #NewsForGood !

Alors, dans un contexte où la tendance est au bien manger et à la valorisation d'une hygiène de vie plus saine, nous pourrions tout naturellement imaginer que le renforcement et l'entretien de notre esprit critique et prospectif aille également de soi. Tout comme les nouvelles technologies ont récemment eu leur sommet « Tech For Good » pour miser sur leurs bienfaits, initions une démarche « News For Good » pour encourager l'information positive à valeur ajoutée et qualifiée. Comme nous l'avons constaté avec l'hygiène alimentaire, quand les consommateurs prennent conscience et modifient leurs comportements, alors les industriels s'adaptent pour répondre à la demande. Il en va de même pour les médias, apprenons d'abord à aimer bien s'informer et la qualité des informations produites n'en sera que meilleure. En favorisant, par exemple, la prise de recul et les bonnes nouvelles, nous pourrions enfin sortir de la boucle infernale des informations négatives à faible valeur ajoutée pour retrouver l'optimisme, stimuler l'envie d'agir et saisir les nombreuses opportunités qui s'offrent à chacun d'entre nous ! Trois ans après le succès de son documentaire « Demain », Cyril Dion vient d'ailleurs de diffuser la suite « Après demain » montrant l'impact significatif que peuvent avoir les News For Good. Individuellement et collectivement, remettons en question notre façon de s'informer et soyons exigeants ! Comme le disait sagement Gandhi : « Vous devez être le changement que vous voulez voir dans ce monde. »