La Fédération Française des Télécoms (qui regroupe les opérateurs Bouygues Telecoms, Orange, SFR...) et ses partenaires, le Centre Pompidou, Radio France et Télérama remettront ce vendredi 20 septembre à 10 heures, à la veille des Journées du Patrimoine, les prix telecoms innovations. Cette année, en effet, le thème porte sur l'accès à la culture et au patrimoine par le numérique.

La marraine de cette édition 2019 des prix telecoms innovations est Paula Forteza, députée des Français de l’étranger et spécialiste du numérique.

Application pour mettre en valeur le patrimoine local


L'un des quatre projets récompensés cette année est la start-up toulousaine GranaQuest, une application d'escape game basée sur la réalité virtuelle permettant de mettre en valeur la culture et le patrimoine des collectivités locales. "L'escapegame est partout, mais avec GranaQuest, il n'a jamais été aussi intelligent et spectaculaire, le tout au service des villes et villages", assure Arthur Dreyfuss, président de la FFTélécoms.

Concrètement "au cours d’une partie durant généralement de 1 à 2h, les joueurs sont plongés dans une véritable aventure en équipe, durant laquelle ils doivent résoudre des énigmes en se basant sur la seule réflexion associée à l’observation de l’environnement immédiat et l’usage de la réalité augmentée", explique la start-up.

"Le fil conducteur entre toutes les quêtes est la récupération en fin de partie d’un des Granas ; pierres magiques disparues au fil des siècles. Le financement de GranaQuest est assuré, soit par des parties payées directement par le consommateur final, soit par des contrats avec les communautés d’agglomération."

Les deux fondateurs ambitionnent d’occuper une place inédite à mi-chemin entre l’espace game, le géocaching et le e-tourisme.
Dans le métro. Photo by Martin Adams on Unsplash
Par Luc Rocher, Université catholique de Louvain


Téléphones, ordinateurs, cartes de crédit, dossiers médicaux, montres connectées, ou encore assistants virtuels : chaque instant de nos vies – en ligne et hors ligne – produit des données personnelles, collectées et partagées à grande échelle. Nos comportements, nos modes de vie, s’y lisent facilement. Mais faut-il s’en inquiéter ? Après tout, ces données qui nous révèlent sont souvent anonymisées par les organismes qui les collectent. C’est du moins ce que l’on peut lire sur leurs sites. Leur travail est-il efficace ? Et les données anonymes le sont-elles vraiment ? Dans notre dernier article publié dans la revue Nature Communications, nous développons une méthode mathématique qui montre que c’est loin d’être acquis. Elle a pu nous amener à réidentifier des individus parmi des bases de données anonymes et fortement échantillonnées, remettant en question les outils utilisés actuellement pour partager les données personnelles à travers le monde.

Traitement d’échantillons viraux. Les données personnelles de santé sont parmi les plus sensibles. James Gathany/CDC

Matière première

D’abord, quelques ordres de grandeur. Ces dix dernières années, nos données personnelles ont été collectées à une vitesse inégalée : 90 % de celles circulant sur Internet ont été créées il y a moins de deux ans ! Objets connectés, informations médicales ou financières, réseaux sociaux, ces données sont la matière première de l’économie numérique comme de la recherche scientifique moderne. Mais, très vite, on a vu apparaître certaines dérives. Notamment les atteintes à la vie privée qui se sont multipliées. Témoin, parmi de nombreuses affaires, le scandale Cambridge Analytica… Depuis, 80 % des Européen·ne·s estiment avoir perdu le contrôle sur leurs données.
En réponse, les compagnies et organismes qui les collectent affirment souvent qu’elles le sont de manière « anonyme ». Par exemple, la société Transport for London (TfL), en charge du métro londonien, a entrepris de surveiller les déplacements des passagers sur le réseau via les signaux wifi « anonymes » de leurs téléphones portables. En Belgique, plus de 15 hôpitaux revendent les données confidentielles de leurs patients à une multinationale, Quintiles IMS, sous couvert d’anonymat. Enfin, en France, Orange et SFR ont revendu des données de géolocalisation en temps réel ou en différé, données là encore « anonymisées ».
Point intéressant, une donnée anonyme n’est plus considérée comme donnée personnelle. Elle échappe donc aux régimes de protection comme le RGPD en Europe. Partager des données personnelles anonymisées ne nécessite donc plus le consentement des participant·e·s… Puisqu’ils et elles sont anonymes !

Ré-identification

Or, des chercheur·e·s et journalistes ont depuis longtemps montré que certaines données anonymes peuvent être ré-identifiées. Dans les années 1990, Latanya Sweeney avait pu ré-identifier les données médicales de William Weld (alors gouverneur du Massachusetts), sur base de son code postal, sa date de naissance et son genre. Deux journalistes allemands ont récemment ré-identifié l’historique de navigation d’un juge et d’un député, retrouvant leurs préférences sexuelles et leurs traitements médicaux dans des données anonymes obtenues en se faisant passer pour des acheteurs potentiels. Et, aux États-Unis, les dossiers fiscaux du président américain Trump ont pu lui être ré-attribués par le New York Times en utilisant des données anonymes publiées par le fisc américain, l’IRS.
Compagnies et gouvernements minimisent souvent ces ré-identifications. Leur ligne de défense : parmi des petites bases de données, toujours incomplètes, personne ne saura jamais si une ré-identification est correcte ou non et si des chercheur·e·s ou journalistes ont vraiment réidentifié la bonne personne.

Un guide pour protéger les données en Australie. Australian Government, CC BY

Cela implique que l’organisme collecteur fasse un travail dit d’échantillonage sur la base de données. Ainsi, l’autorité de protection des données australienne [OAIC], suggère dans son guide de dés-identification que l’échantillonnage augmente « l’incertitude qu’une personne particulière fasse réellement partie d’une base de données anonyme ». Prenons un exemple pour expliquer cela. Admettons que votre employeur retrouve des données vous correspondant dans un échantillon de 10 000 patients, soit 1 % d’une large base de données médicales. Ces données – comprenant par exemple votre lieu et date de naissance, genre, status marital, etc. – pourraient bien appartenir à une autre personne qui partage ces caractéristiques. Car cette base de données de 10 000 personnes ne représente que 0,015 % de la population française. Et ces données réidentifiées pourraient correspondre à n’importe quelle autre personne parmi les 99,985 % autres Français·e·s.
Échantillonner (partager par exemple 1 % d’une base de données) est ainsi une technique largement utilisée. Réduire la taille des données partagées permet de justifier que ces données sont anonymes, car personne ne pourra jamais prouver qu’une ré-identification est correcte.

Un algorithme qui remet en question l’anonymat

Le problème ? Nos travaux démontrent au contraire qu’un algorithme peut apprendre à estimer, avec grande précision, si des données réidentifiées appartiennent bien à la bonne personne ou non.
Il y a bien entendu, si c’est en France, de nombreux hommes trentenaires, habitant à Paris. Si je retrouve un seul homme de 30 ans parmi les données anonymes de 1 000 personnes, collectées et revendues par un cabinet d’assurance parisien, il y a peu de chance qu’elles correspondent à mon voisin Émeric. Les données correspondant à ces trois attributs (homme, 30 ans, habitant à Paris) seront sans doute celles d’un autre Français.
Mais au fur et à mesure que ces données s’enrichissent, qu’on apprend davantage de caractéristiques, il devient illusoire qu’une seconde personne ait les mêmes caractéristiques. Il y a ainsi sans doute un seul homme à Paris, né le 5 janvier 1989, roulant en vélo électrique et habitant avec ses deux enfants (deux filles) et un berger allemand : mon voisin Émeric.
Après avoir « appris » quelles caractéristiques rendent les individus uniques, notre algorithme génère des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes. Le modèle développé permettrait par exemple aux journalistes du New York Times de savoir à coup sûr si les dossiers identifiés appartenaient vraiment à Donald Trump.
Nos résultats montrent que 99,98 % des Américains seraient correctement ré-identifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques. Les chiffres sont similaires à travers le monde (16 attributs en ajoutant la nationalité). Une quinzaine de caractéristiques qui suffisent à identifier un individu, ce n’est hélas pas beaucoup. Le « data broker » Acxiom, un courtier de données qui achète et qui revend nos données personnelles dans 60 pays, possède par exemple jusqu’à 5,000 attributs par personne.
Nos travaux remettent ainsi en question les pratiques actuelles utilisées pour dés-identifier des données personnelles. Cela interroge sur les limites de l’anonymisation : utiliser ainsi ces données protège-t-il toujours notre vie privée ? Alors que les standards d’anonymisation sont en passe d’être redéfinis par les pouvoirs publics, au niveau national et au sein de l’Union européenne, il est crucial pour ces standards d’être rigoureux, de promouvoir de meilleures méthodes de partage des données, et de prendre en compte tout risque futur. C’est à la fois important pour nos vies privées, pour la croissance de l’économie numérique et pour le dynamisme de la recherche scientifique.The Conversation

Luc Rocher, Doctorant, ingénierie mathématique, Université catholique de Louvain
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.



« A bientot : le Musee de l'avenir », Baker, Nevada. Leighton Walter Kille/TCF, CC BY-ND
Par Francis Eustache, Institut national de la santé et de la recherche médicale (Inserm)


Internet nous ferait-il perdre la tête ? Notre fonctionnement neurocognitif et, partant, nos comportements et nos pratiques sociales, est grandement impacté par les nouvelles technologies de l’information et de la communication. Un exemple parmi de nombreux autres : La perte de concentration résultant des sollicitations incessantes de nos téléphones portables et connectés, à grand renfort d’alertes, sonneries, émoticons, images animées… Quant aux conséquences sur la structure et le fonctionnement du cerveau, les travaux publiés sont moins consensuels. Pourtant, une réduction de l’épaisseur corticale dans les régions frontales a été montrée chez des enfants de 10/12 ans qui passaient 8 à 10 heures par jour devant des écrans.
Je souhaite ici traiter des conséquences que peut avoir l’usage de ces nouvelles technologies sur la mémoire en m’appuyant sur des publications récentes : The « online brain » : how the Internet may be changing our cognition un article de synthèse paru dans Word Psychiatry ; ainsi que deux ouvrages dont j’ai coordonné la publication. Avec mes collègues, nous insistons sur une composante de la mémoire, appelée « mémoire du futur », ou pensée épisodique future, qui nous permet de nous projeter dans le futur et contribue à notre créativité et à nos prises de décisions.
Pour commencer, soulignons qu’il est difficile d’étudier les effets des technologies numériques sur les cerveaux car les études qui en mesurent l’impact sur le fonctionnement neurocognitif et mnésique sont encore peu nombreuses. Il est en particulier compliqué d’examiner les choses à grande échelle en faisant des comparaisons de populations, puisque les groupes qui échappent à l’emprise d’Internet sont extrêmement peu nombreux dans le monde.
Et pourtant, l’état de nos cerveaux au regard de l’utilisation effrénée de ces nouvelles technologies peut être discuté à travers ce que l’on connaît des contraintes du fonctionnement cognitif. On sait bien, par exemple, qu’une attention soutenue est nécessaire pour de nombreux apprentissages ; et que les situations de tâches multiples ont un effet délétère sur la qualité de l’encodage en mémoire.

Internet et les écrans

Sur un plan psychophysique, l’usage intempestif des écrans peut nuire à la rétine chez les enfants, plus particulièrement chez les tous petits. L’exposition à leur lumière bleue provoque une chaîne de réactions biochimiques qui conduisent à la création de molécules toxiques dans les cellules photo-réceptrices de la rétine. De plus, l’utilisation des écrans en soirée, via la lumière bleue, réduit la quantité de sommeil mais aussi sa qualité et, in fine, perturbe la consolidation en mémoire, dépendante de l’activité des différents cycles du sommeil. Un écran n’est pas, en soi, un dispositif dangereux mais son temps d’utilisation doit être adapté en tenant compte de l’âge de l’utilisateur, tout particulièrement chez les plus petits.
Il s’agit aussi d’atteintes des fonctions cognitives et des capacités à interagir avec autrui. Ainsi, la Société canadienne de pédiatrie recommande d’éviter tout écran avant deux ans et de ne pas dépasser une heure par jour entre deux et cinq ans, temps d’utilisation qui sont pourtant largement dépassés dans ce pays. En France, l’Académie des sciences estime que, chez les enfants âgés de 6 à 12 ans, l’école élémentaire est le meilleur lieu pour engager l’éducation systématique aux écrans. Une éducation précoce de l’enfant à l’autorégulation est essentielle.

Kelly Sikkema /Unsplash. Photo by Kelly Sikkema on Unsplash

Au-delà de 12 ans, chez l’adolescent, les outils numériques possèdent une puissance inédite pour mettre le cerveau en mode hypothético-déductif, ce qui est positif pour l’exploration de solutions. En revanche, une consultation excessive d’Internet peut créer une pensée « zapping », rapide et superficielle, appauvrissant la mémoire et les capacités de synthèse personnelle. Or, chez les pré-adolescents et les adolescents, le temps réellement passé devant les écrans est difficile à évaluer.
Ces usages disproportionnés pourraient faciliter la survenue de troubles neurodéveloppementaux chez l’enfant, tout particulièrement de type attentionnel, dont la prévalence est en forte augmentation. Mais il y a aussi des effets indirects. La mauvaise alimentation, le surpoids, l’obésité en constituent quelques exemples. On parle d’« effet de déplacement » pour signifier que le temps occupé devant les écrans se substitue à d’autres activités : lire, courir, échanger, imaginer… Des chercheurs ont émis l’hypothèse que cette utilisation intempestive aurait une part de responsabilité dans l’incidence accrue des retards de langage et autres troubles neurodéveloppementaux, voire de la réduction de l’épaisseur corticale constatée chez des enfants d’une douzaine d’années passant huit heures par jour devant les écrans.

Samuel Zeller /Unsplash. Photo by Samuel Zeller on Unsplash

L’un des problèmes posés par ces nouveaux dispositifs de communication est la rupture de l’équilibre entre mémoire interne et mémoire externe. La mémoire interne, c’est celle de l’individu. La mémoire externe, artificielle, se développe via différents outils, comme l’écriture, l’imprimerie, l’audio, la vidéo, le numérique. Le concept de disruption renvoie à cette accélération de la place des outils techniques, à leur omniprésence, notamment des outils numériques, évolution rapide et massive que ne peuvent plus absorber les psychologies individuelles et les organisations sociales.
Cela crée l’impression d’un temps qui s’accélère, d’une difficulté à le maîtriser, à hiérarchiser les priorités, un sentiment d’être sans cesse dans l’urgence sans traiter les informations en profondeur et sans pouvoir ainsi les synthétiser, les assimiler.

Mode par défaut

Découvert par l’imagerie cérébrale, le réseau cérébral du mode par défaut s’active quand nous ne sommes pas en prise directe avec notre environnement, mais que nous nous tournons au contraire vers nos pensées internes : mémoire autobiographique, anticipation du futur, scénarios imaginés plus ou moins plausibles, mais aussi pensées créatives et fantasmagoriques. Il implique la synchronisation de différentes structures situées dans les régions médianes du cerveau. Ce réseau est important pour notre équilibre psychique et émotionnel ainsi que pour la cohérence de la mémoire. Il autorise la possibilité d’un voyage mental : vers le passé, vers le futur, vers autrui.
Le mode par défaut ne fonctionne pas seul mais interagit de façon dynamique avec d’autres réseaux cérébraux. Ainsi, son interaction avec celui chargé du contrôle exécutif, situé dans les régions antérieures du cerveau, est importante dans des moments de créativité ou dans des situations de choix stratégiques qui impliquent de tester de nouvelles hypothèses. Des travaux de neuro-imagerie suggèrent que la projection dans le futur est sous-tendue par le réseau du mode par défaut, en interaction avec d’autres réseaux cérébraux.
Or, ce réseau est de plus en plus malmené, notamment chez les enfants et les adolescents, du fait du contexte qui entoure l’utilisation des nouvelles technologies. Ce sont elles qui occupent la place, d’abord avec notre complicité, puis à nos dépens car nous ne faisons pas le poids face à ces outils hyperconnectés, dotés d’unités centrales de plus en plus puissantes. Un encadrement éthique est nécessaire pour réguler l’usage et les contenus des « mémoires externes », si l’on veut préserver les « mémoires internes ». Et donc les mémoires du futur des jeunes générations.

Protégeons la mémoire du futur

Il ne s’agit pas de sombrer dans le catastrophisme et le passéisme mais d’insister sur le fait que le progrès doit être mis à disposition de tous, notamment des plus fragiles. Il ne doit pas être réservé à une « élite » qui en tire des bénéfices à grande échelle en uniformisant et en manipulant les citoyens du monde. La mémoire des humains n’est pas seulement faite de passé. Composante essentielle mais mal connue, la mémoire du futur nous permet de nous projeter, d’anticiper, de prendre des décisions. Elle constitue le vecteur de notre libre arbitre. Il faut la protéger.The Conversation

Francis Eustache, Directeur de l'unité Neuropsychologie et neuroanatomie fonctionnelle de la mémoire humaine, Inserm, Ecole Pratique des Hautes Etudes, Université de Caen Normandie, Institut national de la santé et de la recherche médicale (Inserm)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
fibre


Déjà disponible pour 13,5 millions de logements et de locaux professionnels sur l’ensemble du territoire national, la fibre d'Orange sera progressivement commercialisée sur l’ensemble des territoires où Altitude Infrastructure est présent, situés pour l’essentiel en zones peu denses. En Occitanie, Altitude Infrastructure est présent en Aveyron, en Tarn-et-Garonne, en Haute-Garonne, dans l'Aude et dans les Pyrénées-Orientales.

"Altitude Infrastructure se réjouit de l’arrivée d’Orange sur ses RIP FttH, confirmant ainsi l’atteinte de son objectif : accueillir les quatre FAI d’envergure nationale sur ses réseaux Très Haut Débit afin de garantir une offre variée et compétitive, et ce en complément des services déjà proposés par les opérateurs locaux. Tous les FAI présents et de nouveaux projets à l’horizon confirment la dynamique engagée par le Groupe Altitude Infrastructure dans sa stratégie de développement", a indiqué David El Fassy, président d’Altitude Infrastructure.

22 départements en France


"Grâce à cet accord avec Altitude Infrastructure, les habitants de 22 départements pourront prochainement bénéficier de l’ensemble des offres et des services de La Fibre Orange" a déclaré Fabienne Dulac, Directrice Générale Adjointe, CEO d'Orange France.
DNA


Par Juliette Rizkallah, Chief Marketing Officer chez SailPoint Technologies

Aujourd’hui, tout le monde a déjà entendu parler des sites en ligne proposant des kits de test ADN ouverts à tous. Leur popularité s’est largement accrue ces dernières années en grande partie car, en tant qu’humains, nous sommes par nature curieux, et étant donnée la transformation digitale en cours, numériser l’ADN n’est plus quelque chose d’irréaliste. Au départ, je ne trouvais que peu d’arguments en faveur de la validité et de l’utilité de telles offres de test ADN grand public, en dehors de satisfaire notre curiosité sur nos ancêtres. Mais j’ai récemment changé d’avis en découvrant les recherches et les avancées médicales que ces offres peuvent générer.

II ne fait aucun doute que les tests ADN grand public sont là pour durer, mais nous devons tout de même nous interroger : la numérisation de notre ADN pose-t-elle des problèmes de sécurité ?

Voici les termes du débat : Simplement parce que nous pouvons numériser ou commercialiser notre ADN, devons-nous le faire ? Numériser notre ADN par simple curiosité vaut-il le risque d’une fuite de données ? D’un autre côté, la numérisation de l’ADN humain pour les besoins de la science et de la recherche médicale pourrait apporter beaucoup si elle aide à découvrir le remède à une maladie mortelle. Si vous considérez que votre ADN est la donnée personnelle la plus vitale, sa valeur sur le ‘dark web’ pourrait atteindre des sommets. Il est plus que probable que des pirates étudieront sérieusement les avantages qu’ils pourraient tirer de leur intrusion dans ces sites de tests ADN grand public. Comment vous sentiriez-vous si votre ADN se retrouvait soudainement sur le ‘dark web’, libre et accessible à tous ? la première méga-intrusion dans ce secteur s’est produite en 2018, quelles en sont les implications ?

L’ADN : donnée personnelle ultime

Numériser l’ADN relève d’un domaine émergeant appelé « cyberbiosécurité », qui explore un éventail de risques qui peuvent résulter de la numérisation croissante des sciences de la vie. Dans le cas de l’ADN et les possibles répercussions en cas de piratage, les implications sont immenses.

Le vol de votre numéro de Sécurité Sociale est certainement une atteinte à la vie privée et peut dangereusement remettre en cause votre capacité à prouver que vous êtes qui vous prétendez être (si quelqu’un devait se faire passer pour vous, en utilisant votre numéro de Sécurité Social comme preuve), mais ces conséquences sont minimes par rapport au vol de votre ADN – votre ADN est permanent, immuable. Vous ne pouvez pas simplement renouveler votre ADN comme vous pouvez remplacer votre numéro de Sécurité Sociale, de carte de crédit ou numéro de compte bancaire.

Une fois numérisé, votre ADN est stocké dans une base de données sans que vous sachiez grand-chose sur son utilisation. La résolution d’une enquête criminelle non élucidée grâce à la correspondance d’une banque de données ADN grand public avec celle de la police n’est qu’un exemple de ces utilisations possibles. Et bien que des pirates doivent encore monétiser les ADN numérisés pour que cela constitue une menace pour nos identités, l’aspect le plus inquiétant est le simple fait qu’une fois numérisé, l’ADN d’un individu peut ensuite être corrompu, volé et utilisé par des criminels dans un but quelconque.

Alors qu’il y a quelques années, l’idée de numériser l’ADN ressemblait au mieux à une théorie futuriste, elle est devenue réalité. Ceci a de vastes implications pour la protection de la vie privée. Un employeur peut-il désormais demander à consulter votre ADN pour vérifier que votre patrimoine génétique vous rend compatible avec une fonction particulière ? Où se situe la limite sur ce qui peut être considéré comme un partage acceptable de nos données personnelles ? Et tout aussi important, où s’arrêter et réfléchir aux implications non pas seulement sur la vie privée mais aussi sur la sécurité ?

Le piratage de l’élément humain va continuer. Car cela reste le moyen le plus facile pour s’introduire dans des réseaux d’entreprise, capturer des données sensibles, que ce soit pour les vendre sur le marché noir ou pour stopper entièrement les opérations de l’entreprise, en demandant une rançon de plusieurs millions de dollars. L’ajout de l’ADN offre un nouveau boulevard à explorer pour les pirates et représente une nouvelle menace que les professionnels de la cyber sécurité doivent traiter de front.

Nous ne pouvons pas stopper l’innovation et le progrès, et nous ne pouvons probablement pas non plus empêcher les pirates de les exploiter, mais nous pouvons certainement ralentir leurs actions. En tant que consommateurs, nous avons le droit de savoir comment notre ADN numérisé est stocké et sécurisé, comment il est utilisé et quand il a été compromis. Nous pouvons exiger que les organisations qui se sont lancées dans ce domaine en fassent aussi autant dans la sécurisation de ces données personnelles de grande valeur. Si, en tant que consommateurs, nous sommes devenus insensibles aux violations de données au point de ne plus y prêter attention, il s’agit là d’un domaine pour lequel nous devons nous réveiller et rester en alerte. Si nous ne le faisons pas, nous pourrions subir le vol de nos données personnelles les plus vitales.

agriculture


Par Claire Kago, Channel & Inside Sales Manager France chez Paessler AG

D’ici l’année 2050, il pourrait y avoir pas moins de 10 milliards de personnes vivants sur Terre. Pour parvenir à tous les nourrir, nous aurons besoin de multiples technologies, comme l’IoT et la supervision.

La demande mondiale de biens alimentaires est en hausse. D’après McKinsey, si la tendance actuelle se poursuit, le besoin en calorie augmentera de 70% d’ici 2050, ce qui se traduira par un besoin en denrées agricoles pour la consommation humaine et animale en augmentation d’au moins 100%. Cette demande façonne déjà notre agriculture d’une manière dont nous n’avions jamais été témoins auparavant. Comment dès lors développer des pratiques agricoles plus durables pour garantir cet approvisionnement alimentaire ?

A l’instar de technologies telles que la blockchain ou l’intelligence artificielle, l’Internet des Objets (IoT - Internet of Things) révolutionne le monde de l’IT. L’agriculture est un secteur qui n’est pas étranger à la technologie, et en particulier à l’IoT. En permettant à des objets intelligents de se connecter les uns aux autres et au monde extérieur via Internet, il devient en effet possible d’opter pour une approche plus perspicace de l’agriculture. Les capteurs et processeurs permettent ainsi aux agriculteurs de s’adapter en temps réel. De quelle façon utilisent-ils cet IoT mais aussi la supervision qui sert à le surveiller ?

Agriculture of Things


L’IoT peut être adopté dans les pratiques agricoles de nombreuses manières. L’un des exemples intéressants est l’agriculture de précision (PFT - Precision Farming Technologies), une méthode qui a pour objectif la gestion des terres cultivables de façon ciblée et différenciée sur le terrain.

Elle peut également très bien fonctionner avec une exploitation de bétail. En mettant en œuvre des technologies d’agriculture de précision, il devient en effet possible pour l’éleveur de superviser chaque animal de son exploitation, et ainsi de surveiller sa température, son niveau de nutrition, l’avancée d’une maladie ou son stress. Cela permet aux éleveurs de détecter les animaux en souffrance, de les soigner et de les remettre en forme plus rapidement. 

Chaque agriculteur supervisera différentes choses, selon le bétail qu’il élève, mais l’idée reste la même : les capteurs IoT fournissent des informations en temps réel sur chaque animal, garantissant ainsi le bien-être du bétail, sa longévité et donc une perte de production minimisée.

Un autre exemple d’utilisation de l’IoT en agriculture est la technologie à taux variable (VRT - Variable Rate Technology). Cette approche est similaire à celle de l’agriculture de précision, mais au lieu de recueillir des mesures sur le bétail ou les cultures, elle se focalise sur le travail du sol selon les spécificités du terrain, à l’aide de systèmes de positionnement global différentiels.

Les vignobles intelligents


Les vignobles intelligents, aux sols plus fertiles et donnant finalement un meilleur vin, sont un bon exemple pour présenter les technologies intelligentes en jeu dans le monde de l’agriculture. Afin que les vignobles puissent continuer à prospérer de manière durable, les viticulteurs doivent être conscients de l’impact que le réchauffement climatique a sur la viticulture. En d’autres termes, il leur faut se préparer aux changements météorologiques rapides et aux conditions extrêmes.

C’est pourquoi nous voyons aujourd’hui de plus en plus de viticulteurs qui s’appuient sur des capteurs répartis dans leurs vignobles. Ces capteurs sont en capacité d’envoyer vers des plateformes cloud des données environnementales, des images de drones et des informations sur la composition des feuilles de vigne. Grâce à l’analyse de l’ensemble de ces données et à leur  visualisation, les viticulteurs peuvent établir des prévisions sur l’état du vignoble et donc planifier leur travail au quotidien de façon plus simple. L’IoT leur permet ainsi de savoir que leurs vignes et leurs raisins sont bien protégés et au final d’avoir l’esprit plus tranquille.

L’hydroponie assistée par la supervision 


L’IoT n’est pas la seule technologie innovante qui s’avère nécessaire aujourd’hui. L’hydroponie, l’art de cultiver hors-sol des plantes avec principalement de l’eau est par exemple une autre approche adoptée. 

Les bénéfices de cette méthode sont nombreux : consommation d’eau réduite (2 litres d’eau pour une salade contre 20 à 30 litres avec la production traditionnelle), exploitation optimale du potentiel génétique des espèces de plantes, meilleur contrôle de l’apport en éléments nutritifs, rendement et qualité améliorés, croissance plus courte pour certaines plantes, utilisation plus raisonnée de l’espace disponible, économie considérable d’engrais, voire renonciation totale, et sans utilisation d’herbicides.

Cette méthode de culture a prouvé sa simplicité autant que son efficacité, mais pour garantir son succès, l’utilisation de la technologie de supervision peut s’avérer cruciale, particulièrement pour la qualité de l’eau (conductivité et pH) et les lumières artificielles. L’hydroponie, parmi d’autres concepts prometteurs, peut représenter une solution pour nourrir la population dans le futur.

Travailler plus intelligemment, pas travailler plus


Être plus intelligent dans notre approche de l’agriculture est plus important que jamais. Les consommateurs deviennent de plus en plus critiques et se posent des questions sur ce qu’ils consomment. Les agriculteurs doivent donc bien comprendre que les technologies comme l’IoT ne les soustraient pas à leurs responsabilités sociétales. 

Des méthodes non durables précédemment utilisées, telles que de mauvaises pratiques d’irrigation, ont contribué à la perte d’environ un quart des terres utilisées pour l’agriculture au cours des 25 dernières années. Pour mettre cela en perspective, cela signifie que tous les quatre ans et demi, une région de la taille de la France est perdue au profit des déserts. Sachant que la population mondiale a augmenté d’environ deux milliards de personnes au cours de la même période.

Les actions que nous entreprenons aujourd’hui sont déterminantes pour la mise en œuvre de changements positifs et pour nous assurer un avenir plus durable. Les industries agricoles du monde entier ont ainsi la nécessité d’utiliser les ressources technologiques qui sont à leur disposition. La France se doit d’être en première ligne de cette modernisation, en tant que première puissance agricole européenne, avec une production estimée à 72 milliards d’euros, et qui a souffert d’étés particulièrement secs en 2018 et 2019.

L’IoT est un concept moderne mais si les mentalités des agriculteurs ne sont pas tout autant progressistes, l’agriculture ne pourra pas en profiter. L’agriculture intelligente ne rendra pas toute seule les gens et les animaux plus heureux, car comme toujours, tout le potentiel d’une technologie réside entre les mains de ceux qui l’utilisent.

wikilovesmonuments


Depuis dimanche et jusqu'à la fin du mois a lieu la 9e édition française du concours photographique Wiki Loves Monuments, organisé par l'encyclopédie en ligne Wikipédia, ou plus exactement la fondation Wikimédia. Wikimédia France participe à l’organisation de ce concours mondial depuis 2011, afin d’encourager la valorisation des monuments historiques.

258192 partages de photos en 2018

"Le concours, fondé sur le mode de contribution collaborative - ADN des projets Wikimédia - a permis l'implication de 54 pays l'année précédente. Ce sont en tout plus de 14000 participants qui ont pu mettre en valeur et sauvegarder ce pan du patrimoine culturel grâce aux 258192 partages de photos dont plus de 55318 réutilisations sur les différents projets Wikimédia, avec l'encyclopédie Wikipédia en tête" explique Wikimédia France.

80 % des monuments historiques ont été photographiés

"Depuis le début de la participation française au concours en 2011, près de 80 % des monuments historiques ont été photographiés et versés sur Wikimédia Commons. Cette sauvegarde du patrimoine, valorisée en partie sur Wikipédia, dépasse le cadre des monuments historiques et comprends l'inventaire général du patrimoine culturel de la base Mérimée qui comptait en 2005 environ 147 000 fiches (contre 42 000 fiches pour les monuments historiques)", explique Wikimédia.

Un concours gratuit et ouvert à tous

Pour Wikimédia France, ce concours est une manière de sensibiliser les Français à leur propre patrimoine, de créer un lien de proximité avec celui-ci et de faire connaître les projets Wikimédia au grand public.
Un site dédié est mis en ligne par l'association pour guider les participants étape par étape. Cette démarche sera récompensée pour dix des nombreux photographes qui seront automatiquement sélectionnés pour le concours international. Le concours sera par ailleurs présenté à l’UNESCO, à Paaris, lors des Journées européennes du patrimoine les 21 et 22 septembre prochains.

Pour participer, c'est ici. Plus d'informations sur le concours ici.
afnic


L'Association Française pour le Nommage Internet en Coopération (Afnic) qui est en charge des noms de domaine en .fr, célèbre ce lundi 2 septembre les 33 ans de l'extension française. Et son succès ne se dément pas !

37,2% de part de marché

"A ses débuts, le .fr était réservé aux entreprises françaises. Celles-ci devaient justifier de leur activité pour pouvoir l'obtenir. Depuis 2004, l'extension est beaucoup plus accessible, tout en conservant son image de fiabilité et de sérieux", explique l'Afnic
En effet, depuis 2006, les particuliers ont également accès au ".fr". D'où une popularité croissante : les dirigeants de TPE/PME privilégiaient désormais le .fr (52%) au traditionnel .com (40%). On compte actuellement plus de 3,4 millions de noms de domaine en .fr  enregistrés en septembre 2019, avec une part de marché de 37,2%, son plus haut niveau historique.

Une action citoyenne

"L'usage du .fr est par ailleurs une action citoyenne puisque 90 % des bénéfices du.fr soutiennent des projets d'inclusion numérique partout en France via la fondation Afnic", explique l'Afnic. La Fondation existe depuis trois ans et a soutenu 117 projets autour des thèmes de la citoyenneté, de la culture, du développement territorial, de l'éducation/formation, de l'environnement/habitat, de l'insertion/emploi et de la santé/handicap.
"Nous anticipons une grande marge de progression pour le .fr, puisqu'on estime qu'encore un quart des TPE/PME en France n'a pas de site internet", précise Pierre Bonis, directeur général de l'Afnic.
L'Afnic multiplie d'ailleurs ses actions en faveur de la transformation numérique des PME, à travers sa plateforme "Réussir en .fr" où les entrepreneurs obtiennent un diagnostic gratuit de leur présence en ligne et des conseils, ou encore les ateliers Foliweb, qui ont attiré 14000 participants l'an dernier.
airbus cyber security




Par Francis Paddy, CTO – Airbus CyberSecurity

L’art de l’exploitation minière, ou du minage remonte à la préhistoire, à l’époque où les premières civilisations utilisaient la céramique et la pierre pour fabriquer des outils et des armes indispensables à leur survie. Des siècles plus tard et grâce à d’extraordinaires progrès technologiques, nous pouvons désormais extraire de l’or, de l’argent et des diamants en utilisant des méthodes beaucoup plus précises et plus sécurisées. C’est de là que provient le terme traditionnel du minage, mais au 21ème siècle, il existe une connotation illégale et digitale associée à ce terme : le cryptojacking.

Pourquoi et comment ?

Le cryptojacking est une menace relativement nouvelle qui dérive directement de l’invention des devises digitales, c’est-à-dire des cryptomonnaies. Au départ, celles-ci sont devenues attrayantes pour les investisseurs car elles n’ont pas de forme physique et n’existent que dans le monde Internet en utilisant la blockchain comme registre public pour noter et contrôler toutes les transactions les concernant. De plus, elles sont décentralisées, aucune banque ni aucun gouvernement ne les possèdent ou y sont associés et aucun organisme gouvernemental ne les réglementent. Toutes les activités se font de façon anonyme et sont gérées via de multiples bases de données dupliquées sur des millions d’ordinateurs qui n’appartiennent à aucun individu ni organisation en particulier.

Les cryptomonnaies entrent en circulation à travers le processus de minage qui est conduit par des mineurs qui créent des signatures pour une blockchain – le système où sont gérées les transactions de cryptomonnaie. Le premier mineur qui réussi à générer la signature et à la faire vérifier remporte la mise, et bénéficie ensuite de la cryptomonnaie nouvellement créée. C’est cette validation commune qui permet de maintenir la blockchain honnête et sécurisée. Pour une personne ordinaire, cette tâche est réalisable, mais elle peut être extrêmement longue et exige une puissance de traitement excessive sur un PC standard. Toutefois, l’intérêt et l’engouement pour les cryptomonnaies telles que le Bitcoin ne cessant de croître parmi les passionnés, ce processus s’est transformé en une compétition, avec des mineurs créant des infrastructures de cryptominage spécialement conçues à cet effet.

Impatients d’accélérer le processus exigé pour le minage des cryptomonnaies, les cybercriminels ont conçu le cryptojacking. Les ‘hackers’ prennent alors le contrôle, infectent et par la suite procèdent au minage des ressources d’autres ordinateurs et équipements à l’insu de leur propriétaire. Les victimes du cryptojacking peuvent fort bien ne jamais s’en rendre compte et compte tenu d’une récente étude qui montre que ces attaques ont triplé au cours de l’année passée, rien n’indique que cette menace va bientôt disparaître. Il existe également des preuves que ces actions sont menées légalement par des sites internet légitimes qui utilisent le cryptojacking comme une source de revenu alternative à la publicité.

Le cryptojacking n’est généralement pas malveillant et la plupart de ces actions n’ont pas pour objectif de voler des données sensibles ou de causer des dénis de services. Le plus gros problème provient de leur consommation de ressources PC qui est excessive et qui ralentit inévitablement les capacités de fonctionnement globales de l’ordinateur de l’utilisateur. C’est encore pire pour les utilisateurs de terminaux mobiles qui, s’ils sont ciblés, se retrouvent souvent avec une batterie à plat.

Menaces en interne

Etant donnés les très gros volumes de puissance CPU nécessaires pour réaliser efficacement le cryptojacking, ce sont ceux qui disposent d’un accès de haut niveau aux ressources informatiques qui représentent les plus grandes menaces au sein d’une entreprise car il est potentiellement assez facile pour eux d’installer d’abord le logiciel de minage sur les ordinateurs de l’organisation puis soit effectuer le minage de la cryptomonnaie pour eux-mêmes soit revendre la puissance informatique à d’autres.

De plus, en raison de leurs privilégiés d’accès élevés, ces personnes ont le pouvoir de contourner les alertes de sécurité et autres défenses pour leur seul profit. C’est ce qui s’est passé en Russie, par exemple, où l’on a découvert que des scientifiques dans une centrale nucléaire utilisaient le superordinateur pour miner du Bitcoin.

Un autre danger présenté par ce type d’action est le risque supplémentaire d’infection du réseau par des logiciels malveillants en raison de connexions Internet non sécurisées, ou d’un logiciel de cryptojacking mal écrit qui fait planter les ordinateurs.

Les méthodes pour y remédier

Pour prévenir de telles menaces, la première chose à faire est de désactiver JavaScript mais pour certains ce n’est peut-être pas idéal. Pour aider à résoudre le problème à une échelle plus globale, certains des principaux acteurs du monde Internet ont décidé de protéger eux-mêmes leurs utilisateurs contre de telles menaces. Les navigateurs Firefox et Google Chrome ont tous deux préinstallé des fonctions qui bloquent le cryptojacking. Les activer peut représenter une bonne barrière de défense et une couche de sécurité qui s’ajoute à des technologies de sécurité déjà établies, la plupart des organisations disposant de services de filtrage DNS qui signaleront ces sites comme dangereux s'ils n'ont pas déjà été bloqués.

Pour éviter que soient affectés des serveurs ou des stations de travail critiques, il est possible de contrôler l’utilisation du processeur. Si l’entreprise dispose d’un SOC (centre opérationnel de sécurité), l’utilisation du processeur doit logiquement être enregistrée et contrôlée grâce à un script dans le logiciel de gestion des informations et des évènements de sécurité (SIEM). L’indice évident d’une activité de cryptojacking étant de longues périodes d’utilisation intensive du processeur, en particulier en dehors des heures de travail.

Le plus gros risque que peut créer le cryptojacking est la possibilité qu’un logiciel malware installé sur des PC ou serveurs puisse accéder aux postes de travail les plus puissants et consommer leur capacité de traitement. Pour éviter cela, les entreprises doivent avoir installé des défenses anti-malwares et celles-ci doivent intégrer la création de ‘listes blanches’ d’applications pour les serveurs, ainsi qu’un contrôle et une sécurité anti-virus en continu. De plus, si l’entreprise a mis en place un contrôle de la sécurité du réseau, les équipes de sécurité pourront être alertés en cas de comportement illégitime ou anormal du réseau. Tous ces éléments sont de bons indicateurs d’une activité malicieuse en cours.

Le cryptojacking peut ne pas figurer en haut de la liste des cyber menaces potentiellement dangereuses que doivent affronter les entreprises aujourd’hui. Toutefois, bien qu’il n’ait pas d’effets immédiats ou visibles, les conséquences d’une attaque réussie peuvent être très perturbatrices. Par conséquent, il est important de suivre scrupuleusement les meilleures pratiques de sécurité et de s’assurer qu’une infrastructure de sécurité de base est en place afin de pouvoir détecter les variations de performance d’un bout à l’autre du réseau et de prévenir l’exploitation de vulnérabilités potentiellement créées par le cryptojacking et d’autres attaques basées sur des scripts.
business



Par Thomas Leconte, Directeur technique chez MTI France

Une image contenant homme, personne, complet, murDescription générée automatiquement

En matière de sécurité des systèmes d'information, l'humain reste l'un des principaux éléments constituant le risque. Et pas seulement quant aux malveillances (internes ou externes) qu'il peut représenter : cible de nombreuses attaques, l'humain est une faille. Notamment quand il dispose d'un compte à privilèges, comme c'est le cas des top-managers.

Top management : des droits importants, des risques majeurs


Le top management, qui bénéficie en général d'un accès aux informations sensibles de l'organisation, compte parmi les cibles privilégiées des attaques. Ses membres, aussi bien que leurs plus proches collaborateurs tels que leurs assistants, n'ont souvent pas conscience d'être des cibles privilégiées des cybercriminels, ce qui les rend d'autant plus vulnérables aux attaques.

Dès lors, ces profils sont souvent victimes d'attaques de type spear phishing (ou pêche au gros poisson). Spécifiquement adaptées à l'individu qu'elles ciblent, ces attaques ont généralement pour objectif principal l'accès à des informations sensibles. Des dispositifs d'autant plus faciles à mettre en œuvre que pour beaucoup, les top-managers disposent d'une certaine notoriété.

En outre, très souvent en voyage, sur leur marché domestique ou à l'étranger, il leur arrive d'utiliser des réseaux WiFi publics non sécurisés, les exposant à des attaques type MITM (man-in-the-middle). Sans compter que les C-levels sont aussi ceux qui ont tendance à respecter le moins les procédures de sécurité et les politiques de confidentialité, ce qui aggrave encore leur exposition aux risques.

Face aux risques : les actions à entreprendre


Au regard de ces constats, comment s'assurer de faire du top management un moteur de la cybersécurité, plutôt qu'une cible d'attaques ? Une stratégie efficace de cybersécurité commence par la bonne compréhension des éléments et ressources à protéger et des risques encourus en cas d'exposition. Les managers doivent impérativement prendre conscience des menaces et de l'impact qu'une violation pourrait avoir sur l'organisation.

Et en définitive comprendre le contexte de ces menaces qui en fait des cibles privilégiées, du fait également qu'ils sont amenés à être en contact avec les publics de l'organisation. Ce qui implique tout d'abord la mise en œuvre d'une gouvernance et de processus efficaces, et un renforcement de la résilience en matière de sécurité. Mais également le développement d'une culture de la sécurité, tenant compte des préoccupations des collaborateurs tout en les sensibilisant à l'importance de respecter les pratiques de sécurité.

Par ailleurs, l'adoption d'une approche orientée gestion des risques pour les processus opérationnels et la gestion des mots de passe, ainsi qu'une démarche avancée de sensibilisation à la sécurité et des canaux de communication clairement définis sont des pistes à explorer pour renforcer la sécurité des comptes, en particulier des comptes à privilèges.

La question prioritaire de la sécurité des comptes à privilèges


L'établissement de processus explicites en réaction à une attaque contre un membre de la direction, et les mesures à prendre pour y remédier, associées à l'intensification des efforts de formation en matière de cybersécurité, et en particulier quant aux bonnes pratiques à adopter en matière de sécurité des emails, peuvent rapidement réduire l'exposition aux risques.

Plus le volume d'incidents et de compromissions des données augmente, plus la question inquiète la direction de l'organisation. Selon Forrester, 80 % des incidents de sécurité impliquent des comptes Administrateur ou à privilèges.

Il s'agit donc de réduire au maximum le risque de compromission de ces comptes. Dès lors, la mise en œuvre de processus précis, de reporting, de traçabilité et une gestion fine de ces comptes est un investissement rentable pour l'organisation.
hacking


Par Eric Heddeland, VP EMEA Europe du Sud & Marchés Émergents chez Barracuda Networks

Ils pourraient être installés dans une chambre obscure, enfoncés dans leurs sweats à capuche noir, en pianotant sur leur clavier à la recherche de vulnérabilités informatiques pour voler des données, faire dérailler un train ou encore diffuser un ransomware. Mais aujourd’hui, leur organisation internationale avec accès à des supports techniques dédiés, des toolkits clé en main vendus sur le net, les hackers ne sont pas forcément représentés par l’image d’Epinal classique des magazines informatique ou grand public. En effet, dans l’opinion publique, ces pirates du web nourrissent bien des fantasmes. Mais si en 2019, rien n’est inviolable tout se pirate et tout se transforme dans l’univers numérique, parfois de manière spectaculaire, du smartphone à Google Home en passant par un pacemaker, le hacking est surtout aujourd’hui une affaire d’usurpation d’identité. Elle repose de plus en plus sur une stratégie de mimétisme numérique à de fins douteuses : le social engineering.   Pourquoi ? Comment ? Petit guide :

Leçon 1 : un travail de repérage minutieux


Fini les spams de masse, le social engineering ou ingénierie sociale a de quoi trouver sa source d’inspiration dans la nature.  Car hacker un individu ou, une société, ressemble de près ou de loin à l’adoption de la stratégie du caméléon. Se fondre dans un environnement pour mieux se dissimuler. Ou bien ressembler à un individu pour mieux l’attaquer.
Dans ce cadre, la première étape s’appuie sur  un travail de repérage minutieux de l’organisation d’une société donnée. Les hackers cherchent à  comprendre quel individu est autour de la table, qui interagit avec qui et qui est hiérarchiquement positionné par rapport à un autre individu. Jamie Woodruff, un hacker éthique qui a percé les défenses des plus grandes entreprises californiennes tel Facebook, YouTube, Apple ou encore Google rapporte par exemple s’être fait embaucher comme livreur de pizza pour accéder aux serveurs d’une importante institution financière.


Leçon 2 : une analyse comportementale 


La seconde étape du social engineering repose sur l’analyse comportementale de ces mêmes cibles. Il faut découvrir comment les protagonistes communiquent entre eux, comment ils se partagent l’info pour identifier une faille comportementale et  installer un logiciel espion, non intrusif.
Puis vient l’action. Une  fois les données sensibles recueillies (login, mot de passe), le hacker peut installer un logiciel de prise de contrôle à distance. Développer une stratégie de mime et d’usurpation d’identité. Le schéma est classique : se faire passer pour le PDG d’une société qui demanderait au service comptable de réaliser un virement sur le compte d’un nouveau client.

Leçon 3 : mafia digitale ou cyberguerre ?


Dans le hacking, l’usurpation d’identité a deux mobiles principaux. Le premier est d’ordre mafieux : escroquer, dérober, soutirer une somme d’argent à des entreprises à grands capitaux. Moins connu du public, le second mobile est d’ordre politique. Il s’invite comme une arme étatique de désinformation et de déstabilisation des régimes en place _ notamment démocratiques _ dans le cadre d’élections présidentielles.
En France, le cas le plus flagrant fut celui du MacronLeaks, lors de la campagne de La République en marche. Deux ans après l’élection, des preuves appuient l’implication d’un groupe de suprémacistes américains d’extrême droite dans la divulgation du contenu de 5 boîtes mails de membres du parti, faux documents et fake news au passage. Dans la même veine, les piratages subis par le parti démocrate d’Hillary Clinton durant la campagne présidentielle seraient, selon un rapport confidentiel de la CIA, l'œuvre de hackers russes pour favoriser la victoire de Donald Trump.
Face au hacking, l’enjeu de la cybersécurité s’impose comme un travail de décorticage. Elle  consiste à justement passer au tamis l’ensemble des comportements de chaque utilisateur pour recréer des modèles comportementaux. Dès lors qu’il y a la moindre modification dans ce modèle comportemental, l’ordinateur émet une alerte et demande une validation physique complémentaire.  Voilà là tout l’enjeu du Machine Learning. Tel était l’objet de la leçon n’°4.
slack


Par Johann Butting, VP EMEA, Slack

La “transformation”, nouvelle martingale des décideurs, est sur toutes les lèvres depuis plusieurs années. Transformation numérique, transformation agile, transformation organisationnelle… Si les subtilités de chacun de ces sujets peuvent faire elle-même l’objet de débats dédiés, une chose est claire : nos méthodes de travail sont en train de changer, et les entreprises doivent d’urgence s’y adapter.

L’établissement d’une solide culture d’entreprise est une part essentielle de ce changement. A ce titre, départements et responsables des ressources humaines sont à l’avant-poste de ce processus. Pour y parvenir, ces derniers doivent comprendre en quoi la transformation est indispensable et comment les nouveaux outils, technologies et processus peuvent contribuer à son pilotage.

International, flexible, agile - le nouveau monde du travail


Un certain nombre de facteurs contribuent à des évolutions rapides dans le monde du travail. Avec plus de 1,8 milliards de personnes, les Millenials sont désormais la génération la plus représentée dans le monde. Dans de nombreuses régions, ils constituent même la majorité de la population active. Ce changement démographique s'est produit en parallèle avec l’accroissement de la dispersion des équipes : la collaboration entre employés séparés par des fuseaux horaires et des continents différents est devenue la nouvelle norme. Ces derniers sont également nombreux à vouloir trouver un meilleur équilibre entre travail et vie personnelle, avec toute la flexibilité que cela implique.

Les employés expriment désormais le besoin d’inclure ces priorités dans leurs plans de carrière. En même temps, ils sont conscients des effets d’une mondialisation et d’une numérisation croissantes : ainsi, selon une étude américaine, 91 % d’entre eux affirment chercher à se rapprocher de leurs collègues, tandis que près de 85 % souhaitent ressentir un lien plus étroit avec des collègues éloignés. Cependant, les entreprises sont confrontées à de nouvelles réalités dans l’ordre économique contemporain. Par exemple, l'agilité professionnelle et la capacité à réagir rapidement aux changements du marché sont aujourd’hui essentielles à la survie des entreprises.

Il existe heureusement un élément permettant de répondre à la fois à l’évolution des besoins des employés et aux priorités des entreprises : la culture. Mais celle-ci n’est pas qu’affaire de confiance et de teambuilding : elle doit incarner les valeurs de l’entreprise. En outre, la culture sous-tend l'approche d'une organisation vis-à-vis de ses employés, et l'approche de ceux-ci à leur travail et à leur entreprise.

Comment la technologie peut-elle soutenir le département RH ?


Le travail d'équipe, l'alignement autours d’un objectif commun et la conservation des informations sont des éléments qui renforcent la culture d'entreprise. Les responsables des ressources humaines jouent un rôle central dans cet alignement tout au long du parcours de l'employé, et les nouvelles technologies peuvent les aider dans cet accompagnement.

C’est notamment le cas des plateformes de collaboration qui proposent des communications via des canaux dédiés. Chaque flux de discussion héberge ainsi une conversation portant sur un sujet spécifique, et où des membres peuvent être ajoutés ou enlevés sans effort. Par exemple, il est possible d’en créer un pour échanger sur les besoins internes en matière de recrutement.

Les responsables des ressources humaines peuvent ainsi facilement superviser les besoins exprimés par les chefs d’équipes, ce qui réduit la fragmentation à laquelle on assiste avec l’envoi ponctuel d’e-mails par les équipes demandeuses. En outre, les responsables bénéficient d’une vision globale des priorités et des besoins de l'entreprise.

Se sentir proche où que l’on soit


Quant aux nouvelles recrues, elles peuvent être ajoutées aux chaînes de discussions dédiées à leur projet et accéder ainsi immédiatement à l’historique des échanges sur le sujet. Grâce au caractère inclusif de ces chaînes, les employés travaillant à distance ne se sentent plus “loin des yeux loin du coeur", d’autant que la démocratisation d’autres technologies, telles que la visioconférence, permet également de réduire la sensation d’éloignement.

Lorsqu'il s'agit de s'informer auprès des employés, les robots, ou “bots”, sont des solutions pratiques pour recevoir régulièrement leurs avis. Trivago, par exemple, utilise un bot personnalisé baptisé Leo, qui recueille, de manière hebdomadaire, les réactions des 1 500 employés de l’entreprise à une série de 5 questions sur divers sujets. Le département RH peut ensuite analyser facilement les réponses collectées. De cette manière, les RH, les responsables et la direction peuvent répondrent efficacement, et de manière proactive, aux besoins de l’entreprise, contribuant à l’amélioration globale de l’environnement de travail des employés.

Seule, la technologie ne permet pas de créer ou même de nourrir la culture d’une entreprise. Elle offre toutefois un cadre nouveau pour le partage des connaissances au sein d’une organisation et encourage l’adoption de méthodes plus collaboratives. Mais ces outils sont uniquement là pour servir une ambition : une culture du travail qui place le professionnel au centre. Les équipes RH qui posent actuellement les bases de la transformation de leur entreprise, sont les rouages essentiels d’un changement qui verra l’introduction de nombreux défis, mais surtout, de grandes opportunités.

Petite fille avec téléphone. Photo by pan xiaozhen on Unsplash

Elizabeth Englander, Bridgewater State University


Chaque année, de plus en plus de parents envoient leur jeune enfant à l’école primaire équipée d’un smartphone. En France, malgré l’interdiction de l’usage des portables à l’intérieur de l’école et du collègue, les enfants sont bien équipés… Selon une étude qui commence d’ailleurs à dater, (TNS pour e-Enfance, 2009), 70 % des ados de plus de 12 ans ont un téléphone portable et le consultent en permanence.
Aux États-Unis, le pourcentage des élèves de troisième année qui ont déclaré avoir leur propre téléphone portable a plus que doublé, passant de 19 % en 2013 à 45 % en 2017. Et environ la moitié des élèves de quatrième année et 70 % des élèves de cinquième année sont allés à l’école avec un téléphone en 2017.
Les parents citent souvent la possibilité de joindre facilement leur enfant comme principale raison de lui donner un appareil. Il s’agit pour eux d’une question de sécurité. Le « danger des étrangers » et les prédateurs sexuels sont souvent les premiers risques soulignés par les parents. Aux États-Unis, certaines écoles publiques adoptent des politiques qui limitent les contacts personnels entre les élèves et les enseignants.
Pourtant, l’intimidation et la cyber-intimidation sont des problèmes très courants. Dans ma recherche de 2017, j’ai constaté que le fait de donner un téléphone portable à un jeune enfant augmente la probabilité qu’il soit victime d’intimidation ou qu’il devienne lui-même une personne intimidante. Cette étude (portant sur environ 4 500 enfants du primaire) aux États-Unis a révélé que le fait d’avoir un téléphone portable à l’école primaire était associé à l’intimidation et à la cyber-intimidation, à la fois comme intimidateur et comme victime d’intimidation. Un « intimidateur/victime » est, on l’aura compris, un enfant qui est, à différents moments, à la fois intimidateur et victime d’intimidation.
Ma recherche a révélé que si plus de la moitié des intimidateurs de troisième année portaient un téléphone portable, seulement 35 % des enfants qui n’étaient pas impliqués dans des actes d’intimidation en portaient un. De façon encore plus nette, les trois quarts des cyber-intimidateurs de troisième année portaient un téléphone, comparativement à seulement 37 % des élèves de troisième année qui n’étaient pas impliqués dans cette pratique. Les résultats étaient semblables, mais un peu plus faibles, pour les élèves de quatrième et de cinquième année.
Il se peut que les résultats aient été plus probants chez les plus jeunes enfants en raison de leur capacité relativement limitée de comprendre comment fonctionnent les communications dans un environnement numérique. Par exemple, dans un travail de terrain au Massachusetts Aggression Reduction Center, j’ai appris que les adolescents se méfient des émotions qui s’intensifient rapidement en ligne, réalisant qu’elles peuvent mener à des bagarres et à de l’intimidation. Mais les jeunes enfants n’ont généralement pas encore appris cette leçon. C’est ce fossé qui m’a motivé, avec un collègue, à créer un guide pour enfants en vue d’obtenir leur premier téléphone portable.
Les enfants peuvent apprendre à utiliser les téléphones en toute sécurité, et les parents peuvent prendre des mesures pratiques pour réduire au minimum les risques que leur jeune soit victime d’intimidation et de cyber-intimidation, ainsi que des pratiques qui peuvent aider à assurer le bien-être général de leur enfant.
Voici quelques conseils :

1. L’appareil reste la propriété de l’adulte

Le téléphone n’est pas celui de votre enfant, c’est le vôtre. Ainsi, vous avez toujours le droit de le regarder. En vérifiant le téléphone de votre enfant, vous pouvez détecter des messages ou des posts qui peuvent suggérer une implication dans de l’intimidation ou de la cyberintimidation. Une étude MacAfee de 2012 a révélé que la moitié des enfants ont changé leur comportement en ligne s’ils croyaient que leurs parents vérifiaient.

2. Pas de téléphone à l’heure du dîner



Il a été démontré que le dîner en famille protège les enfants contre l’intimidation. Monkey Business Images/Shutterstock


Une étude menée en 2014 par des chercheurs de l’Université McGill a révélé que les dîners de famille ont aidé à protéger les enfants contre l’intimidation. L’heure du repas du soir peut être un moment où l’on peut établir des liens affectifs, même lorsqu’il n’y a pas de grande conversation. Ce peut aussi être l’occasion de discuter des problèmes et des difficultés de chacun, et de débattre des solutions et des stratégies avec la participation des personnes qui vous aiment. Malheureusement, on sait bien que les dîners de famille peuvent être facilement interrompus par des notifications ou des messages des téléphones. C’est pour cette raison qu’une règle « sans appareil » à table peut aider à promouvoir des liens familiaux qui protègent contre l’intimidation.

3. Limiter l’utilisation pendant les devoirs

Écouter de la musique peut être acceptable, mais regarder des vidéos et des émissions de télévision ou jouer à des jeux n’ont pas lieu d’être pendant que les enfants font leurs devoirs. Les études qui ont examiné le fait de faire plusieurs tâches en même temps s’accordent pour dire que cela dégrade la mémoire, l’apprentissage et la performance cognitive.

4. Pas de téléphone avant le coucher



Regarder un téléphone cellulaire juste avant le coucher peut perturber le sommeil. kryvoshapka/Shutterstock


Il a été montré que les écrans lumineux regardés juste avant le coucher peuvent retarder ou interrompre les rythmes de sommeil. Les problèmes de sommeil, à leur tour, ont été liés à l’intimidation. Pour favoriser un sommeil sain et réduire les risques d’intimidation, aidez votre enfant à adopter de bonnes habitudes de préparation au sommeil en rangeant les appareils numériques une heure avant le coucher. S’ils veulent lire à partir de leur appareil, utilisez une application qui a un filtre UVB ou un graduateur de lumière.
Pour aider votre enfant à rester endormi, les appareils devraient être gardés à l’extérieur de la chambre à coucher pour la nuit. Même si votre enfant a l’intention de dormir, un bourdonnement ou une vibration peut le réveiller. Il peut alors être tenté d’envoyer des messages ou de jouer à des jeux.

5. Donnez le bon exemple en voiture



Les textos sont une cause majeure de distraction au volant. Ekaterina Pokrovsky/Shutterstock


Encourager les enfants à abandonner leur téléphone lorsqu’ils sont en voiture peut être une habitude salvatrice pour eux, plus tard. L’habitude peut être prise dès l’école primaire. Un examen des statistiques a révélé, chez les jeunes conducteurs, que l’utilisation du téléphone cellulaire est la deuxième cause de distraction au volant, et donc d’accidents. Pour réduire les risques que cela se produise une fois le permis passé, les parents peuvent apprendre aux jeunes enfants que l’on n’utilise pas un appareil en voiture ; il peut s’agir d’un endroit pour parler, plutôt que d'envoyer des messages.

6. Instaurer un esprit de responsabilité

Posséder un téléphone portable n’est pas un droit, c’est un privilège. En tant que parent, encouragez l’utilisation responsable du téléphone en établissant un lien entre ces privilèges numériques et une attitude de responsabilité. Montrez aux enfants comment gérer leur temps passé sur Internet avec des applications comme unGlue. Enseignez à vos enfants que discuter de problèmes concernant la société fait partie de la maturité nécessaire pour utiliser un téléphone portable. Et songez à demander à vos enfants de participer à la vie de la maison pour « gagner » leurs privilèges numériques.The Conversation

Elizabeth Englander, Professor of Psychology, and the Director of the Massachusetts Aggression Reduction Center (MARC), Bridgewater State University
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Les jeunes face à leur téléphone. DisobeyAr/ShutterstockCC BY-SA

Dr Mike Cooray, Hult International Business School et Dr Rikke Duus, UCL


Alors que les technologies digitales facilitent la croissance à la fois des organisations établies et émergentes, les facettes plus sombres de l'économie digitale commencent à émerger. Au cours des dernières années plusieurs pratiques peu éthiques ont été révélées, y compris la saisie et l'utilisation des données des consommateurs, des activités anticoncurrentielles, et des expériences sociales secrètes.
Mais que pensent de ce développement les jeunes qui ont grandi avec internet? Notre projet de recherche auprès de 400 natifs numériques de 19 à 24 ans, montre que cette génération aussi appelée _GenTech_pourrait bien être celle qui renverse la révolution digitale. Les résultats de notre recherche pointent vers une frustration et une désillusion sur la façon dont les organisations ont accumulé des informations consommateurs en temps réel, sans que ceux-ci n'en aient connaissance, et parfois même sans leur consentement.
Nombreux sont ceux qui comprennent que leur vie digitale a une valeur commerciale pour une variété d'organisations qui utilisent cette information pour le ciblage et la personnalisation des produits, des services et des expériences.
Cette ère d'accumulation en temps réel et de commercialisation de données sur les usagers a été baptisée le capitalisme de surveillance et est une nouvelle ère pour les systèmes économiques

L'intelligence artificielle

Un pilier central de la nouvelle économie digitale est notre interaction avec l'intelligence artificielle (IA) et les algorithmes d'apprentissage. Nos résultats montrent que 47% de la “GenTech” ne veulent pas que l'IA surveille leur mode de vie, leurs achats et leur situation financière afin de leur recommander des achats.
En fait, seulement 29% voient cela comme une interaction positive. Au contraire la plupart veulent garder l'autonomie dans leurs décisions et avoir la possibilité d'explorer de nouveaux produits, services et expériences, en toute liberté.

Le pendule de l'agence oscille entre l'individu et la technologie. Qui prendra le contrôle ?               boykung/Shutterstock


En tant qu'individus de l'ère digitale, nous négocions constamment avec la technologie afin qu'elle prenne ou donne le contrôle. Cet effet de pendule reflète la bataille constante entre l'humain et la technologie.

Ma vie, mes données?

Nos résultats révèlent aussi que 54% de la “GenTech” s'inquiètent quant à l'accès qu'ont les organisations à leurs données, tandis que seuls 19% n'ont pas d'inquiétude sur ce point. Malgré le règlement Européen sur la protection des données introduit en mai 2018, ceci les concerne toujours, basé sur la croyance que trop de données personnelles sont dans la possession d'un petit groupe d'entreprises mondiales comme Google, Amazon ou Facebook. Environ 70% ressentent cela.
Récemment, Facebook et Google ont annoncé que la politique de confidentialité est une priorité dans leur interaction avec les usagers. Les deux entreprises ont dû faire face à une révolte publique envers leur manque de transparence en ce qui concerne la façon dont ils recueillent et stockent les données de consommateurs. Ça ne fait pas si longtemps qu'un microphone caché a été trouvé dans un des systèmes d'alarme de Google.
Google prévoie de proposer une fonction d’effacement des données historiques de localisation géographiques des usagers, des historiques de navigation et d'utilisation des apps, et d'étendre son “mode incognito” à Google maps et à l'instrument de recherche. Ceci permettra aux usagers de couper tout suivi.
Chez Facebook, il tient à cœur au PDG Mark Zuckerberg de repositionner la plate-forme afin d'en faire une plate-forme de communication dédiée à la protection de la vie privée, construite sur des principes comme les interactions privées, le cryptage, la sécurité, l'interopérabilité (la communication entre les App et les plates-formes qui appartiennent à Facebook) et le stockage de données sécurisé. Ceci va être un retournement difficile pour une entreprise qui compte sur son agilité à convertir ses informations sur les usagers en opportunités pour des publicités très personnalisées.

Facebook essaie de rétablir la confiance. PK Studio/Shuttestock


La confidentialité et la transparence sont un sujet d'importance critique pour les organismes d'aujourd'hui – à la fois pour ceux qui ont grandi en ligne, et ceux établis. Alors que les GenTech veulent que les organismes soient plus transparents et responsables, 64% pensent aussi qu'ils ne peuvent pas faire grand-chose afin de protéger leurs données. Le suivi en ligne est vu comme une part intégrale de la consommation digitale.
Malgré cela, de plus en plus, la révolte se prépare en dessous de la surface. Les Gentech veulent s'approprier leurs données. Ils les voient comme une marchandise de valeur, qu'ils pensent pouvoir utiliser dans les négociations avec les organisations. 50% d'entre eux partageraient volontiers leurs données avec les entreprises, s'ils obtenaient quelque chose en retour, par exemple une motivation financière.

Réorganiser la balance des pouvoirs

Les GenTech cherchent une relation transactionnelle avec les organisations. Ceci reflète un important changement d'attitude, d'un point ou l'accès gratuit aux plates-formes digitales constituait le “produit” (en échange de données), à maintenant vouloir échanger ces données pour des bénéfices spécifiques.
Ceci a créé une opportunité pour les sociétés qui cherche à donner le pouvoir aux consommateurs et à leur redonner le contrôle de leurs données. Plusieurs sociétés offrent maintenant aux consommateurs la possibilité de vendre les données qu'ils acceptent de partager ou de prendre part dans de la recherche rémunérée. Un nombre grandissant de compagnies rejoignent ce groupe, y compris People.io, Killi et Ocean Protocol.
Sir Tim Berners Lee, le créateur du web, a lui aussi recherché un moyen de déplacer le pouvoir, des organisations et institutions vers les consommateurs et les citoyens. La plate-forme Solid offre aux usagers la possibilité de prendre charge de l'endroit de stockage de leurs données, et de qui peut y avoir accès. C'est une forme de re-décentralisation.
Le Solid POD (Personal Online Data storage – stockage personnel de données en ligne) est un lieu sécurisé sur un serveur sécurisé, ou sur serveur personnel privé. Etant donné que les données sont stockées de façon centrale et non par le développeur d'une App ou sur le serveur d'une organisation, les usagers peuvent choisir de donner à un App l'accès à leurs données personnelles. Nous considérons que ceci est potentiellement un moyen de laisser les individus reprendre le contrôle à la fois de la technologie et des entreprises.
Les GenTech se sont rendu compte que la réalité de la vie branchée a d'importantes conséquences sur leur vie privée et commencent à se rebeller, tout en questionnant les organisations qui ont montré peu de préoccupations et continuent à appliquer des pratiques exploitantes.
Ces signes de révolte ne sont pas surprenants. GenTech est la génération qui a le plus à perdre. Ils font face à un futur entrelacé de technologie digitale, à la fois dans leur vie personnelle et privée. Avec de plus en plus de pression sur les organisations afin qu'elles deviennent plus transparentes, il est temps pour les jeunes de faire un pas en avant.The Conversation

Dr Mike Cooray, Professor of Practice, Hult International Business School et Dr Rikke Duus, Research Associate and Senior Teaching Fellow, UCLCet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.