reconnaissancefaciale


La reconnaissance faciale va-t-elle permettre de simplifier la vie des Français ou au contraire ouvrir l’ère d’une société de surveillance généralisée ? À l’heure où le gouvernement planche sur une identité numérique, le débat est plus que jamais nécessaire pour trouver le difficile équilibre entre sécurité, libertés publiques et enjeux économiques. 

La reconnaissance faciale va-t-elle permettre de simplifier la vie des Français ou au contraire ouvrir l'ère d'une société de surveillance généralisée à l'image du Big Brother imaginé par George Orwell dans son roman «1984» ? Pour l'heure la question est en débat, entourée de l'enthousiasme des uns et des inquiétudes des autres sur fond de fantasmes variés.
Pour les premiers, la reconnaissance faciale est à la fois source de simplification et de sécurisation. L'expérience menée à Nice lors d u carnaval avec la technologie d'une start-up israélienne a donné des résultats impressionnants de précision (lire plus bas), même si l'exercice reste soumis à des biais notamment sur la diversité des «cobayes».



Pour les autres, simples citoyens ou associations de défense des libertés publiques, cette technologie qui se base sur les réseaux de vidéosurveillance est beaucoup trop intrusive, insuffisamment encadrée et son détournement pour une surveillance de masse une possibilité, à l'instar de ce qui se passe en Grande-Bretagne ou en Chine – ce dernier pays ayant instauré un système de notation de ses citoyens fondé sur la reconnaissance faciale.

Mission d'information à l'Assemblée nationale

La France avance pour l'heure prudemment, notamment avec la mise en place de l'identité numérique Alicem (pour «Authentification en ligne certifiée sur mobile»), lancée par le ministère de l'Intérieur et l'Agence nationale des titres sécurisés (ANTS). Au moment de sa création, cette identité numérique fait appel à la reconnaissance faciale via un smartphone dans des conditions qui restent à éclaircir. Le Conseil national du numérique s'est saisi de la question et mène une série de consultations citoyennes et l'Assemblée nationale a créé fin octobre une mission sur l'identité numérique en France qui doit balayer tant les choix technologiques, l'encadrement juridique, la gouvernance que le modèle économique de cette identité numérique. La Quadrature du Net, association de défense des libertés a, elle, attaqué devant le Conseil d'Etat le décret créant Alicem et demande «l'interdiction pure et simple» de la reconnaissance faciale…
Alors qu'en Europe, l'usage de la reconnaissance faciale est encadré par le Règlement général pour la protection des données personnelles (RGPD), qui suppose un consentement «libre» et «éclairé» des personnes susceptibles d'être filmées, en France, la Commission nationale de l'informatique et des libertés (CNIL) se montre particulièrement vigilante sur les divers projets qui fleurissent et rappelle que l'identification de personnes, dans un espace public, par analyse automatique sans consentement préalable est interdite (sauf en cas d'infraction flagrante ou après décision d'un juge).
Mais ces louables préventions seront-elles assez fortes face à la vague de la reconnaissance faciale ? Car cette technologie mâture a largement dépassé le stade des expérimentations et est déjà dans notre quotidien. 45 % des smartphones se déverrouillent déjà via la reconnaissance du visage de leur utilisateur. Dans les aéroports de Roissy-Charles de Gaulle et d'Orly, 102 bornes de contrôle par reconnaissance faciale ont remplacé celles à lecture d'empreintes digitales. Gain de temps et de fiabilité pour tous les détenteurs de passeports biométriques, soit tous les ressortissants de l'espace Schengen. Dans le transport aérien, le visage des passagers pourrait tout simplement remplacer la carte d'embarquement. Après un test en 2018, le groupe ADP et Air France lanceront une expérience en 2020. La reconnaissance faciale est également utilisée par Eurotunnel, par les banques pour ouvrir un compte ou comme mot de passe pour valider ses achats sur internet voire en boutiques physiques, etc.
Et les applications ne s'arrêteront pas là. De la sécurisation des grands événements sportifs à celle des sites sensibles en passant par la location de voitures : la reconnaissance faciale peut potentiellement être partout, au point que certains activistes tirent la sonnette d'alarme et imaginent déjà des astuces pour la brouiller (via des t-shirts perturbant la reconnaissance par exemple). Mais au-delà des libertés publiques, la reconnaissance faciale implique d'énormes enjeux économiques, y compris en France où opèrent des sociétés spécialisées comme Idemia (ex-Safran Identity & Security) ou Thalès.
Sécurité, protection des libertés, économie autant de thèmes qui nécessitent plus que jamais un vrai grand débat public.

Les Israéliens en pointe

L'expérimentation de reconnaissance faciale à grande échelle menée à Nice en février durant le carnaval doit son succès à une start-up israélienne : AnyVision.
Fondée en 2005 dans le pays qui se revendique comme une «start-up nation», AnyVision Interactive Technologies s'est spécialisée dans la reconnaissance visuelle des humains et des objets. Et son PDG, Eylon Etshtein, entend bien devenir un des leaders mondiaux d'un secteur en plein boom.
Basée à Tel Aviv, AnyVision – dont l'un des conseillers est un ancien patron du Mossad, les services secrets israéliens – a su nouer des partenariats stratégiques avec Telefonica, Bosch, NVidia, ou encore Google et Microsoft, et surtout a su utiliser les recherches menées en Europe. «Nos algorithmes et nos produits sont le fruit de recherches fondamentales collectées au Royaume-Uni dans les meilleures universités du pays : Oxford, Cambridge, Queens. Mon associé, le professeur Neil Robertson, a trouvé les moyens de les appliquer et ainsi est née AnyVision», détaillait l'an dernier Eylon Etshtein dans un entretien à L'Usine digitale.
Le système mis au point par AnyVision se distingue d'une part par sa capacité à évoluer pour s'adapter à toutes les conditions possibles de prises de vues des caméras de vidéosurveillance (météo, luminosité,…) et d'autre part à utiliser le deep learning (apprentissage profond) et l'intelligence artificielle. La start-up revendique ainsi une précision de 99 %.
De quoi séduire de nombreuses villes ou états, aux États-Unis, en Amérique centrale ou en Europe, d'autant que ses logiciels de reconnaissance biométrique peuvent fonctionner avec tous types de caméras et requièrent peu de capacités de calculs informatiques. 43 pays en ont déjà fait l'acquisition et l'utilisent sur 350 sites comme les aéroports, les casinos, les stades…
Face aux craintes exprimées sur le risque de surveillance de masse, AnyVision met en avant qu'elle ne vend ses systèmes «qu'aux pays démocratiques dotés de gouvernements appropriés» et que ses solutions respectent la vie privée et notamment le Règlement général sur la protection des données (RGPD).
«Nous n'avons pas besoin de filmer et garder en stock les visages. Une fois que notre système est installé, il pixélise automatiquement tous les profils, même l'opérateur du centre de contrôle ne peut pas voir votre visage car les modèles mathématiques ne représentent que les personnes d'intérêt. Notre solution est conforme aux normes européennes, au RGPD bien sûr, c'est même un excellent argument de vente pour nous», expliquait le PDG.


Inquiétude autour de l'identité numérique Alicem


La reconnaissance faciale s'invite dans la nouvelle application voulue par le gouvernement : Alicem, pour «Authentification en ligne certifiée sur mobile», lancée par le ministère de l'Intérieur et l'Agence nationale des titres sécurisés (ANTS). En test depuis juin, cette application à installer sur son smartphone Android (Apple a refusé d'ouvrir le lecteur de ses iPhone) Alicem donnera accès à l'ensemble des services partenaires de FranceConnect, le dispositif de l'État qui facilite l'accès aux services en ligne (plus de 500 services publics disponibles, dont la demande de passeport, d'allocation logement, etc.). Créer un compte Alicem n'est pas obligatoire mais simplifie évidemment la connexion aux services de l'Etat.
L'identité délivrée par Alicem est basée sur les informations contenues dans la puce sécurisée d'un titre biométrique (passeport ou titre de séjour). Lors de la création du compte, Alicem vérifie par reconnaissance faciale que la personne qui utilise le smartphone est bien le détenteur du titre. Il s'agit de réaliser une courte vidéo de soi en faisant certains mouvements du visage. Un logiciel de reconnaissance faciale vérifie que la vidéo et la photo correspondent. Si c'est le cas, un code à six chiffres est généré et communiqué à l'utilisateur. Il sera valable pour toutes les identifications futures.
La vidéo est ensuite détruite, assure l'ANTS. La CNIL s'est montrée très réservée, notamment sur le fait que l'ANTS conserve certaines données d'historique de connexion. Pour lever les inquiétudes, le CNNum (Conseil national du numérique), saisi par le secrétaire d'État chargé du Numérique sur l'identité numérique en juillet, a décidé d'organiser jusqu'à mi-décembre une série de consultations.
La première a eu lieu à Montpelier hier, une autre suivra à Lyon le 16 novembre puis à Paris le 23 novembre. Le CNNum présentera des recommandations au gouvernement début 2020.

Nice : laboratoire des nouvelles technologies

C'est une scène culte du cinéma de science-fiction. Dans le film «Minority report» de Steven Spielberg – adaptation de la nouvelle éponyme de Philip K. Dick – sorti en 2002, le héros John Anderton, incarné par Tom Cruise, est traqué par la police. Pour éviter qu'elle ne le retrouve grâce aux multiples scanners de la rétine qui sont déployés partout dans cette société de 2054, il décide de se faire transplanter de nouveaux yeux afin de pouvoir se déplacer incognito
Aujourd'hui, la science-fiction est devenue réalité et la reconnaissance faciale est en train de tout bouleverser : notre société comme notre quotidien. Depuis 2017, l'iPhone d'Apple accueille un dispositif FaceID de reconnaissance du visage et en 2020, un tel dispositif pourrait équiper quasiment tous les smartphones. Mais les expérimentations vont bien au-delà du simple déverrouillage de son smartphone et c'est la ville de Nice qui en a apporté la démonstration.

Test sur le Carnaval

L'engouement du maire LR Christian Estrosi pour la vidéosurveillance et les technologies d'identification biométrique est connu de longue date ; Nice compte une caméra pour 145 habitants et depuis juillet 2018, l'aéroport de Nice-Côte d'Azur a inauguré une évolution du système de Passage automatisé rapide aux frontières extérieures (PARAFE), qui ne vérifie plus l'identité par empreinte digitale mais par reconnaissance faciale.
Cette année, l'édile a voulu aller plus loin qu'en expérimentant justement cette reconnaissance faciale, mais sur la voie publique à l'occasion du carnaval de Nice. Une première en France, pour laquelle la Commission nationale informatique et libertés (Cnil) a été tardivement saisie. Si elle a accompagné l'expérimentation, elle n'a pas eu besoin de délivrer de feu vert, puisque depuis l'entrée en vigueur du RGPD (règlement général européen sur la protection des données personnelles) le 25 mai 2018, les dispositifs biométriques ne sont plus soumis à son autorisation préalable… Tout juste la CNIL a-t-elle rappelé que la reconnaissance faciale sur la voie publique ne pouvait, dans le cadre législatif actuel, «aller au-delà du simple test», aucune loi n'étant pour l'heure adaptée aux «dispositifs de reconnaissance faciale».



L'expérimentation niçoise devait notamment permettre de tester différents scénarios sur un périmètre donné, comme celui d'un enfant perdu dans la foule, d'une personne âgée vulnérable elle aussi égarée ou encore d'une personne dite «d'intérêt», c'est-à-dire recherchée. Un millier de volontaires venant au carnaval devaient être amenés à jouer le rôle de cobaye et à accepter le principe de la reconnaissance faciale. Mais devant la difficulté à recueillir le consentement des personnes, la Ville a réalisé le test avec une quarantaine de «cobayes.»
Six caméras de vidéosurveillance positionnées sur le périmètre de test ont été secondées par le logiciel AnyVision, créé par une start-up israélienne.
«À l'issue de l'expérimentation, nous établirons un rapport et une proposition de loi qui doit permettre de faire évoluer les lois Informatique et Liberté de 1978 et celle sur la vidéosurveillance de 1995», avait annoncé Chistian Estrosi le 18 février.

Technologie israélienne

Cette semaine, nos confrères de La Croix ont dévoilé les grandes lignes de ce rapport et les résultats sont impressionnants, dépassant tout ce que l'on connaissait jusqu'à présent. Ainsi, lorsque les policiers municipaux étaient en charge d'identifier une quarantaine de volontaires dans une foule de 5 000 personnes. «Le logiciel est capable d'indiquer en temps réel lorsqu'une personne est autorisée à pénétrer dans une zone dédiée» en la comparant immédiatement à une base de données, détaille le rapport, qui précise aussi que la personne peut être «de profil et en mouvement».
Mieux, le logiciel a été capable de reconnaître une personne «à partir d'une photo vieille de 40 ans, alors que l'œil humain n'est pas en mesure d'affirmer avec certitude qu'il s'agisse de la même personne». AnyVision est également parvenu à distinguer… des jumeaux ! «Les jumeaux sont rentrés simultanément dans la zone ; seul le jumeau dont la photo a été fournie a été reconnu, le second n'a jamais été reconnu», détaille le rapport.
Enfin, lors d'une recherche d'individus dans une foule en mouvement, le logiciel a été capable de les repérer quelles que soient les conditions : «de jour ; de nuit ; de près ; de loin ; en forte luminosité ; en faible luminosité ; avec photo récente ; avec photo ancienne.»
«Le défaut de cadre juridique a eu pour effet de limiter grandement cette expérimentation qui n'a pu être menée que sur une partie de l'une des entrées du carnaval, et non à l'entière échelle de la manifestation», concluent les auteurs du rapport.

Inquiétudes de la CNIL

Ces résultats spectaculaires – qui masquent toutefois quelques biais – confortent en tout cas Christian Estrosi dans sa volonté d'étendre un tel dispositif. Le maire de Nice, par ailleurs président délégué du conseil régional de Provence-Alpes-Côte-d'Azur (PACA), souhaitait ainsi expérimenter la reconnaissance faciale dans deux lycées de la région, notamment pour en sécuriser l'accès. Mais le 29 octobre, la CNIL a rendu un avis défavorable, ses membres estimant que «ce dispositif concernant des élèves, pour la plupart mineurs, dans le seul but de fluidifier et de sécuriser les accès n'apparaît ni nécessaire, ni proportionné pour atteindre ces finalités.»
«La CNIL a considéré que le dispositif projeté est contraire aux grands principes de proportionnalité et de minimisation des données posés par le RGPD. En effet, les objectifs de sécurisation et la fluidification des entrées dans ces lycées peuvent être atteints par des moyens bien moins intrusifs en termes de vie privée et de libertés individuelles, comme un contrôle par badge».
«Cette décision a un siècle de retard», a pesté Christian Estrosi, qui a déclaré qu'«avec Renaud Muselier, président de la Région PACA, nous ne nous arrêterons pas à cette décision et continuerons de travailler sur cet outil efficace et moderne qui doit permettre de mieux sécuriser nos établissements tout comme l'espace public». Même s'il avait pu passer outre l‘avis de la CNIL, Christian Estrosi a préféré que la région PACA présente un nouveau dossier auprès de la CNIL, afin de mieux se conformer au RGPD.
La réunion n'est pas censée être un temps pour répondre à ses emails ! Jacob Lund / Shutterstock
Yann-Mael Larher, Sciences Po – USPC


L’utilisation des téléphones mobiles est interdite dans l’enceinte des écoles et des collèges. Cette mesure vise à sensibiliser les élèves à l’utilisation raisonnée des outils numériques et à leur faire pleinement bénéficier de la richesse de la vie collective. En effet, selon le ministère de l’Éducation nationale, « l’utilisation du téléphone portable peut nuire gravement à la qualité d’écoute et de concentration nécessaire aux activités d’enseignement ». En outre, « leur utilisation dans l’enceinte des établissements diminue la qualité de la vie collective pourtant indispensable à l’épanouissement des élèves ».
Or, si le smartphone perturbe la vie scolaire, son immixtion dans la vie professionnelle n’est pas non plus sans poser des questions dans la sphère personnelle et professionnelle des adultes.

Tous perturbés

Trop souvent, on subit la connexion plus qu’on ne la choisit. Dans l’entreprise, les salariés sont sollicités en permanence par leurs collègues via la messagerie interne, les appels téléphoniques, les SMS, mais aussi par leurs amis sur les messageries instantanées et toutes sortes d’alertes. Or, le cerveau humain n’est pas fait pour traiter autant d’informations et de sollicitations. Le « FOMO » (fear of missing out), soit l’angoisse de passer à côté d’une information, a grandi avec la sophistication des applications où tout est étudié avec soin pour que nous y revenions le plus souvent possible.
Nous vérifions ainsi en moyenne notre téléphone plus de 220 fois par jour, selon une étude menée en 2014. À chaque fois qu’on est sollicité, le cerveau « reboot ». Pour repartir sur une tâche de fond, il faut plusieurs minutes pour se remettre dedans. En effet, le cerveau n’est pas en mesure de réaliser plusieurs tâches de manière strictement simultanée. En fait, plusieurs zones peuvent s’activer en même temps, mais le cerveau ne traitera qu’une seule tâche à la fois. Ce phénomène, comparable au clignement des yeux, interrompt temporairement, mais inconsciemment, notre attention. Ainsi, lorsque nous devons alterner rapidement entre deux tâches, nous risquons de perdre le fil de certaines informations.
C’est un vrai problème pour la productivité, mais aussi pour la santé. Les personnes qui souffrent de burn-out n’arrivent souvent plus à faire la part entre les informations qui sont importantes de celles qui ne le sont pas.

Se déconnecter… pendant le travail

Quand on parle de déconnexion, on pense d’abord à ce qui se passe à la maison. C’est le fameux droit à la déconnexion, ou le droit au repos. Mais on devrait aussi parler de la déconnexion dans l’enceinte de l’entreprise. En effet, on pense spontanément aux mails professionnels traités pendant le temps de repos, mais plus rarement aux messages personnels pendant le temps de travail. Or, le cerveau ne fait pas la distinction entre une notification Facebook pour la cagnotte d’anniversaire de votre meilleur ami et un mail qui retrace le suivi d’un projet professionnel.
Bien sûr, les salariés peuvent aller sur Facebook pour faire une pause. Mais attention à ne pas confondre pause « choisie » et pause « subie ». Autrement dit, « je vais faire ma pause Facebook car j’ai bossé suffisamment et mon cerveau a besoin de faire une pause », est très différent de « je vais sur mon smartphone car mon téléphone vient de vibrer ». Ce sont deux paradigmes très différents.
Le premier cas va me permettre d’être plus productif et de me remettre plus facilement au travail, de m’aérer l’esprit et de trouver plus facilement des idées nouvelles. Dans le deuxième cas c’est juste subi : « je fais des pauses Facebook, mais ce ne sont pas tellement des pauses car elles sont tellement nombreuses que, finalement, je n’arrive pas à bien faire mon travail, et à la fin de ma journée je ne suis pas satisfait, je vais devoir ramener du travail et des soucis professionnels à la maison car ma journée de travail a été mal organisée ».

Des réunions où l’on s’écoute (enfin)

L’entreprise a évidemment sa part de responsabilité dans ce phénomène et devrait accompagner les collaborateurs à mieux s’organiser. Le problème de fond ne vient pas des outils numériques, mais de la manière dont on organise les temps dans l’entreprise.

Blog-emploi.com

Trop souvent, les salariés se retrouvent par exemple à accepter des réunions tout en se demandant ce qu’ils vont bien pouvoir y faire. Les outils numériques rendent alors ces réunions presque « soutenables ».
On organise des réunions et les gens ne disent rien, si la réunion leur semble utile ou non, ils s’y rendent alors même que certaines ne les concernent pas directement. Ils savent qu’ils vont pouvoir traiter leurs mails en réunion, et envoyer des messages, parfois même aux gens qui se trouvent dans la même salle de réunion qu’eux. Là, il y a un gros problème, car on mélange tout. Une réunion, c’est un moment où on se connecte avec les gens qui sont dans la même salle pour parler d’un sujet et d’un seul sujet.

« En France, les réunions sont mal pensées ». Témoignage de Michel Mondet, président du cabinet de conseil Akéance, sur Xerfi canal (2019).

Si on souhaite faire de la réunion un élément positif pour les organisations et ceux qui y travaillent, il faut prendre en compte une nouvelle concordance des temps professionnels et personnels rendue possible par les outils mobiles. On pourrait notamment raccourcir les réunions et couper les téléphones pour que les gens s’écoutent. Plutôt que d’instaurer un droit à la déconnexion, on ferait ainsi mieux de parler de bonne connexion, d’inventer de nouveaux équilibres et d’apprendre à se servir des technologies à bon escient pour réguler leurs usages plutôt que de vouloir compartimenter des espaces de vie qui ne le seront jamais !

Une nouvelle concordance des temps

Les réticences managériales face aux mesures en faveur d’une nouvelle articulation des temps de vie reposent sur une hypothèse tayloriste obsolète selon laquelle la création de valeur est proportionnelle au temps de présence. Contrairement à ce qui est établi, les horaires stricts ne favorisent pas la productivité au travail. Tout le monde n’est pas forcément au mieux de sa forme entre 9h et 18h. L’homme numérique est au centre de son monde, il doit se sentir libre et léger. Certaines personnes sont plus efficaces le matin, d’autres le soir et pourtant on continue de demander à tout le monde d’arriver à la même heure. Ce qui compte le plus, c’est la qualité des relations et la capacité à solliciter ces dernières au moment où leur attention est disponible.
En définitive, il faut retrouver des moments pour le travail de fond, d’autres pour se synchroniser ou encore pour se détendre. Contrairement aux organisations du XXe siècle, ces moments n’ont plus systématiquement besoin d’être identiques pour tout le monde au même temps et sur les mêmes lieux. En revanche, nous ne pouvons pas physiquement faire perdurer ces moments… tous en même temps !The Conversation

Yann-Mael Larher, Professeur associé, spécialiste des relations numériques de travail, Sciences Po – USPC
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Andrey Bespalov / Shutterstock
Alberto Nájera López, Universidad de Castilla-La Mancha


En mai 2011, le Centre international pour la recherche sur le cancer (CIRC, ou IARC en anglais), agence dépendant de l’Organisation mondiale de la santé (OMS), annonçait que les champs électromagnétiques de radiofréquence, autrement dit ceux émis par les téléphones portables, seraient désormais considérés comme des agents cancérogènes appartenant au groupe 2B. Autrement dit, le CIRC considère ces émissions comme « possiblement cancérogènes pour les êtres humains ».
Près d’une décennie plus tard, où en sommes-nous ?

À quoi correspondent les divers groupes d’agents cancérigènes ?

Le CIRC classifie les agents cancérogènes en quatre groupes, en fonction du degré de preuves disponibles les concernant :

(pour lire ce tableau sur votre téléphone dans les meilleures conditions, orientez ce dernier en format « paysage »)
Les termes en italique déterminent le niveau de preuves existantes : limitées, suffisantes ou solides. Ce sont eux qui permettront la classification d’un agent dans un groupe ou dans un autre.
Des indications de cancérogénicité suffisantes signifient que les données évaluées permettent d’établir une relation de cause à effet entre l’exposition à l’agent et la survenue de cancers chez l’être humain. Une indication limitée de cancérogénicité indique qu’il existe une association positive entre l’exposition à un agent et la survenue de cancers chez l’être humain, mais que l’incertitude (liée au hasard, à d’éventuels biais…) n’a pu être exclue. Les données provenant des animaux peuvent être quantitativement ou qualitativement limitées. Enfin, une indication insuffisante de cancérogénicité signifie que les données chez l’être humain ou l’animal sont absentes ou ne peuvent être interprétées.

Les téléphones portables dans le groupe 2B

Étant donnée la définition des groupes du CIRC, en particulier celle du groupe 2B, affirmer que « l’OMS a classifié la radiation des téléphones portables comme étant cancérigène » est absolument faux.
Lors de son annonce, le CIRC lui-même indiquait que le degré de preuve était limité pour les utilisateurs de téléphones sans fil atteints de gliome (un type de cancer du cerveau) ou de neurinome de l’acoustique (tumeur sur le nerf acoustique). En outre, le CIRC jugeait « inadéquat » le degré de preuve pour les expositions environnementales ou professionnelles (radiation des antennes, en particulier pour les travailleurs).
Pourquoi alors avoir classé ces émissions dans le groupe 2B ? Ce choix résulte de la publication des résultats d’une étude de 2011 dans la revue Occupational & Environmental Medicine. Celle-ci révélait une augmentation du risque de gliome chez les utilisateurs de téléphones portables qui déclaraient une utilisation de plus de 30 minutes par jour sur les 10 années précédentes.
Cette décision a été très critiquée dans la communauté des chercheurs en bioélectromagnétisme (qui étudie les interactions entre les champs électromagnétiques et le vivant), car elle ne respectait aucun des critères requis. Les auteurs de l’étude eux-mêmes affirmaient dans leur conclusion :
« L’incertitude liée à ces résultats exige qu’ils soient reproduits avant de pouvoir en tirer une interprétation causale. »

Et depuis, quoi de neuf ?

En juin dernier, je me suis rendu au congrès BIOEM2019, qui se tenait à Montpellier. Organisée par les deux sociétés scientifiques les plus importantes du secteur (The Bioelectromagnetics Society et l’European Bioelectromagnetism Association), il s’agit de la plus grande manifestation internationale sur le bioélectromagnétisme.
Maria Feychting, chercheuse, professeure et directrice de l’unité d’Épidémiologie de l’Institut Karolinska y a donné une session plénière intitulée « Les preuves de cancérogénicité des champs électromagnétiques de radiofréquence ont-elles changé depuis l’évaluation du CIRC ? » :
Les principales preuves du lien possible entre le cancer et les téléphones portables émanent du chercheur Lennart Hardell. Très acclamé par les mouvements anti-antennes, il est connu dans le domaine du bioélectromagnétisme pour son point de vue et ses publications très controversées. Les études censées soutenir sa thèse, apportées dans le cadre de procès ou dans d’autres contextes, ont été critiquées par la communauté scientifique car comportant de nombreux défauts conceptuels et d’analyse.
Au cours de sa présentation, Maria Feychting a mis en évidence le fait que Lennart Hardell est non seulement le seul à mettre en évidence des liens positifs entre champs électromagnétiques de radiofréquence (CEM-RF) et cancérogénicité mais que, de plus, ces derniers sont faibles. Par ailleurs, aucune des études postérieures menées par différentes équipes à travers le monde ne les corrobore.
C’est par exemple le cas d’une étude de cohortes danoises de long terme qui a inclus plus de 350 000 personnes, ou d’autres travaux menés par le Cancer Research UK et le National Health Service au Royaume-Uni, basés sur une cohorte d’un million de femmes. Dans ces deux cas, aucun risque majeur de cancer lié à l’utilisation de téléphones portables n’a pu être démontré. Conclusion :
« Il n'y a pas eu d'augmentation du risque de tumeurs du système nerveux central, ce qui ne prouve guère l'existence d'une association causale… »
Fleychting a attiré l’attention sur une autre étude de Hardell dans laquelle ce dernier évaluait, de 2007 à 2009, les gliomes de patients ayant été exposés à des CEM-RF pendant « plus de 25 ans ». Curieusement, à l’époque de l’étude et dans l’intervalle d’années analysé, la téléphonie mobile n’était présente en Suède que depuis 23 ans, et en aucun cas majoritairement répandue…
D’autres études parues en 2012 ont comparé l’augmentation des incidences de cancers prédites des années plus tôt par Hardell aux observations réelles. Elles démontrent que l’augmentation annoncée n’a pas eu lieu et qu’au contraire, la tendance suivie est similaire à la tendance précédant l’apparition des téléphones portables. Dans le cas des États-Unis, la tendance est même – étonnamment – plutôt à la baisse. Une incidence plus élevée a été constatée seulement chez les adultes de plus de 75 ans, et non chez les jeunes, qui sont en principe ceux qui utilisent le plus les téléphones portables. Cette tendance a été attribuée à l’amélioration du diagnostic ainsi qu’à l’allongement de la durée de vie.
Toutes ces données contredisent les découvertes et les prédictions d’Hardell, qui recommande d’éviter l’utilisation du portable chez les jeunes de moins de 20 ans.
On peut donc affirmer que les résultats qui ont poussé le CIRC à prendre cette décision de classement des CEM-RF dans le groupe des agents « possiblement cancérogènes pour l’être humain » n’ont pas été confirmés par l’épidémiologie. En outre, les preuves les plus récentes contredisent les découvertes d’Hardell et de ses collaborateurs, dont les études doivent être remises en question.

Qu’en est-il de l’étude récente sur des rats ?

Après Mary Fleychting, qui s’est focalisée sur les études épidémiologiques, la scientifique Florence Poulletier De Gannes est intervenue pour faire le point sur les résultats concernant les animaux de laboratoire.
Elle est revenue sur deux études très solides, réalisées sur des rats. Publiées en 2018, elles révélaient un lien entre l’exposition aux CEM-RF et un type de cancer du cœur (extrêmement rare chez les humains). Ce résultat ne concernait que les rats mâles. L’une de ces études était issue du Programme national de toxicologie (NTP) des États-Unis, l’autre émanait de l’Institut Ramazzini en Italie.
Problème : ces deux études comportent des incohérences et des limitations qui freinent grandement l’applicabilité de leurs résultats lorsqu’il s’agit d’établir des modèles ou des limites d’exposition, et restreignent leur utilité. Surtout, lesdites limitations font obstacle à leur extrapolation sur l’être humain.
En définitive, il n’existe donc à l’heure actuelle toujours aucune preuve solide avalisant un lien entre l’utilisation des téléphones portables et le développement de cancer. Non seulement l’épidémiologie ne confirme pas cette hypothèse, mais de plus les résultats obtenus chez l’animal restent fragiles et contestables.The Conversation

Alberto Nájera López, Profesor Contratado Doctor de Radiología y Medicina Física, Universidad de Castilla-La Mancha
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
computer


Chaque année, les élèves de classe de 3e ont l’obligation de réaliser un stage d’observation en entreprise. Le Cluster Digital 113 et l’association JobIRL ont décidé de se mobiliser et d'agir ensemble pour favoriser l’accueil des élèves au sein d’entreprises du secteur du numérique. Les deux partenaires lancent le kit « Stage de 3e », un outil à destination des entreprises visant à leur faciliter et simplifier l’accueil d’un stagiaire.
"Avec ce kit, nous souhaitons permettre aux jeunes, et notamment à ceux qui n’ont pas de réseau relationnel, d’établir un contact avec le monde du Numérique, de découvrir nos métiers et nos entreprises. Nous souhaitons également agir sur leur orientation, les sensibiliser à un secteur qui recrute et offre de belles perspectives d’évolution", explique Amélie Leclercq, Directrice Générale du Cluster Digital 113.

Savoir quelles activités proposer

"Le stage de 3e est une étape clé de la découverte du monde professionnel pour les jeunes, et faire ce stage dans un secteur en pleine explosion, est une vraie opportunité pour eux. Or pour les entreprises du numérique, le frein est souvent la crainte de n’avoir rien de très concret à proposer aux stagiaires, alors que les activités peuvent être très variées et riches ! Tout y a été pensé pour leur faciliter l’accueil des élèves. Une belle façon pour les entreprises d’attirer également les talents de demain ! » rajoute Agnès Montmerle, Déléguée Régionale de JobIRL.
Le kit est téléchargeable gratuitement sur le site www.digital113.fr



Qui arrivera à détrôner Netflix, le leader de la vidéo à la demande sur internet avec ses quelque 158 millions d'abonnés dans le monde ? Peut-être Apple qui a lancé hier son nouveau service «Apple TV +» dans une centaine de pays dont la France. Le fabricant de l'iPhone, qui se diversifie de plus en plus dans les services (musique, jeux vidéo, banque, cloud), a mis le paquet pour séduire des internautes qui ont de plus en plus l'embarras du choix des plateformes de streaming.

Plutôt que la taille de son catalogue de programmes (séries et films) forcément moins fourni que celui de Netflix, Apple mise sur un prix bas (4,99 dollars par mois) et sur des programmes de qualité, avec des séries haut de gamme. Dans «The Morning Show», on retrouvera Reese Witherspoon et Jennifer Aniston, Jason Momoa (vu dans Aquaman ou Game of Thrones) jouera dans «See», une série de science-fiction, et Oprah Winfrey, animatrice vedette outre-Atlantique, animera une nouvelle émission. «Apple a la possibilité de faire venir 100 millions de consommateurs sur son service de streaming dans les trois à quatre prochaines années», estime l'analyste Dan Ives, dans une note aux investisseurs.

Il est vrai qu'Apple dispose d'une base de 1,4 milliard d'utilisateurs actifs de ses appareils et qu'elle a décidé d'offrir un an d'abonnement gratuit pour tout achat d'un iPhone, iPad, Mac ou de son boîtier AppleTV.

Des arguments sans doute nécessaires car la concurrence va s'intensifier dans les mois à venir. À côté des historiques Netflix, Hulu, OCS ou Amazon Prime vidéo, de nouveaux acteurs vont arriver et pas les moins solides. Disney + débarque le 12 novembre avec son énorme catalogue (aux Etats-Unis d'abord), NBC-Universal lancera Peacock au printemps et WarnerMedia lancera HBO Max. Sans compter en France le lancement de Salto, la plateforme commune à France télévisions, TF1 et M6.

Infographie: Vidéo en ligne : où les Français dépensent leur argent ? | Statista

La «guerre du streaming» est donc bel et bien déclarée d'autant que les Français passent de plus en plus de temps devant des vidéos à la demande : 17,3 millions ont regardé au moins un programme sur une plateforme au cours de l'année écoulée selon Mediamétrie.

Faute de pouvoir s'abonner à toutes les plateformes, les Français vont devoir faire des choix pour pouvoir suivre leurs séries préférées. Et certains acteurs redoutent… un retour du piratage. Un comble.
L’IA changera les programmes et la façon dont les profs interagissent avec les étudiants. Shutterstock
Par Andreas Kaplan, ESCP Europe


Le MIT a récemment annoncé qu’il consacrera 1 milliard de dollars à l’étude de l’intelligence artificielle. La plupart des établissements d’enseignement supérieur à travers le monde ne peuvent s’aligner sur de tels investissements. L’IA n’en changera pas moins la façon dont ils enseignent et interagissent avec les étudiants, et influencera les contenus à enseigner.

L’avenir se conjugue au présent

L’IA appliquée à l’éducation n’est plus un scénario de science-fiction. Jill Watson, le supercalculateur d’IBM, remplit déjà à merveille le rôle d’assistant numérique auprès d’étudiants du monde entier. Ses réponses sont tellement convaincantes que certains étudiants de Georgia Tech n’ont jamais réalisé qu’un ordinateur leur répondait.
Gradescope offre un autre exemple de substitution avancée. Il s’agit d’un système d’IA qui seconde les enseignants dans la tâche fastidieuse de la correction et notation de copies. Le temps libéré peut alors être réinvesti dans des activités pédagogiques ou de recherche.
Au-delà du gain de temps, l’IA ouvre aussi la voie à la diffusion d’un contenu complètement personnalisé aux besoins et au rythme de chaque étudiant. Cette technologie peut également aider à compléter l’enseignement traditionnel. À l’Oregon State University, les étudiants suivent des cours en ligne avant les cours en présentiels. Les résultats sont analysés en temps réel et aident les professeurs à ajuster leurs cours en classe ; 85 % des étudiants estiment qu’il s’agit d’une « amélioration modérée ou majeure ».
La Chine offre une vue d’ensemble saisissante de l’essor futur des technologies de pointe : ses établissements utilisent massivement la reconnaissance faciale pour analyser notamment les émotions des étudiants et jauger colère, bonheur et surprise, entre autres.
Premiers concernés par la campagne gouvernementale en faveur de campus intelligents, les étudiants du pays doivent passer par la reconnaissance faciale pour indiquer leur présence, entrer à la cafétéria ou à la bibliothèque. Bien que son potentiel soit encensé par les géants du numérique, les risques de dérive pourraient inciter des universités à se positionner sur ces enjeux.

Repenser les programmes

L’IA aura également une influence sur les cours enseignés par les universités. Actuellement, les programmes scolaires sont créés comme si le monde n’avait guère changé. L’IA pourrait aider à établir des liens entre la performance professionnelle et les cours et les activités parascolaires suivi, ce qui aiderait les établissements à ajuster le contenu des cours et la pédagogie.
Quelles compétences pour ce monde qui phosphorerait à l’intelligence artificielle ? L’ingéniosité et la curiosité semblent indispensables. Des bases en programmation et en analyse de données pourraient faciliter de futures collaborations entre hommes et machines, de la même manière qu’il est utile de connaître quelques mots de chinois quand on travaille avec la Chine.
Enfin, l’éthique sera essentielle. Certains exigent d’ores et déjà des cours liant intelligence artificielle et humanité pour répondre aux questions sur l’équité, l’éthique et la protection de la vie privée.
Pourtant, instaurer ces cours impliquera d’en supprimer d’autres. N’est-ce pas alors le devoir de l’enseignement supérieur que d’aller plus loin et de concevoir de meilleures façons de préparer l’humanité à un monde dominé demain par l’IA ? Pour être provocateur, qu’est-ce qui justifie l’apprentissage des mathématiques ? S’il s’agit d’entraîner le cerveau à penser de manière structurée, d’autres méthodes émergeront probablement grâce à l’intelligence artificielle. Un enseignement efficace au XXIe siècle devrait être fondé sur l’hypothèse de liens intrinsèques entre hommes et machines.

BTP, BDE, Britney

Les effets de l’IA sur l’enseignement supérieur commencent à se faire sentir. Pourront-ils entraîner une innovation de rupture ? Par exemple, les bâtiments physiques vont-ils disparaître ? Cela semble envisageable pour des enseignements qui ne nécessitent ni laboratoires ni équipements physiques.
Cependant, la probabilité que cela se produise est faible. L’apprentissage individuel se fera certes en ligne, mais l’enseignement supérieur ne peut se résumer à l’acquisition de connaissances factuelles : il s’agit tout autant de construire des réseaux proches, d’échanger des idées de vive voix et de se rendre présent.
Les bâtiments resteront importants. Mais les amphithéâtres se transformeront en espaces qui encouragent le travail d’équipe, permettant aux étudiants d’être créatifs, et de vivre des expériences mémorables. Les associations étudiantes telles que le BDE et les clubs sportifs deviendront d’autant plus importants. L’IA et l’Internet des objets rendront possible une occupation optimale des salles, un contrôle plus efficace du chauffage et de l’éclairage, mais aussi des configurations personnalisées pour les différents styles pédagogiques.

L’enseignement supérieur face au numérique : menaces et opportunités.

Le corps professoral devra lui aussi se transformer pour enrichir l’expérience d’apprentissage. Si les étudiants peuvent apprendre le même contenu (encore mieux) en ligne, pourquoi devraient-ils assister aux cours ? Les professeurs survivront-ils dans un tel contexte ?
L’industrie de la musique donne un indice : bien que YouTube propose un contenu inépuisable de vidéos de stars telles que Britney Spears, les concerts sont toujours plébiscités, peut-être même davantage qu’avant. Regarder Britney en direct sur scène sera toujours mieux que de la voir en ligne, et il en va peut-être de même pour les professeurs charismatiques.

Transformation ou disruption ?

Il est certain que de nouveaux acteurs entreront sur le marché, tel qu’University 20.35, où chaque étudiant progresse grâce aux recommandations de l’IA, qui tient compte de son empreinte numérique et de celle des autres étudiants. Toutefois, les nouveaux entrants auront du mal à bouleverser un secteur régulé par l’État, par des accréditeurs privés ou par des exigences de classement. L’enseignement supérieur est plutôt lent et résistant au changement.
Plus problématique, l’enseignement supérieur fait face à la réduction du financement (public), investit beaucoup d’efforts dans la conformité aux accréditations et classements susmentionnés et peine bien souvent à encourager ses professeurs à s’engager dans cette transformation (sans compter l’arbitrage difficile des investissements nécessaires). Ce paradoxe fait écho aux débats opposant chauffeurs de taxi et chauffeurs de VTC, alors que tous deux seront vraisemblablement au chômage dès que les voitures autonomes envahiront nos rues.The Conversation

Andreas Kaplan, Rector, ESCP Europe
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
datacenter


Par Cécilia Henry-Audebrand, Consultante au sein de l’activité Security4Business chez Magellan Partners


Mars 2018, le scandale Cambridge Analytica fut lourd de conséquences pour Facebook : un cours de bourse qui dévisse de 8 milliards de dollars, une perte de confiance de 40 % des internautes, la suppression de millions de profils utilisateurs privant le réseau social de revenus publicitaires immédiats.

Cette actualité nous enseigne que les impacts d’une violation de données ne se bornent pas à une sanction financière. Ils sont vastes et s’appliquent sur le long terme : perte de confiance des clients, utilisateurs, partenaires, impactant l’activité, voire la pérennité de l’entreprise.

Une réalité comprise par la chaîne hôtelière Marriott, qui face à une violation massive de données a déployé une stratégie de communication particulièrement efficace. En effet, lorsque la presse a titré le vol d’informations confidentielles de près d’un demi-milliard de clients du réseau d’hôtels Starwood, Marriott avait déjà déployé des mesures concrètes de communication et de réduction des impacts : communiqué expliquant les faits, création d’un centre d’appels et d’un site Internet dédié permettant aux clients de savoir s’ils ont été touchés.

Le RGPD, facteur de l’aggravation du risque réputationnel et business


Ces violations de données ont éclaté dans un contexte très suspicieux quant à l’utilisation des données mais aussi dans un contexte médiatique très dynamique, après l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD). Dorénavant, tout incident portant atteinte à la vie privée de résidents européens est sujet à une couverture médiatique sans commune mesure avec ce qu’elle n’était sous l’ère de la loi Informatique et Libertés de 1978.

Plus encore, elles apparaissent dans un contexte sociétal où la protection des datas devient une préoccupation majeure. D’après une étude : « En 2017, 85 % des Français se disent préoccupés par la protection de leurs données personnelles en général, soit une augmentation de 4 points par rapport à 2014 ».

La gestion de crise, composant incontournable de la réponse à une violation de données


Sur la route, attacher sa ceinture n’empêchera pas l’accident mais en limitera l’impact. De même, se doter d’un dispositif de gestion de crise n’empêchera pas la survenance d’une violation de données mais en minimisera les conséquences.

Anticiper est donc le mot d’ordre. Il faut identifier des scenarii de crise pour déterminer les capacités opérationnelles nécessaires et les actions de remédiation associées. Il est aussi capital d’intégrer une stratégie de communication de crise, vous conférant un avantage stratégique majeur : contrôler l’espace médiatique en s’exprimant le premier, limitant les conséquences sur votre activité et réputation.

Enfin, tester votre plan de gestion de crise est une condition sine qua non à la coordination des équipes et à la prise de décision : la pertinence et l’exactitude des informations remontées aux directeurs et COMEX permettront de déployer des mesures adaptées.

A l’heure où le risque réglementaire induit indubitablement le risque réputationnel, il est vital de connaître le niveau réel d’exposition et de vulnérabilité de votre organisation, qu’il s’agisse de vos pratiques marketing ou de la sécurité effective des données personnelles dont vous avez la responsabilité. Sans cela, toute organisation devra subir ce que les Etats et armées appellent la surprise stratégique. Pour paraphraser le Général d’Armée Pierre de Villiers, elle est l’apanage de ceux qui n’ont pas su prévoir. Ceux finalement qui se sont refusés à prévoir et imaginer les scénarii les plus imprévisibles.

Ping Identity, spécialiste dans le domaine de la gestion intelligente des identités, vient de publier son enquête consommateurs 2019 intitulée "Trust and Accountability in the Era of Breaches and Data Misuse". Les résultats mettent en évidence la récente multiplication des vols de données et des cyberattaques sur une grande échelle impactant ainsi le comportement des consommateurs et leurs relations avec les fournisseurs de services à travers le monde.

Dans le cadre de cette enquête, Ping Identity a interrogé, l'été dernier, un échantillon représentatif de 4000 personnes aux États-Unis, en Australie, au Royaume Uni, en France et en Allemagne.

La protection des données est une préoccupation croissante pour les consommateurs dans le monde entier. Prêt de la moitié (49% au global et 46% en France) des personnes interrogées dans l’enquête ont déclaré être plus concernés par la protection de leurs données personnelles qu’il y a un an. À noter que les pourcentages sont plus faibles en Europe que dans les autres pays concernés (60% aux États-Unis par exemple) ce qui peut s’expliquer par la mise en vigueur du règlement européen RGPD.

ping_identity

ping_identity


Ce résultat est corrélé à un large manque de confiance des consommateurs à travers le monde envers la capacité des marques à protéger les informations personnelles qu’elles détiennent.

●      La sécurité des données personnelles est en tête des dangers liés au numérique. Lorsqu’on demande aux consommateurs quel est pour eux le principal danger lié au numérique au cours des 12 prochains mois, les cinq pays interrogés classent en premier la sécurité des données personnelles (37% pour la France) suivie d’assez loin par la cybersécurité (27%) puis la vidéo surveillance (15%). A noter que la vidéo surveillance est une préoccupation majeure pour les allemands, qui la classent en premier pour 23% d’entre eux, quasiment à égalité avec la cybersécurité (24%), soit dix points au-dessus de la moyenne des autres pays.

●      Un piratage de données peut nuire à l’activité d’une marque. La grande majorité des personnes interrogées (81%en global et 78% en France) stopperaient toute relation avec une marque en ligne à la suite d’un piratage de données. A noter que les allemands sont les plus sévères à cet égard, avec un chiffre de 87%. Également, seuls 14% des répondants en global (20% en France) accepteraient de s’inscrire et d’utiliser un service en ligne récemment victime d’un piratage de données.

●      Les consommateurs attendent des entreprises qu’elles protègent leurs données. L’opinion de 63% des consommateurs interrogés en moyenne dans les cinq pays (62% en France) est qu’une entreprise est responsable en toutes circonstances de la protection de leurs données. Ceci inclut lorsque des utilisateurs sont victimes d’attaques de ‘phishing’ ou utilisent une connexion Wi-Fi non cryptée, même si l’entreprise dispose de peu de moyens pour éviter de telles attaques.

●      Le partage de leurs données personnelles est un problème pour les consommateurs. Plus de la moitié des personnes interrogées (55% en global et 52% en France) déclarent qu’une marque qui partage leurs données personnelles sans leur permission est susceptible de les détourner de l’utilisation de ses produits, encore plus que s’ils apprennent que la marque a subi un piratage de données (27% en global et 26% en France).

●      Les plates-formes de réseaux sociaux n’inspirent pas confiance. Les réseaux sociaux sont le secteur d’activité qui inspirent le moins confiance, avec seulement 28% des personnes interrogées en moyenne (35% en France) qui déclarent être confiants ou très confiants dans la capacité de ces plates-formes à protéger leurs données personnelles. A noter qu’en France, les sites de Retail ne font guère mieux, avec 37%. A l’inverse, les sites dédiés à la santé récoltent un indice de confiance de 70%, suivis par les sites de services financiers (67%).

“Le doute n’est plus permis, les entreprises risquent de perdre des clients et de dégrader la réputation de leurs marques si elles ne mettent pas en place une protection de leurs données efficace et transparente,” a déclaré Richard Bird, chief customer information officer, Ping Identity. “Avec un large pourcentage des consommateurs qui estiment que les entreprises sont seules responsables de la protection de leurs données, les organisations qui offrent à leurs clients des expériences pratiques et sécurisées via une plate-forme de gestion des identités détiennent un avantage concurrentiel, et celles qui ne le font pas sont clairement en danger.”


ai


Par Arnaud Malardé, Senior Marketing Product Manager chez Ivalua

Quel responsable achats n’a jamais rêvé de standardiser son cycle de commande, de la demande d’achat au paiement final de la facture, aussi appelé processus procure-to-pay ou P2P, de sorte à n’avoir qu’une seule procédure qui s’applique à toutes ses catégories achats, toutes les organisations et tous les pays ?

Pendant plusieurs années, les départements achats se sont évertués à unifier, standardiser et optimiser leurs processus tout en centralisant leurs activités. Le mot d’ordre était alors de réduire le nombre de processus, de spécificités et de fournisseurs dans des entreprises où ils s’étaient naturellement multipliés au gré de la croissance, des acquisitions ou réorganisations.

En poursuivant cet objectif d’optimisation, plusieurs d’entre eux ont drastiquement réduit le nombre de processus existants pour n’en garder qu’un ou deux et ainsi augmenter l’efficacité opérationnelle. Du moins, c’est ce qu’ils croyaient. Bien sûr, le coût de mise en œuvre d’un processus unique est bien moindre que celui d’un processus qui souffre de multiples exceptions. De plus, les employés peuvent plus facilement mémoriser un processus de commande unique.


Néanmoins, la standardisation et la centralisation ont leurs limites


Après la crise de 2008, le cadre juridique international a eu tendance à converger du fait d’une coopération renforcée entre les états. Ce n’est plus le cas aujourd’hui. La multiplication des besoins règlementaires locaux et des exigences juridiques propres à des pays ou régions a rendu le processus de commande plus complexe qu’il ne devrait l’être. Pensons seulement à l’impact du Règlement Général sur la Protection des Données (RGDP) en Europe ou à celui des nombreuses mesures nationales de lutte contre la fraude fiscale sur l’ensemble du globe. Notre monde se complexifie. Cela rend souvent difficile l’atteinte des objectifs de simplification.

Par ailleurs, ne pas prendre en compte les besoins spécifiques locaux crée beaucoup d’insatisfaction parmi les utilisateurs du processus de commande. Si cet état de fait perdure, les utilisateurs finiront par chercher une façon de contourner un processus devenu trop rigide. L’application de la politique achats sera de nouveau mise en péril.

Doit-on alors accepter des exceptions au processus de commande standard pour chaque besoin spécifique ?


Cela multiplierait, bien évidemment, les processus et sous-processus au point que personne ne saurait lequel appliquer, pas même les experts de la direction achat. Les exceptions sont coûteuses en temps et en ressources. Ainsi, les responsables achats cherchent un compromis entre un nombre réduit de processus standards et le besoin d’avoir des exceptions. A quel nombre doit s’arrêter ce compromis ? Avoir plus de trois façons de faire est déjà trop pour la plupart des utilisateurs dont la fonction principale n’est pas de passer des commandes. Mais pour un département achats avec un périmètre mondial, les exceptions se compteront en dizaines.

Le compromis que les responsables font tend trop souvent à sacrifier la simplicité et l’expérience des utilisateurs qui se voient obliger de mémoriser des dizaines de processus de commande différents. L’application de la politique achats sera cette fois-ci mise à mal par sa trop grande complexité et l’impossibilité pour ses utilisateurs de s’orienter entre les différentes exceptions au processus de commande standard.

Les directions achats ont bien pensé à des solutions


La première solution que les départements achats ont trouvée a été d’informer massivement leurs clients internes. Les newsletters, blogs, bannières, brochures et bases de connaissances se sont donc multipliés. Les Achats se sont frénétiquement mis au marketing ! Souvent avec des résultats mitigés : seuls les utilisateurs les plus curieux lisent leurs contenus et seuls les plus fréquemment exposés au processus de commande s’en souviennent le moment venu.

La seconde solution des départements achats a été de former les utilisateurs. Le catalogue de formations a donc vu fleurir les sessions. Mais les salles de classe restent largement vides ! Ou alors, les mêmes personnes reviennent années après années se former. Un tel format d’apprentissage fonctionne pour des utilisateurs fréquents mais pas pour les autres qui continueront à se poser la question suivante : « Pourquoi dois-je être formé pour acheter quelque chose dans mon entreprise alors que n’importe qui peut acheter en deux clics sur internet ? ».

Alors, est-ce une guerre perdue d’avance ?


La réponse à cette question a longtemps été affirmative. Depuis peu, des solutions plus efficaces s’esquissent. Lesquelles ? C’est là qu’intervient la puissance de l’Intelligence Artificielle (AI). « Que peut faire l’IA dans tout cela ? » me demanderez-vous ? Et bien, un certain nombre de choses.

Tout d’abord, la mémoire de l’IA est bien supérieure à la nôtre. Elle peut mémoriser un très grand nombre de processus différents. Mais, on pourrait rétorquer que c’est déjà le cas des technologies actuelles de nos ordinateurs qui stockent des données. C’est là que le deuxième avantage de l’IA entre en jeu : l’IA est capable de retrouver de l’information dans un plus large choix de formats et de supports qu’auparavant. Mais, le plus grand atout de l’IA, c’est son incomparable capacité à interagir avec l’utilisateur. Elle est capable de traduire à la fois le langage humain en actions machine et le langage de la machine en information pertinente pour nous.

Imaginons ensemble le futur de l’acte d’achat avec l’intelligence artificielle. Dans cet avenir, un simple utilisateur se préoccupera du produit ou du service qu’il veut acheter. Il n’aura pas à penser au processus de commande pour l’obtenir. Il adressera ce besoin directement à l’assistant virtuel de sa solution achats basée sur les technologies d’intelligence artificielle. Il pourra soit écrire sur son clavier, soit parler dans un microphone. L’IA interagira ensuite avec lui par des questions pour qualifier le besoin (volumes, spécifications techniques, budget, délai) afin d’élaborer la réponse qui lui sera apportée. Cette réponse pourra prendre la forme d’une commande directement adressée à un fournisseur préférentiel si le besoin n’est qu’une simple commodité. Elle pourra aussi prendre la forme d’une demande de sourcing adressée au Sourcing Category Manager en charge de la catégorie parce qu’aucun fournisseur préférentiel n’aura été trouvé et qu’un certain montant aura été dépassé, le tout en conformité avec la politique achats de l’entreprise. Déterminer le bon processus de commande sera le travail de l’IA. Conseiller sur la marche à suivre, les produits ou les services les plus adaptés, les fournisseurs préférentiels aussi. En fin de compte, un utilisateur n’aura plus besoin de connaître la procédure. Il ne pensera plus qu’en termes de besoin, de délai et de budget, ce qui est sa façon naturelle d’acheter.

Bien sûr, l’intelligence artificielle ne fera pas tout


D’abord, les départements achats devront cartographier l’ensemble de leurs processus et les traduire en règles intelligibles pour l’IA. La machine a besoin d’être alimentée au départ pour ensuite pouvoir fonctionner de façon autonome. D’autre part, il y aura un besoin de maintenance pour s’assurer que les règles sont toujours en accord avec les différentes évolutions organisationnelles ou métier. Sur ce dernier point, on peut espérer que les capacités de machine-learning, ou auto-apprentissage par la machine, faciliteront la tâche.

L’intelligence artificielle permettra enfin véritablement un acte d’achat guidé. Les achats hors procédure, ou non conformes, et le mécontentement des clients internes ne seront alors plus qu’un souvenir.
innternet


Le Premier ministre Edouard Philippe a signé mercredi 23 octobre un ensemble de 10 décisions de financement de l’Etat en faveur de réseaux d’initiative publique pour le très haut débit portés par des collectivités, pour un montant global de 242 millions d’euros. Dix départements sont concernés dont trois d'Occitanie. Il s'agit de la Somme, la Côte-d'Or, l'Orne, la Dordogne, l'Yonne, la Nièvre, l'Hérault, la Mayenne, le Tarn-et-Garonne et le Gard.

Infographie: Fibre optique : la France rattrape peu à peu son retard | Statista

4,7 millions de Français concernés

"Ces engagements visent à accélérer massivement le déploiement du très haut débit dans ces 10 départements qui représentent au total 4,7 millions de Français", a indiqué Matignon.
Le Premier ministre s'est félicité de l’accélération du déploiement de la couverture numérique en France. "Grâce aux actions mises en œuvre par le gouvernement, plus de 4 millions de locaux ont été rendus raccordables à la fibre optique durant ces douze derniers mois, portant ainsi à 21,6 millions le nombre total de foyers éligibles à une offre très haut débit", explique Matignon.
Edouard Philippe a confirme que les objectifs fixés par le président de la République en matière de couverture numérique fixe, à savoir la généralisation du haut débit partout en France en 2020 et du très haut débit en 2022, seront atteints. Le Premier ministre a confirmé par ailleurs que 140 millions d’euros seront dédiés dès 2020 à l’accompagnement de nouveaux projets de réseaux d’initiative publique.

Macron met la pression

Le chantier de l'internet à très haut débit est prioritaire pour la France car elle a pris du retard par rapport à d'autres pays. En France le coût du déploiement du très haut débit avait été estimé à 20 milliards d'euros sur 10 ans, en 2013, année où François Hollande avait lancé le plan France très haut débit, dont l'objectif était d'avoir une couverture très haut débit de 100 % du territoire français en 2022.
Devant 600 maires à Souillac en janviier 2019, lors du Grand débat national, Emmanuel Macron avait dit souhaiter accélérer le déploiement du réseau très haut débit, notamment en zone rurale. Le président avait indiqué "mettre la pression" sur les opérateurs pour avancer de deux ans la date initiale.
internet


Christophe Alcantara, spécialiste de l'e-réputation, enseignant chercheur en sciences de l'information et de la communication - IDETCOM Université Toulouse 1 Capitole.

Il y a cinquante ans naissait internet ; aujourd'hui dominé par les réseaux sociaux et les GAFA. Que reste-t-il des idéaux du début ?

Arpanet, l'ancêtre d'internet si on fait un peu d'archéologie d'internet et du web, était initialement créé pour permettre à des machines à calculer de pouvoir partager de la ressource de calcul, ni plus ni moins. Il y a alors eu un détournement d'usage, une hybridation d'usage, c'est-à-dire un usage réel qui n'était pas le même que l'usage prescrit. Cela a permis à Arpanet et plus largement à internet de devenir non pas un outil de partage de la ressource au sens mémoire vive, mais vraiment un outil à communiquer.

Tout cela part de Joseph Licklider, le père d'Arpanet qui a dessiné les utopies fondatrices d'internet. Arpanet n'a pas été créé par l'armée américaine pour l'armée, mais par des chercheurs pour des chercheurs sur des fonds de l'armée avec l'agence Darpa.

Les mythes fondateurs, ce sont le partage, la gratuité, l'échange. Ils ont été bouleversés et révolutionnés par la pratique mais aussi par le fait qu'internet tel qu'on l'utilise aujourd'hui est devenu une technologie de substitution au projet politique des autoroutes de l'information voulu par Bill Clinton et All Gore en 1996.

Facebook et Google, qui ont désormais la puissance d'Etats, deviennent-ils dangereux pour la démocratie ?

Plutôt que de poser la question du danger, interrogeons-nous plutôt pour savoir s'ils ne manipulent pas déjà l'information et la communication. Ils la manipulent d'une façon institutionnelle. Quand vous écoutez les promoteurs de Facebook, d'Instagram, de YouTube, etc. ils reposent toujours leurs discours de promotion sur les mythes fondateurs d'internet : la culture de la gratuité, le partage, l'échange. Mais en vérité, ces utopies fondatrices dont ils truffent leurs propos sont au fond un cheval de Troie pour produire une colonisation numérique. Leur modèle économique repose sur cette colonisation numérique.

Aux Etats-Unis, il y a actuellement un débat, notamment porté par la sénatrice démocrate Elizabeth Warren (candidate à la primaire pour la présidentielle de 2020) sur le démantèlement de Facebook. En Europe, on table sur une régulation ferme avec des amendes. Faut-il démanteler les GAFA, davantage les réguler ?

Si on appliquait strictement les lois antitrust qui existent aux Etats-Unis depuis plus d'un siècle, cela ferait déjà un moment que Google par exemple serait démantelé, c'est une évidence. Ce sont à la fois des acteurs de contenants et de contenus. Et dans le contenu, ils ont une maîtrise quasiment totale de par leur puissance et se retrouvent de fait dans une situation de monopole. Si aujourd'hui il fallait qu'on raisonne en économiste, Schumpeter nous disait que dans l'économie ce qui compte, c'est la destruction-créatrice : en gros plus on innove plus on crée de nouveaux emplois, des émergents deviennent des leaders. Mais dans les faits, sur le web, ça ne peut plus exister car même si vous avez une innovation particulièrement disruptive, elle va être captée par les grands acteurs qui vont l'acheter 3, 4, 5 milliards de dollars. Cela conforte encore plus leur position dominante. Ils passent leur temps à acheter des start-up. Ils sont donc dans une situation de monopole qu'ils contribuent à amplifier. S'ils n'ont pas été démantelés, c'est notamment à cause d'Obama qui était totalement une victime consentante du lobby des GAFA (il a été élu en 2008 grâce à la puissance des réseaux sociaux), avec lesquels il avait une proximité coupable. Donc démanteler, oui.

Aujourd'hui, y a-t-il quelque chose qu'on ne voit pas venir sur internet ?

Le fait de pouvoir coupler de l'intelligence artificielle (IA) sur les réseaux sociaux. Le problème c'est que c'est insidieux. Les gens ne vont pas le voir mais c'est totalement manipulatoire. Aujourd'hui, l'intelligence artificielle a deux natures. Vous avez des algorithmes prédictifs qui vont partir sur de grandes séries statistiques pour prévoir des comportements. Ce qui n'est pas sans interpeller les fonctionnements démocratiques : si je peux anticiper les réactions, voyez comme c'est manipulatoire. Et cela existe aujourd'hui.

Le 2e type d'algorithmes qui va arriver, c'est ce qu'on appelle les algorithmes créatifs. Je ne prends pas appui sur le passé pour me projeter dans le futur mais je suis capable d'apprendre en continu avec mon environnement. Vous imaginez les problèmes éthiques que ça pose. Le vrai enjeu est là.

La notion d'éthique dans les pratiques numériques doit être fondamentale, mais personne n'aborde ce sujet, notamment les politiques qui ne s'approprient pas ce sujet…
datacenter


Le 29 octobre 1969, aux Etats-Unis, le professeur Kleinrock faisait «parler» un ordinateur avec un autre. L'échange de ce message actait la naissance de ce qui allait devenir internet. Cinquante ans plus tard, que reste-t-il des idéaux de départ ?

Ce qu'il y a d'extraordinaire avec une technologie, ce sont les usages détournés qui, par choix ou accident, déclenchent une nouvelle révolution. Le 29 octobre 1969, c'est un ces moments historiques qui s'est produit dans un laboratoire de l'Université de Californie à Los Angeles (UCLA) lorsque le professeur Leonard Kleinrock et ses collègues utilisent leur ordinateur pour échanger un message avec ceux de l'Institut de recherche de Stanford.

Le «miracle» a lieu ce 29 octobre 1969 à 22 h 30. Et il se répétera entre l'UCLA et d'autres universités. Le réseau ainsi formé entre ces universités, Arpanet (Advanced Research Projects Agency Network), constitue bel et bien l'ancêtre d'internet.

Un changement profond de l'internet des débuts

internet

Cinquante ans plus tard, c'est peu dire qu'internet a profondément évolué. Une histoire marquée par toute une série d'innovations comme, le protocole TCP/IP inventé en 1973 par Vinton Cerf et Bob Kahn ; le world wide web (WWW) né le 13 mars 1989 à Genève, au CERN, sous la houlette de Tim Berners-Lee ; ou encore la création de Google le 4 septembre 1998 par Larry Page et Sergey Brin. Au fil de ces cinquante années, les idéaux du début se sont singulièrement émoussés. L'esprit libertaire, le partage, la gratuité a laissé place à un immense marché aujourd'hui dominé par les GAFAM (Google, Amazon Facebook, Apple, Microsft) ou des moins connus (BATX), c'est-à-dire les géants chinois Baidu, Alibaba, Tencent et Xiaomi.

Surtout, la nature même d'internet a changé sous la montée en puissance phénoménale des réseaux sociaux. Des réseaux sociaux que le professeur Kleinrock avoue aujourd'hui n'avoir pas vu venir (lire page suivante) ; des réseaux sociaux aux mains de sociétés qui ont la puissance des Etats et influent sur la marche de nos démocraties. À telle enseigne que se pose la question d'une régulation plus poussée voire d'un démantèlement pur et simple, de Facebook par exemple.

Et dans cinquante ans ?

60seconds_internet

Face à l'extraordinaire puissance informatique dont nous disposons aujourd'hui au creux de notre main avec nos smartphones, difficile de faire des pronostics sur ce qui nous attend dans les cinquante prochaines années, alors que l'intelligence artificielle n'en est qu'à ses débuts.

En revanche, on peut dégager des tendances au moins pour les mois à venir, comme le fait tous les ans Mary Meeker, célèbre investisseuse américaine en capital-risque. Nous passerons ainsi toujours plus de temps devant notre mobile que devant notre télévision, les jeux vidéo multijoueurs (comme Fortnite) vont ressembler de plus en plus à des réseaux sociaux, la communication par l'image va se développer de plus en plus, de nouvelles plateformes vont commencer à grignoter les parts de publicités de Google et Facebook, les solutions numériques dans la santé vont se multiplier, tout comme les enceintes et objets connectés. Mary Meeker prévoit aussi que les utilisateurs vont se soucier de plus en plus de la protection de leurs données personnelles.

À cet égard, le règlement européen sur la protection des données (RGPD) aujourd'hui plébiscité montre que l'Europe porte une certaine vision de ce que doit être internet.

Réunion de wikipédiens en Finlande pour mettre à jour des fiches. Teemu Perhiö/Flickr, CC BY-SA
Par Alexandre Hocquet, Université de Lorraine


Wikipédia est (ou devrait être) un objet extraordinaire à enseigner : tout le monde connaît Wikipédia, et presque tout le monde le connaît mal. Cela devrait être la situation idéale pour un enseignant : intéresser les étudiants avec quelque chose qu’ils connaissent, les surprendre en leur montrant qu’ils peuvent y découvrir beaucoup de choses.
Je propose un cours à toutes les formations et tous les niveaux : la découverte de Wikipédia touche à des compétences transversales et peut être fructueuse de la première année de licence jusqu'au doctorat. Malheureusement, mes propositions restent souvent lettre morte auprès des collègues qui font les maquettes pédagogiques.


Apprendre, analyser, tester… Sean MacEntee / Flickr, CC BY

Un des principaux malentendus est que « enseigner Wikipédia » est vu par les collègues comme une formation courte : au mieux « apprendre à l’utiliser », au pire « apprendre à s’en méfier ». Pourtant, il y a dans Wikipédia de quoi apprendre pendant tout un semestre.
Tout d’abord, plonger dans Wikipédia demande de s’y faire petit à petit. Surtout, Wikipédia est un objet d’étude pertinent pour de nombreux aspects, pour moi qui voudrait enseigner mon domaine de recherche : les STS, ou, dit autrement, les relations entre sciences et sociétés.

Laboratoire d'analyse critique

L’enseignement de l’analyse critique est à la mode en ce moment, particulièrement dans l’injonction ministérielle à se méfier « des théories du complot », à peine différente de l’injonction ministérielle à se méfier « d’Internet ». Pour l’école, pour l’université et pour la presse, ce qui vient d’Internet est suspect a priori et Wikipédia est le « usual suspect » dans les entreprises de décrédibilisation de la part de ces trois institutions. Pourtant Wikipédia est un laboratoire très intéressant pour tester une « analyse critique des médias ».
Plonger dans Wikipédia permet de se mettre à l’épreuve d’une communauté de pairs plutôt que d’une voix magistrale. Intervenir dans Wikipédia, c’est soumettre sa production (ou tout simplement son avis) aux mécanismes de recherche de consensus, de la vérifiabilité, de la neutralité de point de vue (des notions wikipédiennes qui elles-mêmes demandent à être déconstruites mais cela s'apprend en plongeant dedans).

Ces notions épistémologiques ne sont pas seulement celles d’un mode de production de connaissance bien particulier, elles sont aussi liées (et se façonnent mutuellement) avec l’infrastructure technique et logicielle de Wikipédia (qu’est ce que le wiki et d’où vient-il ? Que sont les bots et comment travaillent-ils ?), l’infrastructure juridique et politique (quel est le rôle de la Wikimedia Foundation, en quoi la production est elle liée aux licences ?).

Enseigner le bien commun

Les licences utilisées dans Wikipédia, et Wikipédia elle-même, sont aussi un projet politique lié au monde du libre, aux « creative commons », et plus généralement aux « biens communs ». Enseigner Wikipédia c’est aussi enseigner un projet politique particulier et nouveau : c’est le seul « bien commun » à avoir réussi à exister à grande échelle. Les politiques du libre ne sont pas seulement un projet, ce sont aussi une mise en oeuvre, dans lesquelles la notion de forking est primordiale (le forking, en tant qu’action politique, est l’équivalent d’un schisme en religion; à la fois une garantie de démocratie et une menace de division).


Wikipedia, un bien à partager. cea+ / Flickr, CC BY

De manière plus générale, Wikipédia est un des rares exemples à grande échelle d’un projet qui se veut « Open » et qui est obligé chaque jour par la pratique de définir ce qui est « Open » et ce qui ne l’est pas, parfois avec violence. L'Open est un concept flou. Au delà d’un washing politique ou d’une vision militante, définir ce qu'est l'Open en pratique est malaisé. Wikipédia est donc une étude de cas essentielle pour comprendre les « politiques de l’Open ».
Enfin, Wikipédia est aussi une communauté et ce projet politique est aussi un projet d’organisation communautaire par les principes, les règles, les protocoles et la technique. L’organisation des débats, les règles de recherche de consensus, les procédures de vote s’y inventent. Wikipédia est une excellente étude de cas pour enseigner la « culture numérique » par l’exemple.
Wikipédia permet de comprendre des projets techniques, des projets politiques, des projets épistémologiques liés au monde du libre, au monde du software, au monde des « algorithmes » et transpose ces notions dans un monde accessible au grand public. En ce sens, j’ai la conviction que, pour comprendre ce monde, pour acquérir une « littératie numérique », il est plus utile de plonger dans les entrailles de Wikipédia que « d’apprendre à coder ».

Politique, technique et sociologie

Mon but est de parvenir à faire partager ma vision distanciée mais pas complètement de Wikipédia, faire toucher du doigt comment Wikipédia est un monde avec des aspects techniques, des aspects politiques, des aspects sociologiques, démocratiques, juridiques, épistémologiques uniques et surtout complètement entremêlés les uns aux autres. Je le fais en racontant des anecdotes.


Wikipédia, tout un monde. Esther Vargas / Flickr, CC BY-SA

Ces anecdotes ont pour but de révéler ces enchevêtrements en racontant une histoire. Elles sont censées surprendre sur un sujet que tout le monde connaît mais que personne ne connaît ET révéler les tensions et interpénétrations de tous ces thèmes. Elles servent aussi à provoquer des questions-réponses, particulièrement si l’anecdote a, ou a eu, un succès médiatique ou si elle a été relatée dans la presse.

Par exemple, quand est abordée la question de l’ajout de photos, les principes de wikimedia commons, et/ou les règles du copyvio, l’anecdote du selfie du macaque met en lumière ces sujets, leur enchevêtrement, et leurs implications à la fois juridiques, techniques, procédurales, et de choix de licence, tout en traitant du militantisme du copyleft. L’anecdote est donc tout sauf futile : elle met en lumière cette complexité.
En dehors de la structure universitaire, une équipe de wikipédiens a créé un Massive Online Open Course qui a pour but de faire découvrir Wikipédia et d'apprendre à y contribuer. Il est pédagogiquement très réussi, beaucoup mieux que de nombreux MOOCs réalisés par des professionnels. Le but de ce MOOC, évidemment sous licence libre, est d'être réutilisable, modulable, modifiable pour pouvoir être enseigné dans différents cursus universitaires.
Il reste beaucoup de choses à faire pour rendre l’Université et l’enseignement de Wikipédia compatibles, mais de plus en plus de gens s’y mettent… et en débattent.The Conversation


Apprendre à contribuer sur Wikipédia.

Alexandre Hocquet, Professeur des Universités en Histoire des Sciences, Visiting fellow at the Science History Institute, Université de Lorraine
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.