Avis de Constantin Pavléas, avocat spécialisé en droit des technologies, fondateur et dirigeant du cabinet Pavléas Avocats et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD). Le gouvernement français vient d’emboiter le pas à d’autres pays occidentaux (Etats-Unis, Canada, Royaume-Uni..) et organisations internationales (Commission européenne) et interdit à ses fonctionnaires l’installation et l’utilisation de certaines applications « récréatives » sur leurs téléphones professionnels, tels que TikTok, de streaming (telles que Netflix) ou de jeux (tels que Candy Crush),. Les raisons de cette interdiction invoquées par le gouvernement sont les « risques en matière de cybersécurité et de protection des données des agents publics et de l’administration. » Depuis quelques mois déjà, TikTok était sur la sellette aux Etats-Unis qui soupçonnent le réseau social chinois d’être un cheval de Troie des autorités chinoises. L’interdiction de TikTok sur
La diffusion en direct d'un viol sur Snapchat ou d'une prise d'otages sur Facebook. Des menaces de mort, des insultes racistes ou homophobes sur Twitter. Des activités illicites conduites via ces plateformes. Les réseaux sociaux sont sous le feu des critiques, accusés de ne pas réagir assez vite face aux contenus violents.
La diffusion en direct sur Facebook – pendant 17 minutes – de la vidéo du massacre de Christchurch, perpétré le 15 mars par un militant d'extrême droite dans deux mosquées de cette ville de Nouvelle-Zélande, semble avoir constitué la goutte d'eau faisant déborder le vase. De fait, ce drame a provoqué, au-delà de l'émotion internationale, une prise de conscience au niveau des Etats avec la rédaction de l'Appel de Christchurch pour agir contre le terrorisme et l'extrémisme violent en ligne, porté par Emmanuel Macron et la Première ministre néo-zélandaise Jacinda Ardern. Le 15 mai dernier, les deux responsables ont réuni à Paris dix chefs d'État et de gouvernement ainsi que des dirigeants d'entreprises et d'organisations du numérique, tous prêts à agir.
Un appel international boudé par les Etats-Unis
«Cet attentat a montré qu'internet était devenu un terrain d'action et de propagande privilégié pour les terroristes. Accepter qu'internet leur serve d'outil de propagation de la terreur, c'est menacer la sécurité de nos citoyens. Un sursaut de l'ensemble des acteurs – États, gouvernements et entreprises du numérique – était nécessaire pour ne plus simplement réagir aux attaques, mais pour agir et anticiper les menaces sur internet», détaille l'Elysée.Afin d'obtenir l'adhésion du maximum de pays, l'Appel de trois pages n'est pas contraignant et ne désigne aucune idéologie en particulier. «Le soutien des participants à la rencontre du 15 mai à Paris à l'Appel de Christchurch est une première étape. D'autres pays, entreprises du numérique, ONG, universitaires et parties prenantes sont maintenant appelés à le rejoindre», espère l'Elysée.
Facebook, Amazon, Microsoft, Google et Twitter – qui ont déjà mis en place des procédures pour lutter contre la cyberviolence – ont signé l'appel. «Il est juste que nous nous rassemblions, résolus dans notre engagement de faire tout ce qui est en notre pouvoir pour lutter contre la haine et l'extrémisme qui mènent à la violence terroriste», ont déclaré dans un communiqué conjoint Amazon, Facebook, Google et Microsoft. Outre la France et la Nouvelle-Zélande, plusieurs pays ont signé l'Appel dont le Royaume-Uni, l'Irlande, le Canada ou le Sénégal… mais pas les Etats-Unis.
Donald Trump a fait savoir dans un communiqué qu'il était en phase avec l'objectif du texte, mais ne le soutiendrait pas formellement, invoquant le premier amendement de la constitution américaine sur la liberté d'expression. Quelques heures après avoir refusé de signer le document, la Maison Blanche a intensifié sa lutte contre les médias sociaux en annonçant une campagne sans précédent demandant aux internautes de partager… leurs expériences de censure par Facebook, Google et Twitter, entreprises que Trump accuse de mener une censure contre sa politique…
Une charte présentée au sommet du G7 de Biarritz
Dès lors il semble difficile de rallier les Etats-Unis à la charte sur les contenus haineux, actuellement en discussion, et qui doit être présentée lors du prochain sommet du G7 à Biarritz du 24 au 26 août. La France, qui assure la présidence du G7, veut définir collectivement un cadre d'action plus efficace avec les plateformes en ligne. Mais la tâche s'annonce ardue car, comme l'explique Cédric O, secrétaire d'Etat en charge du Numérique, «tous les pays n'ont pas la même approche dans la régulation. Il y a la liberté de parole qui s'oppose à cette idée de régulation».
Meurtres, violences, haine :
les modérateurs en première ligne
Les réseaux sociaux ne restent évidemment pas insensibles face aux cyberviolences. Tous ont mis en place des procédures de signalement et des technologies de détection. «Facebook a massivement investi dans la sécurité et la sûreté au cours des derniers mois. Aujourd'hui 30 000 personnes travaillent pour Facebook sur les problématiques de sécurité et de sûreté, dont 15 000 en charge de la modération de contenus. Ils étaient respectivement 20 000 et 7 500 en juillet 2018», précise le réseau social aux 2,3 milliards de membres dans le monde dont 35 milions en France. «Nos modérateurs travaillent dans un peu plus de vingt centres de modération répartis à travers le monde, notamment en Irlande, aux Etats-Unis, en Allemagne, en Espagne, au Portugal, au Maroc, en Lettonie, en Bulgarie, au Kenya, ou encore aux Philippines», rajoute Facebook.Ces derniers mois, plusieurs enquêtes de presse ont montré toute la dureté du travail des modérateurs, sous couvert d'anonymat car ils sont soumis à des clauses de confidentialité. Embauchés, notamment par des sociétés sous-traitantes des grands réseaux, sans être forcément préparés, les modérateurs sont en première ligne face à des contenus haineux, violents, terroristes qui changent au gré de l'actualité.
Ce sont bien sûr les vidéos qui sont les contenus les plus difficiles à traiter et peut-être les plus marquants. «En règle générale, elles sont plus dures à traiter, car plus violentes, et s'avèrent aussi plus dures à classifier : parfois, dans les premières minutes du film, quelqu'un est juste en train de réparer son vélo et il faut attendre les dernières secondes pour l'entendre crier « Fuck Americans » ou un truc du genre et il faut alors que je supprime», a raconté à Slate Nicolas, un jeune modérateur embauché à 1 300 € mensuels à Berlin chez Arvato, filiale du groupe Bertelsmann, sous contrat avec Facebook. Le jeune homme a entre 20 secondes et deux minutes pour analyser un contenu…
Ils voient «le pire d'internet»
«Sans parler d'amateurisme, on avait parfois l'impression de devoir prendre une décision à l'instant T, sans être préparé à tous les cas de figure pouvant se présenter», témoigne-t-il en se souvenant de la diffusion en direct d'un assassinat. «Un homme tue un homme plus âgé dans la rue. C'était inédit. Il fallait réagir. Bien entendu, ça allait être supprimé. Mais dans ces moments-là, ça devient viral, c'est facile à repérer, mais il faut faire vite. Il a fallu qu'on mobilise une petite équipe spéciale de 6 ou 7 personnes sur cette vidéo». Nicolas assure qu'il n'a pas été atteint psychologiquement par la vue de tous ces contenus violents, au contraire de certains de ces collègues.Début avril dans Le Monde, d'autres modérateurs ont fait part de toute la difficulté de leur travail. «Tu passes une journée à être immergé de merde, du pire d'internet. Ce sont les sept péchés capitaux que tu es forcé à regarder toute la journée», raconte Arthur, un français qui a été modérateur pour Facebook à Barcelone. Le jeune homme explique aussi que les contenus violents sont de nature différente selon les «marchés» ; le marché hispanophone traite ainsi des contenus plus violents que le marché français.
Face à ces contenus, les modérateurs essaient de prendre leur distance, de dédramatiser mais certains craquent. Une modératrice ayant travaillé sur le campus de Facebook à Menlo Park en Californie a porté plainte contre l'entreprise, affirmant souffrir de stress post-traumatique… Facebook est bien sûr conscient de ces problèmes, chaque centre de modération dispose d'une équipe de psychologues. Est-ce suffisant ?