Le Polar Pod du médecin-explorateur Jean-Louis Etienne nous avait surpris. Ce bateau "vertical", inspiré du FLIP américain, prêt à dériver autour de l’Antarctique pour mieux étudier l’océan Austral doit être lancé en 2023. Le projet Earth 300, qui vise à étudier l’impact du réchauffement climatique, est, lui, actuellement à l’état de projet, mais il est encore plus surprenant que le navire du docteur Etienne.
Imaginé par Aaron Olivera, ancien président de Royal Falcon Fleet qui a déjà investi 4,15 millions de dollars pour étudier la faisabilité de son projet, Earth 300 est un mega-yacht à l’architecture révolutionnaire tant dans son design jamais vu que dans son mode de propulsion. Le navire de 300 mètres de long et de 60 mètres de hauteur pourrait fonctionner avec… un réacteur nucléaire à sel fondu, une technologie inventée dans les années 70 mais jamais vraiment exploitée. Cette technologie propre a reçu le soutien financier de Bill Gates via sa société TerraPower. "La version marine du réacteur à sel fondu (m-MSR) est petite, avec peu de pièces mobiles, et fournit l’énergie durable et propre nécessaire pour faire avancer le transport océanique dans le futur", vantent les promoteurs du projet. A défaut, si cette technologie n’était pas prête en 2025, date prévue du lancement du Earth 300, le navire utiliserait un carburant synthétique à zéro émission.
40 passagers VIP
Au-delà de la propulsion révolutionnaire, c’est bien sûr le design spectaculaire du yacht qui frappe les esprits. L’architecte naval Iván Salas Jefferson a, en effet, imaginé poser sur le bateau une immense sphère noire. "La sphère est censée inspirer pour protéger la Terre. Entrer dans cette ville de la science et découvrir toutes les recherches en cours devrait vous inciter à devenir des alchimistes des solutions globales", assure l’architecte. À l’intérieur de cette sphère de 13 étages seraient regroupés, en effet, une vingtaine de laboratoires accueillant près de 160 scientifiques de diverses disciplines. Earth 300, qui comptera 165 membres d’équipage, devrait également accueillir une vingtaine d’étudiants et, comme pour le tourisme spatial, 40 invités de marque prêts à débourser entre 2,5 et 3 millions de dollars pour passer 10 jours à bord dans 20 cabines luxueuses. Le pont avant du navire comporte un héliport et une plate-forme d’observation comme en suspension.
"Nous vivons à un moment charnière de l’histoire de l’humanité et sommes confrontés au plus grand défi de notre civilisation depuis l’aube de l’humanité", a récemment déclaré Aaron Olivera, qui a établi le budget de son mega-yacht à 700 millions de dollars. Le business plan, assure Olivera, a été validé par KPMG. Il peut aussi s’enorgueillir d’avoir séduit des partenaires solides comme IBM, Rina, les sous-marins Triton, les expéditions Eyos et diverses sociétés scientifiques.
Rendez-vous dans quatre ans pour la mise à l’eau de cet incroyable navire.
Vous recevez un e-mail avec une facture en.doc ou.pdf. Vous ouvrez la pièce jointe, et quelques instants plus tard, tous vos fichiers sont bloqués, et une rançon exorbitante vous est demandée pour pouvoir les récupérer.
Ces rançongiciels, fréquemment appelés « ransomwares », ont déjà fait de nombreuses victimes, et ce n’est pas près de s’arrêter.
Les attaques visent sans discrimination particuliers, professionnels, et peuvent amener à paralyser des usines entières ou même des hôpitaux à fonctionner au ralenti.
Mais qu’est-ce qu’un rançongiciel ? Comment une telle attaque est-elle menée ?
Une déferlante d’attaques par rançongiciel
Depuis fin 2013 et l’émergence du logiciel CryptoLocker, une nouvelle famille de logiciels vise à extorquer de l’argent à ses victimes en prenant leurs données ou équipements en otage. Au fil des années, de nombreuses variantes ont vu le jour et ont frappé particuliers, institutions et entreprises, tels que Locky, Petya ou plus récemment WannaCry.
Après un apaisement au mois de janvier 2021 avec les arrestations de plusieurs hackers derrière Egregor et NetWalker, les attaques par rançongiciel repartent à la hausse depuis le mois de février pour atteindre au mois de mars 210 attaques par rançongiciel recensées dans le monde, dont une vingtaine rien qu’en France.
Après une vague d’attaques similaires en 2020 aux États-Unis, les hôpitaux français sont désormais visés, tels que le centre hospitalier d’Oloron-Sainte-Marie ou les hôpitaux de Dax et de Villefranche. Plus récemment, c’est l’Université de Montpellier qui a reconnu à son tour avoir été visée par une telle attaque.
Le constat est toujours le même : les données, ou parfois un équipement (téléphone, ordinateur…) sont bloqués ou inaccessibles.
Un rançongiciel, c’est quoi ?
Si les premiers rançongiciels étaient assez simples et utilisaient des mécanismes basiques pour bloquer un ordinateur en remplaçant ou renommant un fichier de démarrage ou exécutable, la plupart utilisent désormais le chiffrement.
Pour cela, les rançongiciels utilisent la cryptographie, souvent l’algorithme de chiffrement symétrique AES avec une clé pouvant aller jusqu’à 256 bits. Le but est de chiffrer les fichiers présents sur le disque dur de votre ordinateur (ou certains types de fichiers seulement), ainsi que, bien souvent, tous les disques externes ou partages réseau. Une autre alternative est de chiffrer et rendre inopérant des utilitaires indispensables au fonctionnement du système d’exploitation, ou une partition entière de votre disque dur, rendant votre équipement inopérant.
Il est alors quasiment impossible, même pour des experts, de récupérer vos données sans connaître la clé secrète utilisée pour le chiffrement. En effet, retrouver la clé par une contre-attaque dite « brute force » est tout simplement irréalisable, même en utilisant tous les ordinateurs du monde simultanément pendant plusieurs milliards d’années.
Un ver informatique est un logiciel malveillant qui se propage d’un ordinateur à l’autre en utilisant un réseau informatique, par exemple Internet.Shosta, Shutterstock
En effet, avec une clé secrète de 128 bits (un bit étant l’unité de base en informatique pouvant prendre des valeurs de 1 ou 0), nous avons ainsi 2128 clés possibles, soit un nombre à 39 chiffres. Chaque bit pouvant prendre 2 valeurs, il faut élever ce nombre au carré, soit un nombre à 78 chiffres, comparable au nombre d’atomes dans l’univers observable. Puisqu’il faut tester les clefs une par une, le temps pour espérer trouver la bonne clef est gigantesque.
En théorie, il est donc impossible de craquer une clé secrète. Dans de rares cas, il s’avère possible de retrouver la clé dans la mémoire de l’ordinateur, généralement lorsque les attaquants ont utilisé un algorithme cryptographique dit « faible », ou s’ils l’ont implémenté eux-mêmes. Mais il s’agit là d’exceptions.
Demande de rançon
Une fois vos données chiffrées, le rançongiciel vous laisse quelques jours ou semaines pour payer une rançon allant de quelques centaines à plusieurs milliers d’euros selon le cas, avant de détruire la clé. Vos données sont alors irrécupérables.
Mais payer ne garantit pas toujours que vous récupérerez vos données. Dans de nombreux cas, une fois le paiement effectué, la clé n’est jamais transmise pour le déchiffrement des données. Et un paiement ne signifie pas non plus que vous ne serez pas victime d’une nouvelle attaque, parfois par le même rançongiciel.
Dernièrement, les rançongiciels ont encore évolué pour maximiser leurs bénéfices, démontrant ainsi la créativité des attaquants. Une de ces pratiques est la double extorsion : en même temps que le chiffrement et demande de rançon, des données sensibles sont exfiltrées par les attaquants et revendues au plus offrant.
Comment ces malwares se propagent-ils ?
Un rançongiciel peut se propager de différentes manières – on parle de « vecteur d’infection ». Il requiert généralement un accès initial au système visé, souvent au travers d’une première attaque informatique.
Cette attaque préliminaire se matérialise généralement par ce que l’on appelle un exploit (prononcé à l’anglaise). Un exploit est un code informatique visant à exploiter une vulnérabilité dans un logiciel, généralement causée par une erreur de programmation ou une négligence. Ces vulnérabilités, une fois connues, se voient assigner un identifiant appelé CVE, et sont rendues publiques, généralement accompagnées d’un correctif. Au total, au 19 avril 2021, ce sont plus de 150 000 vulnérabilités qui ont ainsi été recensées.
Les attaquants utilisent les vulnérabilités pour infecter un système, avant que le correctif ne soit appliqué. Mais bien souvent, ce sont des failles encore inconnues, dites zero day, qui sont utilisées. Ces vulnérabilités découvertes par des hackers ne sont pas rendues publiques et sont au contraire exploitées dans le cadre d’attaques informatiques, parfois à grande échelle. Sur le dark web, le marché noir d’internet, de telles failles peuvent se vendre de 5 000$ à 250 000$ !
« Hex dump » du ver informatique répondant au nom de blaster au début des années 2000, avec un message destiné à Bill Gates.Wikimedia
Une fois le système cible infecté, l’attaquant a plusieurs manières de faire. Il (ou elle) peut soit installer directement le rançongiciel. Il peut aussi installer une porte dérobée (dite backdoor) afin de revenir plus tard pour installer le rançongiciel. Enfin, une option est d’installer un autre logiciel malveillant de type botnet qui permet de contrôler l’ordinateur à distance et d’installer le rançongiciel plus tard lors d’une attaque à grande échelle, synchronisée sur des dizaines ou des centaines de systèmes.
Généralement, le rançongiciel se comporte comme un ver informatique, et essaiera de se propager à d’autres ordinateurs sur le même réseau, que ce soit en exploitant la même ou d’autres vulnérabilités sur ces systèmes, ou au travers des partages réseaux.
Comment les attaquants attaquent nos vulnérabilités
Ces vulnérabilités ne sont pas toujours exploitables directement depuis Internet, et les attaquants utilisent alors des mécanismes visant un maillon faible bien connu… l’humain.
Au travers de campagnes de spams ou d’hameçonnage (phishing), parfois accompagnés d’un peu ingénierie sociales pour maximiser les chances de réussite, les attaquants vont envoyer un mail frauduleux, afin de tromper le destinataire, et lui faire ouvrir un fichier joint infecté, ou en le redirigeant vers un site web malveillant qui sera responsable de l’infection.
Afin de rester indétectables, des techniques classiques et communes à tous les codes malveillants sont utilisées. Certains cachent des URLs malveillantes derrière des services de contraction d’adresse (comme bit.ly par exemple). D’autres utilisent un Dropper qui dissocie le programme d’installation de la charge virale, à savoir le rançongiciel, ou des Packers, qui permettent de compresser et de cacher le code du rançongiciel.
Les rançongiciels attaquent sans discrimination, et leur impact peut-être catastrophique. La meilleure protection reste de ne pas se faire infecter, en suivant les bonnes pratiques, et en effectuant des sauvegardes régulières sur un support amovible.
Mais ce n’est pas toujours suffisant, notamment face à la double extorsion. N’hésitez pas à demander de l’aide.
Par Benoit Grunemwald, expert en Cyber sécurité chez ESET France
Cela fait maintenant 3 ans que le Règlement général sur la protection des données (RGPD) veille sur nos données personnelles. Si les règles sont aujourd’hui bien établies, peut-on pour autant identifier certaines perspectives d’amélioration ? Revue de détails.
Trois ans se sont écoulés depuis la mise en œuvre du Règlement général sur la protection des données (RGPD) voté par le Parlement européen en avril 2016 avant d’être appliqué au sein des 27 pays de l’Union européenne à compter du 25 mai 2018. En 2021, celui-ci est-il arrivé à maturité ? Depuis sa mise en place, il ne fait aucun doute que le paysage mondial de la protection de la vie privée a évolué, et que le RGPD a su faire la preuve de son bien fondé. Toutefois, la totalité de la population européenne ne semble pas encore assez concernée par la protection de la vie privée en ligne.
Le RGPD : une nécessité
Premier élément : le RGPD a su démontrer, en trois années d’exercice, son utilité. Au moment de son application, le règlement visait à protéger les données personnelles des utilisateurs. Il était alors devenu urgent d’agir de la sorte, tant certaines dérives avaient pu être constatées. On se souvient notamment du scandale Cambridge Analytica, caractérisé dès 2014 par le détournement, l’analyse et la réutilisation usurpatoire de données personnelles à des fins électorales sur Facebook.
Dès 2018, en Europe, le changement est immédiat. La nouvelle gestion imposée par le RGPD permet aux utilisateurs de consentir au déclenchement des cookies lorsqu’ils entrent sur un site. Le RGPD consolide ainsi les droits des personnes, via des mesures comme le droit à l’oubli ou la portabilité des données à caractère personnel. Il permet également que les acteurs en charge du traitement des données personnelles soient responsabilisés et améliore la régulation des données, notamment sur la scène internationale. Désormais, quiconque peut saisir la CNIL pour effectuer une « notification d’une violation de données personnelles ». Preuve d’un réel besoin : la CNIL a recensé au cours de l’unique année 2019 près de 14 000 plaintes, soit une augmentation de 27% par rapport à 2018. Celle-ci ne s’est pas démentie depuis.
Un bilan en demi-teinte
Est-ce pour autant que le RGPD constitue un cadre idéal ? Nous pouvons sans doute estimer que celui-ci demeure encore perfectible et qu’il pourrait être amélioré sur quelques points. En cause : les cookies. Ces fichiers texte stockés localement sur notre ordinateur lors de nos visites de pages Web se révèlent essentiels à notre utilisation d’Internet et contribuent à améliorer la sécurité de nos titres de compétence. Dans la plupart des cas, il s’agit de cookies de session, c’est-à-dire d’éléments appelés à être supprimés dans un certain laps de temps. Mais ils peuvent malheureusement aussi être persistants et demeurer actifs au-delà de la fermeture de Safari, Mozilla, Chrome ou Miscrosoft Edge…
Par ailleurs, l’usage que nous faisons du RGPD peut se révéler mécanique. Rares sont en effet les usagers d’Internet à lire attentivement les conditions d’utilisations auxquelles le RGPD les soumet. Dans la plupart des cas, ceux-ci acceptent les yeux fermés l’usage des cookies qui leur est proposé, au risque d’exposer leurs données personnelles. Ainsi, les « tracking cookies » ou cookies de suivi, sont devenus un réel casse-tête pour ceux qui apprécient leur vie privée en ligne. Que doit-on accepter ? Que risquons-nous ? De quoi, minimiser les effets du RGPD.
De tels choix sont tout aussi compliqués du côté des entreprises. Trouver un parfait équilibre entre l’expérience utilisateur, l’optimisation du site internet vitrine de la société et la sécurité des données se révèle être un exercice complexe. Comment éviter de perdre des clients potentiels, lassés par le temps passé à accepter les conditions d’utilisation ? Afin de pallier les manquements de fluidité sur certaines plateformes très sécurisées, certains continents optent pour de nouvelles méthodes de consentement tels que la reconnaissance faciale. Les Européens demeurent encore frileux face à cette idée pour des raisons de sécurité et de cadre juridique, contrairement aux Américains et aux Chinois. Avec un risque de voir de nouvelles pratiques prendre leur essor, rendant encore un peu plus poussif l’usage des plateformes européennes…
De bons réflexes à adopter
Nous n’en sommes encore pas là, et il existe dès à présent plusieurs réflexes à adopter si vous souhaitez améliorer votre vie privée et la sécurité de vos activités en ligne. En l’espèce rappelons les six règles d’or recommandées par les experts en cybersécurité :
N’accédez pas à des sites potentiellement dangereux ou qui peuvent avoir été compromis. En ce sens, il est fortement recommandé d’utiliser une suite de sécurité comprenant un module qui bloque les pages Web qui exécutent des activités malveillantes.
Maintenez votre navigateur et ses extensions à jour.
N’installez pas d’extensions inutiles ou peu fiables.
Configurez le navigateur pour qu’il n’accepte pas les cookies de tiers, supprimez ceux qui sont déjà enregistrés.
Utilisez des « add-ons » qui bloquent l’utilisation de Javascript par défaut, n’activez que les scripts dignes de confiance.
Une des caractéristiques de Tor est qu’il permet d’isoler les cookies de chaque site Web afin que votre activité ne puisse pas être suivie. De plus, il génère une fausse empreinte à partir de votre navigateur ; ainsi, tous les utilisateurs de Tor ont des empreintes presque identiques pour empêcher l’identification.
Le RGPD a été un réel chamboulement dans la sécurisation de nos données. Mais gardons à l’esprit qu’il n’existe ni intimité ni sécurité totale en ligne. En outre, nous pouvons toujours limiter les risques et sécuriser nos données personnelles grâce à quelques bons réflexes.
-20 % pour le dogecoin, – 19 % pour l’ethereum, – 22 % pour definity, la blockchain qui se veut infinie et dont le lancement récent avait connu un départ fulgurant : le mercredi 19 mai restera comme le jour d’un krach important des cryptomonnaies. La plus connue d’entre elles, le bitcoin, limite les dégâts à 8,5 % (39 587 dollars) après être tombé à – 30 % dans la journée. Il a déjà perdu 39 % par rapport à la valeur record atteinte au mois d’avril.
Elon Musk est passé du statut d’idole à celui de traître sur le marché des cryptomonnaies.Odd Andersen/AFP
Rares sont celles à connaître une croissance parmi les quelque 5 000 que l’on recense aujourd’hui. Les dernières lancées ? « FuckElon » ou « StopElon », ce qui en dit long sur l’identité du responsable désigné de cette chute des cours entamée dans les faits depuis plus d’une semaine.
Ancienne idole du monde des cryptomonnaies, Elon Musk, l’emblématique dirigeant de la firme automobile Tesla, semble désormais considéré comme un nouveau Judas par ces marchés. Les fondateurs du « StopElon » affirment même avoir pour ambition de faire grimper le cours de leur nouvelle cryptomonnaie dans l’objectif d’acheter des actions Tesla et d’expulser son dirigeant. La chute relativement moins importante du bitcoin semble néanmoins pouvoir être expliquée par des signaux rassurants de sa part.
Elon Musk avait mis le feu aux poudres en annonçant la semaine passée qu’il ne serait plus possible de payer ses véhicules en bitcoin alors qu’il s’était, au mois de mars, engagé dans la direction opposée. Il sous-entendait même que Tesla pourrait revendre l’intégralité de ses bitcoins. Début mai, invité de l’émission humoristique Saturday Night Live, il faisait déjà plonger le dogecoin qu’il venait pourtant soutenir, en lâchant le mot « arnaque » au cours d’un sketch.
La raison invoquée ? Leur nocivité pour la planète, les transactions les utilisant exigeant une forte consommation en électricité. « Une cryptomonnaie est une bonne idée à plusieurs niveaux et nous croyons en ce futur prometteur mais cela ne doit pas se faire avec un coût élevé pour l’environnement », déclarait celui qui porte également les projets spatiaux de SpaceX.
La Chine semble également avoir joué un rôle dans les événements de mercredi. Alors que le pays est sur le point de lancer un yuan numérique, ses dirigeants annonçaient en effet interdire aux institutions financières de faire usage de cryptomonnaies. « Après la volte-face de Tesla, la Chine a remué le couteau dans la plaie en déclarant que les monnaies virtuelles ne devraient pas et ne peuvent pas être utilisées sur le marché parce qu’elles ne sont pas des monnaies réelles », commentait hier à l’AFP Fawad Razaqzada, analyste de Thinkmarkets.
Si l’influence d’un seul homme sur les cours de ces actifs qui connaissaient depuis un an une embellie spectaculaire peut interroger, ses dernières sorties et sa volte-face invitent a minima à questionner les enjeux éthiques qu’ils soulèvent. Nos travaux montrent qu’ils sont au moins de deux ordres.
Darknet et rançongiciels
La question de l’éthique des cryptomonnaies reste étroitement liée à la nature et au fonctionnement même de ces actifs. En effet, les monnaies virtuelles ne sont associées à aucune autorité ou institution gouvernementale. Le système bitcoin a même été explicitement conçu pour éviter de s’appuyer sur des intermédiaires de confiance traditionnels, tels que les banques, et échapper à la tutelle des banques centrales. La valeur d’une monnaie virtuelle repose donc en principe intégralement sur la confiance et l’honnêteté de ses utilisateurs, ainsi que sur la sécurité d’un algorithme capable de suivre toutes les transactions.
Or, en raison de leur anonymat, de l’absence de réglementation stricte et des lacunes d’infrastructure, les cryptomonnaies apparaissent également susceptibles d’attirer des groupes d’individus qui cherchent à les utiliser de manière frauduleuse. Les préoccupations réglementaires portent d’ailleurs notamment sur leur utilisation dans le commerce illégal (drogues, piratage et vol, pornographie illégale), les cyberattaques, le potentiel de financement du terrorisme, le blanchiment d’argent et l’évasion fiscale.
Les activités illégales ont ainsi représenté pas moins de 46 % des transactions en bitcoin sur la période 2009-2017, ce qui pèse environ 76 milliards de dollars par an pendant cette période, soit l’équivalent de la taille des marchés américain et européen des drogues illicites. En avril 2017, environ 27 millions de participants au marché du bitcoin l’utilisaient principalement à des fins illégales.
L’un des exemples les plus connus de cybercriminalité liée à l’utilisation de cryptomonnaies reste aujourd’hui la « route de la soie ». Dans ce marché noir en ligne dédié à la vente de drogues sur le darknet, la partie d’internet accessible uniquement avec des protocoles spécifiques, les paiements étaient effectués exclusivement en cryptomonnaies.
En 2019, 8 % des demandes d’assistance formulées par des professionnels et adressées à www.cybermalveillance.gouv.fr concernent des raçongiciels.Rapport d’information sénatorial n° 613 (2019-2020) de Mme Sophie JOISSAINS et M. Jacques BIGOT, fait au nom de la commission des affaires européennes et de la commission des lois, déposé le 9 juillet 2020
En 2014, à une époque où le prix du bitcoin était aux alentours de 150 dollars américains, la saisie par le FBI de plus de 4 millions de dollars de bitcoins sur la route de la soie donne une idée de l’ampleur du problème auquel sont confrontés les régulateurs. Le FBI estimait alors que cette somme représentait près de 5 % de l’économie totale du bitcoin.
Les cryptomonnaies ont également facilité la propagation des attaques de rançongiciels, ces logiciels malveillants qui bloquent l’accès des entreprises à leurs propres données et ne les débloquent que contre le paiement d’une rançon en cryptomonnaies. Une étude réalisée par des chercheurs de Google a révélé que les victimes avaient payé plus de 25 millions de dollars de rançons entre 2015 et 2016. En France, d’après un rapport sénatorial remis en juillet 2020, ces rançongiciels concernent pour les professionnels 8 % des demandes d’assistance sur le site cybermalveillance.gouv.fr, 3 % de celles des particuliers.
Des actifs énergivores
Les principales cryptomonnaies utilisent une grande quantité d’électricité pour le minage, c’est-à-dire les opérations informatiques qui servent à les fabriquer et à valider les transactions. En effet, les deux principales monnaies virtuelles, bitcoin et ethereum, nécessitent des calculs compliqués extrêmement énergivores.
Pour le bitcoin, selon le site Digiconomist, le pic de consommation énergétique se situait entre 60 et 73 TWh en octobre 2018. Sur une base annualisée, mi-avril 2021, ces chiffres se situaient approximativement entre 50 et 120 TWh, soit plus que la consommation énergétique d’un pays comme le Kazakhstan. Ces chiffres sont encore plus spectaculaires lorsqu’ils sont donnés par transaction : le 6 mai 2019, le chiffre était de 432 KWh et de plus de 1000 KWh mi-avril 2021, soit la consommation annuelle d’un studio de 30m² en France.
Une comparaison populaire est souvent établie avec le système de paiement électronique Visa, qui nécessite une consommation d’énergie plus ou moins 300 000 fois inférieure à celle du bitcoin pour chaque transaction. Les chiffres ne peuvent pas être strictement comparés, mais illustrent bien que les transactions en bitcoin restent extrêmement énergivores par rapport aux transactions électroniques courantes.
Comment parvenir à un équilibre ?
Il existe des solutions pour réduire le coût et l’impact énergétique des bitcoins comme le recours aux énergies vertes ou l’augmentation de l’efficacité énergétique des ordinateurs d’exploitation minière.
Les cryptomonnaies : questions éthiques et environnementales (FNEGE Médias, juillet 2020).
Cependant, la technologie informatique doit encore s’améliorer dans ce sens. Surtout, la rémunération des mineurs pour débloquer les prochains bitcoins et valider les transactions est censée diminuer à l’avenir, les obligeant à consommer plus d’énergie pour garantir un même niveau de revenus.
Les initiateurs de cette technologie estiment que l’innovation que représente le bitcoin favorise un marché mondial libre et relie financièrement le monde. Cependant, il reste encore difficile à l’heure actuelle de trouver un équilibre entre la promotion d’une technologie innovante et la dissuasion de la criminalité et de l’impact écologique associés.
Confinés à deux reprises en 2020, les Français ont massivement utilisé les services de télécommunication, que ce soit l’internet fixe et mobile ou le téléphone, tant pour des raisons professionnelles (le télétravail) que pour les loisirs numériques (jeux, vidéo la demande…). Dès lors pas étonnant que les problèmes de connexion aient bondi l’an passé comme vient de le montrer l’Observatoire des plaintes et insatisfactions recueillies au cours de l’année 2020 réalisé par l’Association française des utilisateurs des télécommunications (Afutt).
Interruption de service : fléau numéro un
« La répartition par motif d’insatisfaction reste assez contrastée en fonction des secteurs, mais au total c’est l’interruption de service qui arrive cette année encore en tête des motifs d’insatisfaction sur l’ensemble des plaintes, tirée par les nombreux dysfonctionnements qui nous sont déclarés dans le secteur de l’internet fixe », indique l’Afutt.
Pour l’interruption de service (qui est passée de 18 % de l’ensemble des signalements l’an passé à 25 % en 2020), c’est toujours la « panne réseau, coupure permanente » qui représente 41 % du total de ces insatisfactions, suivie par les coupures intempestives (18 %) ou sans préavis (22 % du total mais 38 % du secteur mobile).
Second motif de grogne : les contrats. « Ce sont clairement les changements de tarifs et de conditions générales qui prennent la tête (respectivement 63 et 9 %) et ce quels que soient les secteurs, conséquence logique des récentes augmentations particulièrement mal comprises quand elles s’appliquent à des contrats vendus comme sans augmentation, les consommateurs ayant compris cette affirmation comme un engagement à vie alors que dans l’esprit de l’opérateur ce n’était que l’annonce que la durée de l’offre n’était pas limitée dans le temps. »
Problèmes de livraison-installation, en hausse de 72 %
À la troisième place, l’Observatoire pointe les problèmes de livraison-installation, en hausse de 72 %. « Ce motif qui n’était l’an passé qu’à la septième place avec 7 % des signalements est passé cette année à la troisième avec 12 % des signalements, conséquence à la fois de la fin de commercialisation du RTC et de la multiplication des incidents dans le déploiement de la fibre. »
À la quatrième place, on trouve les problèmes liés aux résiliations, et à la cinquième place ceux liés à la facturation, notamment la facturation à tort (39 % de l’ensemble des insatisfactions), la facturation hors forfait (17 % de l’ensemble) et la consommation en itinérance (14 %), qui s’est toutefois réduite depuis que les Européens peuvent utiliser leur forfait mobile sans frais dans l’UE.
L’Afutt a profité de la publication de son observatoire pour faire part de ses inquiétudes. D’abord concernant le déploiement « à marche forcée » de la fibre optique alors que le réseau cuivre RTC vit ses derniers mois. « Il faut très rapidement corriger les dérives qui sont apparues en matière de qualité d’installation et fluidifier les relations entre les intervenants en situations de mise en service et de dépannage », estime l’Afutt.
L’association dénonce ensuite l’absence de publication par les opérateurs des indicateurs faisant apparaître les délais de livraison, les taux de pannes et les délais de réparation concernant leurs offres internet, une obligation légale pourtant.
Pour faire une demande de passeport, de carte d’identité, de titre de séjour, de permis de conduire… il faut souvent s’armer d’une bonne dose de patiente. Les administrations sont surchargées et bien souvent, les administrés trinquent avec des délais de réponse particulièrement longs. Aujourd’hui, une révolution technologique est en marche et permet aux collectivités territoriales de gagner en efficacité. Découvrez comment l’intelligence artificielle va révolutionner les administrations tricolores.
Les préfectures départementales et régionales, les CPAM, les CAF, les mairies… toutes les administrations françaises doivent traiter des volumes de documents très importants. Il s’agit d’ailleurs bien souvent d’un besoin légitime afin de s’assurer de la légalité des demandes. Prenons l’exemple d’une préfecture comme Auch, dans le Gers (190.000 habitants). Seule, elle doit gérer chaque année entre 25.000 et 30.000 actes issus des 461 communes que compte le département. Bien sûr, cette tâche fastidieuse est loin d’être l’unique mission de cette préfecture, comme de ses consoeurs des 95 autres départements tricolores. Imaginez le temps de travail nécessaire et le nombre d’agents indispensables à la vérification de la validité de ces actes des collectivités locales. Un travail colossal et de surcroît, très répétitif pour les agents en charge, même si cette mission est indispensable.
Aujourd’hui, des technologies basées sur l’intelligence artificielle sont capables de réaliser un premier tri, même complexe, de ces demandes. L’IA peut, par exemple, soumettre à la validation d’un fonctionnaire expert, uniquement les demandes dont la validité est peu sûre. Conséquence : au lieu d’avoir à trier manuellement l’ensemble des données, cette technologie permet de mobiliser les agents uniquement sur des problématiques à forte valeur ajoutée, où leur expertise est indispensable.
Les administrations françaises, des candidates idéales au déploiement de solutions d’intelligence artificielle
Pour être efficace, une intelligence artificielle doit apprendre. Et pour apprendre, elle doit se confronter à de nombreux exemples. Un peu comme un enfant qui apprend à lire a besoin de s’entrainer tous les jours. Une IA fonctionne sur ce principe. Elle nécessite bien souvent un grand volume de données pour entraîner son modèle et gagner ainsi en performance. Les administrations, avec un flux particulièrement important de demandes à traiter, sont des candidates idéales au déploiement de ce type d’intelligence artificielle. De plus, avec des législations qui évoluent sans cesse, des approches de type Machine Learning permettent de mettre à jour les modèles d’intelligence artificielle automatiquement.
Toutes les administrations peuvent elles adopter de telles technologies ?
De par la nature même du travail effectué au sein des administrations françaises, elles sont toutes concernées ! En effet, déployer de l’intelligence artificielle au sein des différents services de l’État à tous les échelons (national, régional, local) paraît particulièrement pertinent. Et si vous imaginez que les administrations françaises ne sont pas prêtes à entrer dans l’univers de l’intelligence artificielle, vous vous trompez ! En effet, n’allez pas croire qu’il faut être un expert en intelligence artificielle pour savoir utiliser ces outils de dernière génération.
Dans les faits, ces technologies se présentent aux agents comme un logiciel métier classique, avec une ergonomie pensée pour une grande efficacité et un confort de travail optimal. Nul besoin d’être mécanicien pour conduire sa voiture, n’est-ce pas ? Là, c’est un peu la même chose. Le déploiement de ces technologies est confié à des sociétés expertes en traitement automatique du langage et les agents de l’État et des collectivités territoriales utilisent ces technologies au quotidien comme ils utilisent n’importe quel autre logiciel professionnel dédié.
L’IA va-t-elle remplacer les fonctionnaires ?
La réponse est clairement non ! Les technologies de traitement automatique du langage sont là pour accompagner le travail des agents des administrations. En aucun cas, elles ne sont là pour remplacer l’expertise de ces derniers. Les objectifs sont l’amélioration du service doublé d’une augmentation du nombre des demandes traitées en un temps donné.
Quelle trace le quinquennat d’Emmanuel Macron laissera-t-il dans l’histoire de la presse et des médias ? Même s’il a été présenté comme l’homme du « nouveau monde », le président « jupitérien » est revenu dans ses rapports avec les journalistes aux origines mêmes de la Ve République. Il n’a pas hésité pour cela à utiliser les méthodes de la modernité, en diffusant par exemple ses propres images sur les réseaux sociaux tout en tenant la presse à distance. C’est le constat que je dresse dans l’ouvrage Jupiter et Mercure, le pouvoir présidentiel face à la presse (éditions Les Petits Matins).
Le projet de ce livre est né le soir même de l’élection présidentielle de 2017, au moment où Emmanuel Macron entamait sa marche solennelle dans la cour du Louvre. Je venais de publier un ouvrage, Le Contact et la distance, qui portait sur la très forte porosité qui caractérise les mondes politique et journalistique en France.
Emmanuel Macron avait annoncé très tôt sa volonté de rompre avec cette tradition, et notamment avec le goût pour les « propos d’antichambre », comme il les nommera quelques mois plus tard.
Cette rupture me semblait bienvenue, mais elle portait déjà en elle une ambiguïté : Emmanuel Macron semblait moins attaché à l’idée d’une distance entre ces deux mondes, sur le modèle anglo-saxon, qu’à la volonté de rétablir une relation ouvertement hiérarchique entre le pouvoir politique et la presse.
Deux entretiens fondateurs
En juillet 2015 et en octobre 2016, dans deux entretiens fondateurs accordés à l’hebdomadaire Le 1 et au magazine Challenges, il avait en effet revendiqué une manière de gouverner très verticale.
Il avait même exprimé dans Le 1 son admiration pour les précédents gaulliens ou bonapartiste, et regretté ouvertement la disparition de la « figure du Roi ». Or, l’attachement à un tel héritage ne pouvait être qu’annonciateur de potentielles dérives à l’égard de la presse : lorsque le pouvoir se veut « jupitérien », selon le terme employé par le candidat dans son interview à Marianne, il est presque toujours tenté de restreindre la liberté des journalistes.
Dès le mois de mai 2017, j’ai donc choisi d’observer ce quinquennat à travers le prisme des rapports entre le président et la presse, avec la volonté de confronter Emmanuel Macron à ses prédécesseurs et d’inscrire son mandat dans l’histoire des médias. L’histoire n’est pas tout à fait finie au moment où paraît cet ouvrage, et la période préélectorale qui s’ouvre changera peut-être en partie la donne.
Mais, quatre ans après la déambulation victorieuse d’Emmanuel Macron, il me semble d’ores et déjà possible d’isoler plusieurs périodes, et de tirer quelques enseignements des difficultés rencontrées par ce jeune président dans ses relations avec la presse.
Manières abruptes
Dans un premier temps au moins, la rupture voulue par Emmanuel Macron a été bien accueillie par une partie du monde des médias. Certes, dès la campagne, plusieurs rédactions ont dénoncé le vocabulaire méprisant et les pratiques rugueuses revendiqués par l’équipe du candidat d’En marche.
Mais en dépit des propos parfois insultants tenus à leur égard par Sylvain Fort ou Sibeth Ndiaye, les journalistes ont été nombreux à accepter ces manières abruptes : malgré sa brutalité, ce bouleversement avait le mérite de mettre un terme à la confusion généralisée entre presse et pouvoir qui avait caractérisé le quinquennat précédent.
Même dans le domaine de la mise en scène de l’intime, les protestations devant la mainmise de « Mimi » Marchand sur l’image du couple présidentiel ont d’abord été limitées. La « reine de la presse people », comme elle est souvent surnommée, a pourtant eu un accès privilégié à Emmanuel et Brigitte Macron dès l’année 2016, au détriment de toutes les autres agences.
« Mimi », personnage romanesque dont la vie est liée au banditisme et au monde de la nuit, a ainsi d’emblée joué un rôle clé dans la célébration de la vie privée des deux époux.
Une photographie datée de juin 2017 la montre même debout derrière le bureau présidentiel à l’Élysée : un sourire extatique aux lèvres, et ses deux mains dessinant le V de la victoire, elle semble fêter le triomphe d’Emmanuel Macron comme s’il était aussi le sien.
Le déclic : l’affaire Benalla
Un tel déséquilibre dans les rapports entre presse et pouvoir ne pouvait cependant durer indéfiniment. Le basculement a eu lieu avec l’affaire Benalla qui, au cours de l’été 2018, a montré les limites propres à la communication « jupitérienne ».
Pendant six jours, entre le 18 et le 24 juillet, un bras de fer spectaculaire oppose en effet un président obstinément silencieux et le journal Le Monde, à l’origine de cette révélation, qui consacre toutes ses Unes à l’enquête et à ses répercussions politiques. L’affaire provoque ainsi un renversement du rapport de force et une libération de la parole des journalistes, puisqu’elle révèle les zones d’ombre de la communication du président. L’un des rôles d’Alexandre Benalla était en effet d’empêcher les journalistes indésirables d’accéder au couple présidentiel. Le collaborateur d’Emmanuel Macron n’avait d’ailleurs pas hésité, dès la campagne, puis durant la première année du quinquennat, à s’en prendre physiquement à certains d’entre eux.
Le conseiller Alexandre Benalla semblait être de toutes les occasions ?
Cette première crise, aggravée ensuite par l’épreuve des « gilets jaunes », a obligé le président à transformer ses relations avec la presse. Interviews plus nombreuses, recours à la pratique du « off », signes d’apaisement envoyés aux rédactions nationales ou régionales : à partir de la fin de l’année 2018 et du début de l’année 2019, Emmanuel Macron a multiplié les efforts pour « normaliser » en apparence sa communication.
En témoigne aussi l’article 24 de la loi « sécurité globale » qui, dans sa première version, limitait la possibilité pour les journalistes de filmer les forces de l’ordre lors des manifestations. En témoigne surtout la volonté du président d’instrumentaliser les médias et, dans le secret, de les utiliser pour « trianguler » avec l’extrême droite dans l’optique de la présidentielle de 2022. Je reviens par exemple dans le livre sur les liens du président avec la rédaction de Valeurs actuelles ou avec certaines des figures les plus clivantes de la chaîne CNews.
Une mise en cause des droits de la presse
Du début jusqu’à la fin, ce quinquennat aura donc été marqué par une mise en cause, et à certains égards, par un recul des droits de la presse. Les journalistes ont même été menacés dans leur intégrité physique lorsqu’ils ont cherché à couvrir les mouvements sociaux : durant les six premiers mois du mouvement des Gilets jaunes, 54 d’entre eux ont par exemple été blessés par les forces de l’ordre, selon un décompte de Reporters sans frontières (RSF).
Dans ces conditions, comment ne pas dresser un constat très sombre sur la fonction laissée à la presse durant ces quatre années, et sur les perspectives qui s’offrent à elle pour la décennie qui vient ?
Quelques motifs d’espoir
Ce livre voudrait cependant montrer qu’il existe d’authentiques raisons d’espérer. On peut se réjouir en particulier, à plus d’un titre, du rôle joué par une partie de la presse depuis l’élection d’Emmanuel Macron. Malgré les convocations à la DGSI ou la perquisition ratée à Mediapart en février 2019, les médias concernés ont continué leurs investigations sur l’affaire Benalla et refusé de livrer leurs sources.
On peut rappeler aussi l’attitude très digne de Georges Malbrunot en février 2020 : à l’issue d’une conférence de presse à Beyrouth, le président a violemment pris à partie ce journaliste, lui reprochant plusieurs articles consacrés à la situation au Liban.
Ariane Chemin a montré elle aussi quelle pouvait être l’attitude à adopter face à un pouvoir aussi impérieux. Son nom apparaît en effet tout au long du quinquennat, lors d’affaires ou d’événements qui supposaient une capacité du journalisme à jouer le rôle critique qui doit être le sien dans une démocratie.
Elle a bien sûr publié le 18 juillet 2018 l’article qui a déclenché l’affaire Benalla. Mais elle est aussi l’une des premières, en interrogeant Agnès Buzyn le 17 mars 2020, à avoir mis en évidence les manques, les ambiguïtés et même les mensonges dont le pouvoir a fait preuve dans sa gestion initiale de la crise sanitaire. Avec d’autres, elle a également largement contribué à révéler la stratégie utilisée désormais par Emmanuel Macron et l’un de ses principaux conseillers, Bruno Roger-Petit, pour nouer des liens avec l’extrême droite par médias interposés.
Capture d’écran de l’article d’Ariane Chemin et de Franck Joannès (Le Monde) sur la rencontre entre Bruno Roger-Petit et Marion Maréchal (27 décembre 2020).Le MondeArticle d’Ariane Chemin et François Krug (Le Monde) sur les coulisses des liens entre le président et l’hebdomadaire Valeurs Actuelles (2019).Le Monde
La force de ces enquêtes tient à la manière dont Ariane Chemin a privilégié l’attention aux faits, à la traque inlassable de la vérité, en maîtrisant autant que possible sa propre subjectivité.
Sa démarche est ainsi allée à contre-courant d’une tendance de plus en plus perceptible dans la presse écrite, et plus encore dans les médias audiovisuels : l’abandon de l’information au bénéfice de cette « société du commentaire » dont parlait récemment Nicolas Truong dans une longue enquête pour Le Monde.
De tels articles constituent ainsi une leçon et peut-être même un modèle pour l’ensemble de la presse. Ils montrent que, face à l’hubris de Jupiter, la meilleure réponse ne réside ni dans la flagornerie ni dans le déchaînement de critiques ad hominem, mais dans le choix d’un journalisme attentif aux faits – et à eux seuls.
Tout comme le Club de la presse de Bretagne, nous avons décidé nous aussi de faire un petit sondage sur la sale habitude du gouvernement de prévoir un « pool » lors des visites officielles, des voyages ou des grands événements. Cela nous semblait d’autant plus important en cette semaine de liberté de la presse.
Depuis tout temps, le pouvoir politique tente de diviser les médias, en privilégiant certains, en mettant d’autres au banc, pour ne pas dire au piquet en réaction à un article qui n’a pas plu, à un sujet décrié… Parlons aussi de la « ségrégation » parisien·nes / provinciaux·ales, petits/grands médias etc.
Bref, ce n’est pas en tenant les journalistes loin derrière des barrières lors de la sortie des conseils des ministres, ni en déclarant « qu’aujourd’hui les journalistes ne cherchent plus la vérité » que l’on va donner l’impression à la profession que le travail des journalistes, le droit d’informer représentent un pilier de la démocratie, un contre-pouvoir.
Les violences augmentent contre les journalistes sur les meetings politiques, lors des manifestations… mais que dire du dédain et du mépris affichés lors de ces fameuses visites.
Le gouvernement se sert de la crise sanitaire comme prétexte pour trier, sélectionner quel média est important, quel journaliste sera invité. Si une grande chaine de tv est présente, elle sera toujours prioritaire.
Comme toujours le Club de la presse tient à faire son travail et à dénoncer les problématiques. Nous ne pouvons pas tolérer sans rien dire que la Gazette de Nîmes soit exclue de la visite de Jean Castex sur son territoire, que La Marseillaise Hebdo Occitanie n’ait pas été autorisée à déposer une demande d’accréditation, que le correspondant de l’AFP dans le Gers se voit refuser l’accès au président car trop de journalistes…et essentiellement des journalistes nationaux.
La France ne se limite pas à l’Ile-de-France, les journalistes ne se tiennent pas en laisse… Que craignent donc tant les politiques qui empêchent les journalistes d’accéder à ces déplacements qu’ils annoncent par ailleurs ? En agissant ainsi ils tentent de transformer les journalistes en chargé·es de communication des ministères.
Nous avons jugé important de vous partager les témoignages des rédactions qui ont répondu à notre petite enquête…
Grand Rouleau d'Isaïe : exemples de modifications. Photo Jb344tul
Parce qu’elle est encore mal comprise et véhicule nombre de fantasmes, l’intelligence artificielle (IA) suscite parfois la méfiance, certains se demandant à quoi elle sert concrètement. Les applications de l’IA – notamment les algorithmes appliqués sur une masse importante de données – sont, il est vrai très nombreuses, mais il y a quelques jours, on a eu un exemple édifiant de ses possibilités appliquées à l’archéologie. L’IA a, en effet, permis de percer un mystère concernant les célèbres manuscrits de la mer Morte, des rouleaux, datant du IVe siècle avant J.-C. au IIIe siècle après J.-C., découverts entre 1947 et 1956 dans les grottes de Qumran, sur les rives nord-ouest de la mer Morte.
Mercredi 21 avril, des scientifiques de l’université de Groningen aux Pays-Bas ont publié dans la revue scientifique en ligne Plos One leurs travaux réalisés sur un rouleau des manuscrits de la mer Morte. Grâce à des algorithmes, de l’intelligence artificielle et de statistiques, les chercheurs ont conclu que le grand rouleau d’Isaïe, qui mesure plus de 7 mètres de long (54 colonnes sur 17 parchemins), possédait deux auteurs différents et non un seul ; des scribes "qui essayaient d’harmoniser leurs styles", selon le quotidien Times of Israël.
Pour arriver à cette conclusion, les chercheurs Mladen Popovic, Maruf A. Dhalinb et Lambert Schomaker sont partis d’une numérisation du rouleau réalisée par le Musée d’Israël et Google dans le cadre du Dead Sea Scrolls Digital Project. Après avoir créé un algorithme qui sépare le texte écrit à l’encre de son support, ils ont fait appel à une intelligence artificielle pour analyser l’écriture manuscrite et mettre en évidence d’infimes variations des traits d’encre, permettant de déduire la façon dont un scribe tenait son stylo. Cette technologie a permis de dépasser les capacités de l’œil humain qui se chargeait jusqu’à présent des analyses. "La paléographie traditionnelle, l’étude des méthodes d’écriture anciennes, est mise à mal par la difficulté d’identifier la différence entre les variations de l’écriture d’un seul scribe et celle d’un texte écrit par d’autres dans un style similaire", explique le quotidien israélien, qui précise que cette technologie pourrait parfaitement s’appliquer à d’autres textes anciens.
Reconstituer, classifier, localiser
Le recours à l’intelligence artificielle dans le domaine de l’archéologie se multiplie car il ouvre un champ de possibles important là où les recherches étaient bloquées. "La recherche en archéologie met progressivement à profit l’intelligence artificielle, surtout les outils de vision artificielle et de traitement automatique des langues. Le nombre de publications archéologiques faisant appel à l’IA explose depuis 2015, on en comptait plus de 65 en 2019", explique le site Data Analytics Post (DAP), média d’information et de réflexion autour des "data sciences" porté par le master MVA de l’École normale supérieure (ENS) Paris-Saclay.
Localiser des milliers de tombes d’anciens rois nomades en Russie via l’analyse d’images satellites, classifier des fragments de poterie grâce à une application mettant en jeu un réseau neuronal, reconstituer en 3D des objets gallo-romains à partir de fragments, restaurer des écrits cunéiformes babyloniens sur tablettes d’argile en identifiant les mots manquants sur les parties endommagées, ou encore localiser des vestiges jusqu’à présent ignorés. Les applications sont nombreuses et si l’IA intervient sur des points précis et ne sautait être généralisée, elle devient incontestablement un nouvel outil pour l’archéologie du XXIe siècle.