Le nombre d’abonnements à la 5G dans le monde devrait bien dépasser le milliard d'ici la fin de cette année, et atteindre cinq milliards d'ici la fin 2028, malgré les défis économiques actuels et à venir dans de nombreuses régions du monde, selon l'édition de novembre 2022 du Mobility Report d’Ericsson, qui prévoit également une croissance plus rapide que prévu des connexions d'accès sans fil fixe (FWA) dans le monde.
Le FWA - l'alternative sans fil à la connectivité haut débit filaire pour les foyers et les entreprises - est l'un des premiers cas d’usage majeurs de la 5G, en particulier dans les régions comprenant des marchés peu ou pas desservis en haut débit. Grâce notamment à l'accélération des plans FWA en Inde et à la croissance attendue dans d'autres marchés émergents, le FWA devrait croître de 19 % par an jusqu'en 2022-28 et atteindre 300 millions de connexions d'ici à la fin 2028. Plus des trois quarts des fournisseurs de services de communication (CSP) interrogés dans plus de 100 pays offrent actuellement des services FWA. Près d'un tiers des CSP proposent des services FWA sur la 5G, contre un cinquième il y a un an. Près de 40 % des nouveaux lancements de FWA 5G au cours des 12 derniers mois ont eu lieu sur les marchés émergents.
Le taux de couverture de la population en 5G devrait atteindre 85 % fin 2028
Sur la 5G elle-même, environ 110 millions d'abonnements ont été ajoutés dans le monde entre juillet et septembre 2022, portant le total à environ 870 millions. Comme prévu dans les rapports précédents, la 5G devrait bien atteindre un milliard d'abonnements d'ici la fin de l'année, soit deux ans plus vite que la 4G après son lancement. Cette statistique renforce la 5G en tant que génération de connectivité mobile à l'expansion la plus rapide. Parmi les principaux facteurs, citons la disponibilité en temps voulu des terminaux de plusieurs fabricants, dont les prix baissent plus rapidement que pour la 4G, et les importants déploiements précoces de la 5G en Chine.
L'Amérique du Nord et l'Asie du Nord-Est continuent de connaître une forte croissance de la 5G, le taux de pénétration des abonnements 5G dans ces régions devant atteindre environ 35 % d'ici la fin 2022. À l'échelle mondiale, près de 230 CSP ont lancé des services 5G à ce jour, avec plus de 700 modèles de smartphones 5G annoncés ou lancés commercialement.
D'ici la fin 2028, on estime à cinq milliards le nombre d'abonnements 5G dans le monde, soit 55 % de tous les abonnements. À cette même échéance, le taux de couverture de la population en 5G devrait atteindre 85 %, tandis que les réseaux 5G devraient acheminer environ 70 % du trafic mobile et représenter la totalité de la croissance du trafic.
"Les fournisseurs de services de communication continuent de déployer la 5G et la dynamique de l'accès fixe sans fil s'accélère. Qui plus est, le trafic mondial de données sur les réseaux mobiles double pratiquement tous les deux ans. Comme décrit dans cette édition du Mobility Report d'Ericsson, les fournisseurs de services prennent des mesures pour déployer la dernière génération de matériel et de logiciels radio à faible consommation d'énergie, pour accroître l'utilisation de sources d'énergie renouvelables et pour exploiter intelligemment les infrastructures des sites afin de réduire l'impact environnemental"', explique Fredrik Jejdling, Executive Vice President et Directeur de l’activité Réseaux d’Ericsson.
5,2 milliards d'abonnement 4G fin 2022
Le nombre d'abonnements 4G dans le monde continue également d'augmenter, avec une croissance d'environ 41 millions entre juillet et septembre 2022. Les abonnements 4G mondiaux devraient atteindre un pic d'environ 5,2 milliards vers la fin de cette année.
Le nombre total d'abonnements mobiles devrait atteindre 8,4 milliards d'ici la fin 2022, et 9,2 milliards d'ici la fin 2028. Alors que la plupart des abonnements sont associés aux smartphones, à la fin de 2022, on estime à 6,6 milliards le nombre d'abonnements à des smartphones, ce qui représente environ 79 % de tous les abonnements à des téléphones mobiles.
Le rapport souligne également l'importance de réduire l'impact environnemental. Le secteur des télécommunications a un rôle clé à jouer dans la réalisation des objectifs mondiaux de durabilité, à la fois en réduisant ses propres émissions et grâce à son potentiel de réduction des émissions de carbone dans d'autres industries. Pour réduire l'impact environnemental, le trafic de données croissant doit être géré par une modernisation intelligente du réseau, combinée à une approche équilibrée de la performance du réseau.
Le think tank européen de Idate DigiWorld, basé à Montpellier et qui devient le DigiWorld Institute, organise le DigiWorld Summit le 6 décembre au Musée de l’Homme à Paris. Cette manifestation, placée pour la quatrième année sous le haut patronage du président de la République, dévoilera les travaux menés par quatre commissions autour de grands enjeux du numérique de demain : le métavers, la 5G, les télécoms et le numérique durable.
En amont de cette journée qui proposera une immersion dans les laboratoires d’innovation, le Digiworld Institute dévoile d'ores et déjà ses premières réflexions;
Métavers : à l’aube d’une rupture technologique majeure, quelle place pour l’Europe et la France ?
"Déjà utilisé par plus de 440 millions d’utilisateurs dans le monde, soit deux fois plus d’utilisateurs que Netflix, le métavers est à l’aube d’une révolution technologique majeure", estime le Digiworld Institute. "Avec un marché qui devrait atteindre les 1 500 milliards de dollars d’ici 2030, il serait alors équivalent au PIB de la 5ème ou 6ème puissance mondiale. Les domaines dans lesquels le métavers pourra être utilisé sont déjà connus : dans l’industrie, la santé, l’éducation, la culture et tout ce qui touche au divertissement. Cependant, la situation actuelle fait craindre que le métavers prendra une forme privatisée, c’est-à-dire qu’il sera dicté par de grandes entreprises qui détermineront qui aura accès à cet univers, ce qui présenterait de forts risques en termes de souveraineté des Etats", explique l'institut.
Quels sont les différents scénarios d’évolution du métavers ? Quelle place pour les acteurs français et européens dans une chaîne de valeur préemptée par les big tech extra-européennes ? Quelle voie l’Europe peut-elle emprunter pour imposer son modèle ? Comment se positionne la France sur la chaîne de valeur du métavers ? sont les questions qui seront abordées le 6 décembre.
La 5G : vers l'industrie 4.0
Alors que les opérateurs télécoms s'interrogent sur le déploiement de la 5G en zones rurales, la 5e génération de réseau questionne toujours autant. "On le sait, le système productif français est deux fois moins moderne que le système productif allemand. La 5G fait partie des technologies d’infrastructures numériques qui accéléreront le passage à l’industrie 4.0, au même titre que la fibre. Or, en France, le débat sur la 5G a été cannibalisé par les problématiques grand public : sanitaire, énergétique, environnement…", estime le Digiworld Idate.
"Par ailleurs, la prise en compte des contraintes des industriels ne s’est faite que tardivement, ralentissant son déploiement. Deux ans après l’ouverture des fréquences 5G, où en est-on de son déploiement industriel ?", s'interroge l'institut. En quoi constitue-t-elle LA solution aux besoins de l’industrie 4.0 ? La 5G prend-elle en compte les préoccupations énergétiques et environnementales ? Pourquoi la 5G est-elle un levier incontournable de la réindustrialisation des territoires ? sont les questions qui seront abordées lors du colloque.
Quel avenir pour les opérateurs télécoms ?
"Entre 2020 et 2030, le volume moyen de données mobiles devrait croître d’environ 55%", annonce l'Idate. "Pour autant, cette croissance ne transparaît pas dans les revenus générés par les opérateurs télécoms qui n’ont augmenté que de 2% entre 2015 et 2020 alors que les besoins en investissement s’accélèrent. En effet, l’explosion de l’utilisation des données les contraint à maintenir un haut niveau d’investissement dans leurs réseaux afin de pouvoir offrir un service de qualité. En parallèle, les perspectives de croissance des opérateurs télécoms, fondées sur l’augmentation du nombre d’abonnés, paraissent limitées", explique l'institut, qui estime que "cependant, de nouveaux paradigmes du digital offrent de nouvelles opportunités de repositionnement aux opérateurs."
Quels sont les nouveaux besoins et les nouveaux usages B2B et B2C catalysés par la pandémie et la crise énergétique et climatique ? Face à de tels changements, quelles sont les quatre stratégies que peuvent adopter les opérateurs télécoms ? Quelles sont les opportunités de création de valeur associées à chacune de ces stratégies ? Autant de questions qui seront abordées par les experts invités du Digiworld Summit.
Vers un numérique responsable et durable
Enfin, le dernier dossier est particulièrement d'actualité en raison de la crise énergétique et de la nécessité de réussir la transition écologique. "Alors que la majorité des entreprises ont pris conscience de l’impact environnemental du numérique, cela n’implique pas pour autant un passage à l’action. Il est aujourd'hui essentiel de faciliter l’opérationnalisation d’une démarche de Numérique Responsable en guidant les entreprises dans cette démarche", explique l'institut dont la commission consacrée à ce sujet donnera "des pistes de réflexions et d’actions pour bâtir une roadmap environnementale pour un numérique responsable."
Dès l’annonce de son intention de devenir le seul propriétaire de Twitter, il y a six mois, Elon Musk avait laissé entrevoir que sa gestion future de la plate-forme serait fortement marquée par une approche populiste. Les derniers développements en date le confirment clairement.
Plusieurs signes avant-coureurs permettaient déjà de discerner la présence, dans ses actes et ses paroles, des trois critères qui, selon l’expert Cas Mudde, sont constitutifs du populisme : concevoir le « peuple » comme boussole, une supposée « élite » comme ennemi et l’accomplissement de la « volonté générale » comme aspiration.
Depuis que l’acquisition est devenue effective, ces indices sont devenus de plus en plus nombreux et explicites, au point que le nouveau dirigeant semble s’inspirer délibérément des recettes éprouvées par ceux qui adoptent ce discours et ces pratiques dans le domaine politique : alors que ces concepts pouvaient auparavant être lus entre les lignes, Musk invoque à présent ouvertement le peuple et dénonce les élites.
Un populisme ouvertement assumé, voire revendiqué
L’épisode des « comptes vérifiés » s’est révélé particulièrement illustratif de cette tendance. Jusque récemment, certains comptes étaient pourvus d’un badge bleu dès lors qu’étaient remplies certaines conditions, liées à la vérification de l’identité et de la notoriété de l’utilisateur. Même imparfait, ce système présentait une utilité objective, puisqu’il permettait d’établir l’authenticité des comptes les plus en vue.
[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Pourtant, Musk a décidé de modifier en profondeur le sens de ce symbole en le rendant également disponible à tout souscripteur de la version payante de la plate-forme. Lors de l’annonce officielle de cette nouvelle politique, il a en une poignée de caractères justifié ce changement par son intention de donner « le pouvoir au peuple ».
Selon ce narratif, la distinction antérieure entre comptes vérifiés et ceux qui ne l’étaient pas relevait d’une logique élitiste qu’il était urgent d’abolir. Ce privilège avait vécu : le « peuple » et la supposée « élite » de la plate-forme se retrouveraient donc désormais logés à la même enseigne.
Conçue dans la précipitation, cette nouvelle façon de procéder a permis que plusieurs comptes, estampillés du fameux badge, se fassent passer pour des célébrités ou des entreprises, voire pour Musk lui-même. La confusion qui en a résulté, parfois non sans conséquences pour l’image des personnes ou des organisations dont l’identité avait été usurpée, a par contraste souligné le bien-fondé de la règle précédente. Face à la débâcle, l’application de cette politique a été suspendue.
Le sort de Donald Trump sur la plate-forme fournit un autre exemple de logique populiste. Musk avait d’abord exprimé son intention de revenir sur la suspension du compte de l’ex-président, décidée au lendemain de l’attaque contre le Capitole. Il avait semblé faire preuve de prudence en annonçant que les décisions de cet ordre seraient prises par un « conseil de modération des contenus », au sein duquel serait représentée une « large diversité de points de vue ».
En lieu et place de cette méthode, il a lancé le 18 novembre un sondage en ligne soumettant au vote des internautes la proposition de rétablir le compte de l’ancien président. 24 heures et 15 millions de « votes » plus tard, le verdict tombe : comme 52 % des participants ont répondu affirmativement, Trump pourra de nouveau faire usage de son mégaphone numérique. Du moins potentiellement, car l’intéressé a publiquement exprimé son intention de ne pas retourner sur ce réseau social.
Pleinement en phase avec les préceptes populistes, la décision a donc été remise entre les mains de la majorité, au détriment de tout corps intermédiaire – y compris de celui que Musk avait un temps annoncé vouloir créer pour examiner ce genre de cas. Les institutions et les règles ne font pas le poids face à la « volonté générale » : là encore, le « peuple » est directement invoqué, et plutôt deux fois qu’une, pour justifier cette prise de décision.
Moins d’une semaine plus tard, il a recouru à la même méthode pour décider d’une « amnistie générale pour tous les comptes suspendus », effective à partir de la semaine du 28 novembre, confirmant par la même occasion que rien ne saurait résister à la « voix populaire ».
Une manière douteuse de donner la parole au « peuple »
L’importance que les leaders populistes attribuent au pouvoir du « peuple » contraste avec les limites des procédures mises en place pour permettre à ce même peuple de s’exprimer. D’ordinaire, les résultats des référendums sont ainsi tenus pour vérité absolue, en tout cas lorsqu’ils vont dans la direction désirée.
En l’occurrence, Musk a mis de côté ses préoccupations, pourtant récurrentes à un moment donné, au sujet des comptes automatisés, ou bots. Estimés à 5 % des utilisateurs par l’équipe précédente, et à un pourcentage bien plus élevé par Musk lui-même, leur nombre est suffisant pour jeter le doute sur les résultats de ce sondage.
Ces consultations souffrent également d’un biais de sélection, puisqu’elles ont été lancées par l’intermédiaire du compte personnel de Musk et donc diffusées bien plus massivement auprès des utilisateurs qui le « suivent », parmi lesquels ses soutiens sont sur-représentés. Par conséquent, les personnes les plus susceptibles de prendre position sont aussi celles qui ont la plus forte propension à aller dans le sens de celui qui a posé la question.
Techniquement parlant, il était parfaitement possible pour Musk de présenter ces deux options à l’ensemble des usagers de la plate-forme, mais il a préféré procéder par l’intermédiaire de son propre compte. Ce choix souligne que Twitter en tant qu’institution a désormais cédé la place à Twitter, instrument à usage personnel de son propriétaire. Une confusion des genres fréquente dans tout système régi par une logique populiste.
En général comme dans ce cas précis, l’objectif du leader populiste n’est pas tant de permettre à une supposée « volonté générale » de se former et de s’exprimer mais bien davantage de pouvoir brandir la réponse qui, bien souvent sans guère de surprises, sera ressortie de cette consultation.
Pourquoi Musk adopte-t-il les codes et les techniques du populisme ?
Il n’est pas surprenant que Musk ait recours à ces pratiques. D’abord, il a depuis longtemps fait étalage d’une personnalité avide de jouer les premiers rôles en communiquant directement avec une large audience, au sujet de ses entreprises comme sur bien d’autres thèmes.
Cette tendance s’est notamment déployée sur Twitter, où il avait déjà démontré son appétence pour les sondages comme mode de prise de décision.
Il n’a échappé à personne que sa prise en mains de l’entreprise est synonyme non seulement de refonte en profondeur de son fonctionnement, mais aussi de remise en cause de la culture et des valeurs qui y prévalaient jusque-là, dont la reconnaissance de l’importance du bien-être des employés ou la liberté de parole au sein de l’entreprise, y compris pour critiquer les décisions prises au plus haut niveau. Pour mener à bien cette transformation, Musk a besoin de s’adosser à une source de pouvoir et de légitimité, en complément de son statut légal de propriétaire. Il a donc naturellement recours à cette base « populaire », représentée par ses followers dont une bonne partie est acquise à sa cause, à qui il peut s’adresser directement grâce à la plate-forme elle-même.
Fort de ce soutien, réel ou suffisamment apparent, le multimilliardaire peut déclencher une confrontation ouverte contre ceux qui sont considérés comme autant d’obstacles à ses projets, et qui sont collectivement désignés comme une élite affairée à ses privilèges hérités de la situation antérieure. Dans cette vaste catégorie entrent tout aussi bien l’ancienne équipe dirigeante, les employés accusés de ne pas travailler suffisamment ou les ONG qui rappellent la plate-forme à ses responsabilités.
Un Twitter « populiste » peut-il continuer à s’autoréguler ?
Jusqu’alors, l’évolution des plates-formes de réseaux sociaux allait dans le sens d’un épaississement notable de leurs capacités afin de faire face à leurs responsabilités vis-à-vis des sociétés où elles opèrent. Cette tendance s’est traduite par une augmentation des moyens et personnels consacrés à la définition et l’application de politiques, en particulier contre la diffusion de contenus considérés comme néfastes à la cohésion sociale et au bon fonctionnement des démocraties, comme les discours de haine, le cyber harcèlement ou la désinformation.
En conséquence, les plates-formes ont mis en place des équipes spécialisées pour définir des règles d’utilisation de plus en plus détaillées, les mettre à jour et les appliquer. Bien que cette forme d’autorégulation ait produit des résultats imparfaits, cibles de critiques méritées, elle permet la constitution progressive d’un ordre normatif propre à chaque plate-forme. Dans ce cadre, les attentes en termes de cohérence, transparence et respect des droits fondamentaux se font de plus en plus pressantes de la part des gouvernements, comme des annonceurs, des ONGs ou des utilisateurs.
À rebours de cette évolution, Musk démantèle ces moyens et ces principes, pour les remplacer par l’arbitraire de ses propres décisions, sous couvert d’une volonté générale qu’il dit suivre et servir. Alors qu’elles sont censées être toujours en vigueur, les règles existantes se retrouvent finalement reléguées à un rang secondaire et leur application peut être remise en cause à tout moment.
Si elle se confirme sur la durée, cette façon de procéder heurtera frontalement les obligations que le « Digital Services Act » fera reposer sur les plates-formes dans le marché européen à court terme. Du côté des États-Unis, elle démontrera les graves limites de l’autorégulation et pourrait bien représenter, pour le Congrès américain, le facteur qui jusque-là lui avait fait défaut pour parvenir à adopter une législation fédérale encadrant le fonctionnement des plates-formes numériques.
Comme son pendant politique, le populisme de plate-forme se confrontera tôt ou tard au principe de réalité.
L’expédition Polar Pod qui doit partir explorer l’océan austral avec un navire océanographique vertical révolutionnaire accélère. Imaginée il y a plusieurs années par l’explorateur tarnais Jean-Louis Etienne, premier homme à atteindre seul le pôle Nord en 1986, mais ralentie par des questions de financement puis par la crise sanitaire, l’expédition a progressé sur deux points.
Le premier est l’aspect pédagogique du projet : inauguré le 25 novembre à Paris à l’occasion de l’Université de la Terre, à l’Unesco, un Polar Podibus va sillonner la France à la rencontre des écoles, des collèges et lycées, notamment ceux de l’académie de Toulouse, pour expliquer la genèse de l’expédition et ses objectifs scientifiques.
Le second progrès s’est déroulé hier loin de la France avec la mise à l’eau du bateau avitailleur du Polar Pod à Hô-Chi-Minh, au Vietnam, sur les chantiers navals de Piriou.
Des croisières début 2023
Baptisé Persévérance, ce voilier éco-conçu de 42 mètres de long pour 11 de large peut embarquer 12 passagers dans 8 cabines. Il dispose de deux ponts dont un avec un salon panoramique et un local scientifique.
Vue d'artiste du Persévérance, navire avitailleur du Polar POD (au seconfd plan).
Non seulement il servira à avitailler le Polar Pod mais il pourra aussi proposer le reste du temps des croisières qui participeront à l’autofinancement du bateau. « Que d’émotion pour notre équipe. Il a tellement fière allure ! Il est maintenant à quai et son aménagement va se poursuivre », ont commenté Jean-Louis et Elsa Etienne.
Depuis Eliza (1966), le premier chatbot de l’histoire, jusqu’à nos jours, les machines conversationnelles issues de l’intelligence artificielle se voient souvent attribuer des attitudes et des comportements humains : joie, étonnement, écoute, empathie…
Sur le plan psychologique, ces attributions correspondent à des « projections anthropomorphiques ». Ainsi, le risque existe d’identifier pleinement les chatbots à ce que nous leur attribuons de nous-mêmes, au point de susciter la croyance d’avoir affaire à quelqu’un plutôt que de garder à l’esprit qu’il s’agit d’un programme informatique disposant d’une interface de communication.
Par ailleurs, le risque existe que les concepteurs issus des « technologies persuasives » (technologies visant à persuader les humains d’adopter des attitudes et des comportements cibles), conscients d’un tel phénomène, utilisent les chatbots pour influencer nos comportements à l’aide du langage naturel, exactement comme le ferait un humain.
Pour circonscrire les mécanismes projectifs dont les technologies persuasives pourraient faire usage, nous avons conduit une étude à grande échelle auprès d’un échantillon représentatif de Français (soit 1 019 personnes) placés en position d’envisager ou de se remémorer une relation interactive dialoguée avec un chatbot qu’il soit, au choix, un·e ami·e confident·e, un·e partenaire amoureux·se, un·e coach·e de vie professionnelle ou un·e conseiller.ère clientèle.
Pour interpréter nos résultats, nous avons retenu des projections anthropomorphiques quatre modalités essentielles :
Anthropomorphisme perceptuel : consiste à projeter sur un objet des caractéristiques humaines, ce qui relève de l’imagination.
Animisme : consiste à donner vie aux caractéristiques attribuées à un objet en projetant « sur » lui des intentions simples généralement humaines.
Anthropomorphisme intentionnel : est une forme d’animisme consistant à projeter « dans » l’objet des intentions humaines complexes sans pour autant identifier totalement cet objet à ce qu’on y a projeté.
Identification projective : consiste à projeter « dans » l’objet des caractéristiques de soi et à l’identifier totalement à ce qu’on y a projeté au point de modifier radicalement la perception même de cet objet.
Un résultat intriguant : mon chatbot est plutôt féminin
Quel que soit le chatbot choisi, 53 % des répondants le considèrent comme vivant autant qu’humain et parmi eux 28 % projettent sur lui les caractéristiques d’un homme adulte et 53 % celles d’une femme adulte (anthropomorphisme perceptuel).
Ensemble, ils lui donnent vie en lui attribuant des intentions simples (animisme). Lorsque les répondants ne considèrent pas le chatbot choisi comme vivant (40 %), certains projettent paradoxalement sur lui des caractéristiques humaines comme une voix (27 %), un visage (18 %) et un corps (8 %) tendanciellement féminins. Dans l’ensemble, seuls 38 % des répondants projettent dans leur chatbot une agentivité c’est-à-dire des états intérieurs complexes, cognitifs et émotionnels, constitutifs d’un pouvoir et d’une autonomie d’action (anthropomorphisme intentionnel).
Ainsi, tout se passe comme si la tendance était d’attribuer au chatbot les caractéristiques d’un sujet humain, mais avec une certaine hésitation sur l’attribution d’une intériorité : il serait ainsi considéré comme un sujet sans subjectivité. Ces résultats tendraient à montrer que les répondants n’identifient pas totalement le chatbot à ce qu’ils imaginent d’humain en lui et, ainsi, qu’ils ne le prennent pas pour un semblable. Il n’y aurait donc pas de processus avéré d’identification projective.
[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Face à ces résultats, deux questions nous ont semblé essentielles. La première consiste à se demander si la tendance des répondants à projeter du féminin dans leur chatbot, qu’il soit ou non considéré comme vivant – et notamment une femme plus qu’un homme adulte –, relève d’un stéréotype ou d’un archétype. Rappelons ici qu’un stéréotype est une opinion toute faite, forgée sans examen critique qui véhicule des représentations sociales standardisées et appauvrissantes visant à catégoriser voire caricaturer tel ou tel groupe humain.
Un archétype, quant à lui, est un schéma d’organisation inné de notre vie psychique, présent à l’état « virtuel » dans notre esprit et que seules certaines circonstances peuvent activer et actualiser. La seconde question consiste à se demander pourquoi les répondants n’identifient-ils pas pleinement leur chatbot à ce qu’il projette d’humain en eux ?
Afin de répondre à ces questions et de mieux comprendre nos relations aux chatbots, certains des concepts majeurs de la psychanalyse nous ont éclairés.
La psychanalyse pour comprendre nos relations aux chatbots
Tentons une réponse à la première de nos deux questions. Selon la littérature scientifique, des stéréotypes sociaux de genre sont souvent projetés sur les machines. Alors que la vocation des chatbots est d’assister l’humain, il serait en effet naturel, selon certains, que, dans l’imaginaire social, cet assistanat soit situé du côté du « care » et ainsi associé aux femmes.
Mais sommes-nous vraiment en présence d’un tel stéréotype dans notre enquête ? Nos investigations montrent en effet que 58 % des femmes qui considèrent leur chatbot comme vivant et humain l’envisagent comme une personne de genre féminin contre seulement 48 % des hommes. Ainsi, soit elles sont victimes d’un stéréotype de genre par contagion sociale, soit cette projection d’une figure féminine exprimerait un invariant collectif qui serait l’expression d’un archétype plus que d’un stéréotype.
Un archétype, tel que nous l’avons défini, est par exemple à l’œuvre dans les processus d’attachement pulsionnel à la mère. En effet, il a été démontré que le nouveau-né, dès le premier contact avec sa génitrice, dirige instinctivement son regard vers elle avant de migrer vers le sein pour sa première tétée. Ce comportement inné relève de l’archétype de la Mère.
Plus généralement, certaines recherches montrent que la première forme vivante que les nouveau-nés rencontrent à leur naissance fait « empreinte » en eux sous la forme d’une image et les conduit à se lier immédiatement à elle pour recevoir les soins dont ils ont besoin. Peu importe si cette forme appartient à une autre espèce. Certains en concluent que l’archétype, en tant que schéma inné de comportement, conduit un être vivant à rechercher une fonction de soin plus qu’un individu spécifique à son espèce d’appartenance.
Le concept d’archétype nous permet donc d’envisager que la figure projective féminine propre à notre enquête ne résulterait pas forcément d’un stéréotype de genre. Elle pourrait attester l’activation et l’actualisation de l’archétype de la Mère poussant ainsi l’utilisateur « humain » à projeter une figure féminine archétypale dans le chatbot, preuve qu’il cherche, dans l’interaction avec lui, une fonction de soin telle qu’il l’a déjà expérimentée.
Peu importe qu’il soit un programme informatique, un « individu technique », s’il donne le sentiment de « prendre soin » en aidant à choisir un produit, en conseillant une attitude juste ou en offrant des signes de reconnaissance amicaux autant qu’amoureux.
Un différentiel homme-machine auto-protecteur ?
Abordons maintenant notre seconde question. Dans notre enquête, le chatbot est généralement imaginé comme un sujet paré de caractéristiques humaines, mais sans subjectivité. Ce qui signifie que les répondants n’identifient pas pleinement leur chatbot à ce qu’ils projettent de leur propre humanité en eux. Les recherches dans le domaine de l’attachement en fournissent peut-être l’explication.
Elles indiquent en effet que les relations avec un premier pourvoyeur de soins, donne les moyens à celui qui s’attache, de pouvoir faire ultérieurement la différence entre ses congénères et les autres. C’est probablement la raison pour laquelle les répondants montrent qu’ils pourraient être en mesure de s’attacher à un chatbot qui leur fait la conversation sans pour autant le considérer comme un de leurs semblables : la conscience d’un différentiel de génération et d’existence entre l’humain et la machine – différentiel dit ontologique – limiterait ainsi voire interdirait toute identification projective.
Un tel « rempart naturel », face à l’ambition persuasive de la captologie pour laquelle la fin peut parfois justifier les moyens, pourrait rendre les utilisateurs beaucoup moins influençables voire moins dupes que ne l’envisagent les professionnels du marketing et du design conversationnel : ils jouent le jeu probablement en conscience.
Reste cette question : que faire pour protéger les plus fragiles et les plus influençables d’entre nous qui pourraient se prendre à un tel jeu et courir le risque de s’y perdre ?
À l’heure où l’on s’achemine vers une grande bascule vers les voitures électriques et donc vers de nouveaux besoins en électricité, la question de la production de celle-ci occupe les réflexions partout dans le monde. En France, où RTE a mis en garde contre de possibles coupures de courant en janvier en raison d’une moindre production du parc nucléaire, ou aux États-Unis où la Maison Blanche a annoncé vendredi un plan de 13 milliards de dollars pour moderniser le réseau électrique américain dont 70 % ont plus de 25 ans d’âge…
Éolien terrestre ou en mer, panneaux solaires, hydroélectricité, géothermie, photovoltaïque, nucléaire : tous les États examinent les moyens de production tandis que les énergéticiens modernisent leurs réseaux pour les rendre plus intelligents (smart grid).
Centrale électrique virtuelle
Dans ce foisonnement technique et scientifique émerge la question du stockage de l’électricité par les particuliers. Dans cette réflexion, on retrouve Tesla, la marque de voitures électriques de l’impétueux Elon Musk, qui a acquis un savoir-faire exceptionnel dans le domaine des batteries. Si celles-ci vont dans les voitures, Musk a imaginé en mettre à domicile avec son Powerwall. Reliée à des panneaux solaires – Tesla a imaginé un toit solaire baptisé Solar Roof – cette grosse batterie permet de stocker les excès d’énergie et de les restituer par la suite au foyer. A la clé de sérieuses économies et une réduction des émissions de CO2.
Tesla va plus loin et a eu l’idée de mettre en réseau son système pour créer une centrale électrique virtuelle, pilotée par un logiciel. Après des tests en Australie, en Californie ou au Texas, Tesla a déployé l’an dernier 300 systèmes sur l’île japonaise de Miyako-jima. La centrale électrique virtuelle californienne a permis aux habitants de gagner 2 dollars par kilowattheure renvoyé dans le réseau électrique, en période de forte demande ou si des problèmes de pannes se présentent, par exemple après une catastrophe.
Multiplication des acteurs
Cette idée de centrale électrique virtuelle a le vent en poupe puisque cette semaine le géant du numérique Softbank a investi 120 millions de dollars dans Swell, une start-up spécialisée dans le domaine, qui a noué des partenariats avec des services publics en Californie, dans l’État de New York et à Hawaï.
Les acteurs dans ce domaine commencent à se multiplier. À côté de Swell, on trouve Enphase, Generac, Sonnen, SolarEdge, Sunnova ou Sunrun.
Si les prix du pack panneaux solaires et batteries sont encore élevés, les résultats positifs de ces expériences devraient rapidement accélérer leur adoption.
En 2017, trois chercheurs d’INRAE (Institut National de Recherche pour l’Agriculture, l’Alimentation et l’Environnement), Denis Bourguet, Benoit Facon et Thomas Guillemaud, fondent Peer Community In, un service de recommandation de preprints (le preprint ou prépublication est une version d’un article qu’un scientifique soumet à un comité de lecture) basé sur des évaluations par les pairs. Les articles validés ainsi que les évaluations et les données, codes et scripts afférents sont déposés en libre accès. PCI ouvre la voie à une réappropriation par les chercheurs de leur système d’évaluation et de publication et une plus grande transparence dans la chaîne de production des savoirs.
Naissance du projet
L’idée du projet a germé en 2016 suite à la prise de conscience des dérives du système de publication scientifique qui présente notamment deux problèmes importants : la majeure partie des publications ne sont pas libres d’accès et les frais de publication et d’abonnement sont extrêmement onéreux pour les institutions.
En effet, même en France où le mouvement pour la science ouverte s’est accéléré ces dernières années, la moitié des publications restent protégées par des droits d’accès. Elles ne sont donc pas librement accessibles pour les citoyens, les journalistes et tous les scientifiques qui dépendent d’institutions qui n’ont pas les moyens de s’abonner aux revues scientifiques. Cette entrave à la libre circulation de l’information scientifique est un frein à la circulation et au partage des connaissances scientifiques et des idées.
Par ailleurs, au niveau mondial, le chiffre d’affaires de l’industrie de publication d’articles scientifiques en science, technique et médecine est d’environ 10 milliards de dollars US pour 3 millions d’articles publiés. C’est considérable, d’autant plus que les marges bénéficiaires réalisées par les grandes maisons d’édition atteignent, en moyenne, 35 à 40 % ces dernières années. Ayant pris connaissance de ces coûts et de ces marges, les fondateurs de PCI ont souhaité offrir aux scientifiques et aux institutions les moyens de se réapproprier le système de publication. Ainsi est née, en 2017, l’initiative Peer Community In (PCI).
Auto-organisation des communautés scientifiques
PCI organise des communautés de scientifiques qui évaluent et valident publiquement des preprints dans leur champs thématiques. L’évaluation se déroule comme dans des revues scientifiques classiques. Sur la base d’une évaluation par les pairs (peer review), les éditrices et éditeurs (dénommés « recommenders ») qui se chargent de l’évaluation d’un preprint soumis à une PCI décident, après un ou plusieurs séries d’évaluation, de rejeter ou d’accepter l’article. En cas d’acceptation, et à la différence de pratiquement toutes les revues traditionnelles, l’éditrice ou l’éditeur rédige un texte de recommandation, expliquant le contexte et les qualités de l’article.
Ce texte de recommandation, ainsi que tout le processus éditorial (reviews, décisions éditoriales, réponses des autrices et auteurs…), est publié sur le site de la PCI qui a organisé l’évaluation du preprint. Cette transparence est là aussi assez unique dans le système de publication actuel.
La version finale, validée et recommandée de l’article, est quant à elle déposée sans frais par les autrices et auteurs sur le serveur de preprint ou sur l’archive ouverte. Les articles validés, déposés sur les serveurs de preprints ou dans les archives ouvertes sont libres d’accès : tout le monde peut les lire.
Une révolution dans la production scientifique
PCI rend inutile la publication dans un journal. La version finale et recommandée du preprint, de facto validée par les pairs, peut en effet être citée dans la littérature. Les preprints recommandés par PCI sont d’ailleurs reconnus, notamment en France, par plusieurs institutions et comités d’évaluation et de recrutement au CNRS. En Europe, les preprints reviewés sont reconnus par la commission européenne, et plusieurs agences nationales de financement comme le Wellcome Trust, La fondation Bill et Melinda Gates, etc.
L’autre originalité de PCI est qu’il permet de séparer l’évaluation par les pairs de la publication. La validation/recommandation d’un preprint par PCI n’empêche pas les autrices et auteurs de soumettre ce preprint pour publication dans une revue scientifique. D’ailleurs, un grand nombre de revues se déclarent publiquement « PCI-friendly » dans le sens où, lorsqu’elles reçoivent des soumissions de preprints préalablement recommandés par PCI, elles tiennent compte des évaluations déjà réalisées par PCI pour accélérer leur décision éditoriale.
2021, lancement de Peer Community Journal : une nouvelle étape
Au départ, l’intention de cette initiative était de s’en tenir uniquement à l’évaluation et la recommandation de preprints par les PCIs. Malgré ça, il peut être frustrant de voir son preprint recommandé dans les serveurs de preprints (car ces preprints, pourtant évalués et recommandés, sont encore mal indexés et ne sont pas toujours reconnus comme de véritables articles) ou d’avoir à les soumettre pour publication dans des journaux avec le risque de repartir pour un tour d’évaluation. La création de Peer Community Journal permet ainsi de publier directement et sans condition un article recommandé par une PCI thématique.
Peer Community Journal est une revue diamant, c’est-à-dire une revue qui ne fait pas payer de frais de publication aux autrices et auteurs et qui publie les articles systématiquement en accès ouvert. Les articles peuvent donc être librement consultés sur le site du journal sans abonnement et sans restriction d’accès. Peer Community Journal est une revue généraliste qui comprend pour l’instant 16 sections - correspondants aux 16 PCIs thématiques actuelles - dans lesquelles peuvent être publiés tout preprint recommandé par une PCI thématique.
PCI : un modèle innovant en progression
PCI a fait des émules : 16 PCIs thématiques ont été créés (par exempt PCI Evolutionary Biology, PCI Ecology, PCI Neuroscience, PCI Registered Reports…) et d’autres PCIs sont en projet. Ces 16 PCIs regroupent 1900 personnes côté édition, 130 membres de comités éditoriaux et plus de 4000 scientifiques utilisatrices et utilisateurs. PCI et Peer Community Journal sont reconnus par 130 institutions et la moitié de ces institutions - dont l’Université de Perpignan Via Domitia - soutient cette initiative financièrement. La proportion d’universitaires français qui connaissent et/ou utilisent PCI est très variable suivant les communautés. Pour les communautés qui ont une PCI (par exemple, la communautés en écologie ou en biologie évolutive, avec PCI Ecology et PCI Evol Biol) la proportion est très élevée (probablement >50 % des scientifiques de ces communautés connaissent maintenant PCI). Pour les communautés qui n’ont pas encore de PCI, cette proportion reste très faible. À ce jour, >600 articles ont été reviewés par PCI. La biologie domine largement, mais d’autres disciplines émergent comme l’archéologie et les sciences du mouvement. La marge de progression est encore importante : l’enjeu est que ceux qui connaissent s’investissent encore davantage et que les scientifiques de champs disciplinaires non couverts par les 16 PCI créent une PCI dans leur domaine.
À l’échelle internationale, d’autres initiatives de science ouverte ont vu le jour, mais aucune ne ressemble véritablement à PCI. La plupart se limitent à des offres - souvent directement ou indirectement payantes - de peer reviews de preprints, mais sans décision éditoriale (comme Review Commons ou PreReview) et ne viennent donc pas chambouler le système de publication actuel.
Si la dynamique de PCI est indéniablement croissante avec plus de 10000 visiteurs différents par mois sur l’ensemble des sites des PCIs, la création de Peer Community Journal montre que le système classique de publication reste d’actualité et risque sans aucun doute de perdurer à moyen terme, même si l’on peut espérer que la validation des preprints offerte par les PCIs devienne un modèle suffisant, car plus économe et transparent à tout point de vue.
En attendant, PCI et Peer Community Journal offrent une alternative crédible pour publier en accès ouvert diamant, sans frais pour les autrices et auteurs, et en accès gratuit. Les temps changent et de nombreuses institutions et universités, face à l’inflation démesurée et injustifiée des abonnements et des frais de publication, soutiennent la montée en puissance des journaux diamants. PCI et Peer Community Journal s’inscrivent dans cette dynamique en offrant à toutes les communautés scientifiques qui le souhaitent les moyens de se fédérer pour se réapproprier leur système d’évaluation/publication.
Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du ministère de l’Enseignement supérieur et de la Recherche.
Le fournisseur de messagerie GMX enregistre actuellement une augmentation d'environ 20 % du nombre de spams et d'attaques par hameçonnage pendant la semaine du Black Friday. La prudence de réagir rapidement aux offres avantageuses diminue et les cybercriminels en profitent sans scrupules : l'hameçonnage des services de colis et les faux bons d'achat sont des escroqueries particulièrement fréquentes.
« Le spam et le phishing fonctionnent particulièrement bien lorsque les victimes sont sous pression. Si l'on reçoit un courriel contenant une offre exceptionnellement intéressante, on risque de ne pas y regarder de trop près ou de devenir négligent. Des erreurs peuvent facilement être commises, ou vous pouvez tomber dans un piège que vous auriez normalement reconnu si vous aviez eu plus de temps pour y réfléchir », explique Arne Allisat, chef de l'équipe de sécurité du courrier électronique de GMX.
Hameçonnage de colis et escroqueries aux bons d'achat
Deux méthodes d'escroquerie sont particulièrement populaires cette année : l’hameçonnage de colis et les escroqueries aux bons d'achat. Dans le cas de l'escroquerie aux colis, les victimes reçoivent un courriel de phishing qui ressemble à s'y méprendre à une notification réelle de Colissimo, de Chronopost ou d'UPS. Ce courriel contient un lien avec une demande de paiement pour régler de petits frais d'expédition s'élevant à quelques euros. De cette manière, les attaquants reçoivent non seulement l'argent, mais peuvent également s'emparer des données d'accès aux comptes bancaires en ligne ou aux comptes PayPal de leurs victimes.
La deuxième méthode d'attaque est celle des faux bons d'achat : Ils suggèrent que l'on peut obtenir une réduction particulièrement élevée ou un crédit auprès d'une grande plateforme d'achat comme Amazon ou Cdiscount. Pour cela, il suffit de s'inscrire sur la plateforme en question via un lien contenu dans le courriel. Le lien mène ensuite à un site web des escrocs qui, à première vue, ne se distingue pas de l'original. Si l'utilisateur s'inscrit sur ce site, ses données d'accès sont directement transmises aux escrocs - qui peuvent ensuite faire des achats pour le compte de tiers.
« L'essentiel, surtout en cette période de bonnes affaires, est de garder son calme », recommande Allisat. « Aucune offre ne peut être si bon marché ou si exclusive que vous deviez mettre votre identité numérique en danger pour l'obtenir. Pour vous protéger contre la prise de contrôle de votre compte de messagerie dans le cadre d'une attaque de phishing, vous devez activer l'authentification à deux facteurs chaque fois que cela est possible. Même si votre mot de passe est volé à un moment donné, personne ne peut se connecter sans le deuxième facteur. Cette protection est particulièrement importante pour les comptes de messagerie. »
Une nouvelle étude menée par OpenText met en lumière les préoccupations croissantes des Français quant à la confidentialité et la protection des données personnelles. Les résultats démontrent un manque de confiance dans la façon dont les entreprises conservent et utilisent leurs données. Pour assurer la fidélité des consommateurs, les entreprises doivent améliorer la gouvernance et la protection des informations.
Les trois quarts des consommateurs (75 %) se disent inquiets de la manière dont les organisations utilisent leurs données. Avec la généralisation du télétravail, 74 % des consommateurs se préoccupent davantage de leurs données personnelles maintenant que les entreprises y ont recours. 40 % exigent que ces entreprises garantissent une sécurité totale indépendamment du lieu de travail.
La confidentialité des données est importante pour les consommateurs français, et cela, même si la moitié d’entre eux (49 %) n’ont aucune idée de quelles informations sont utilisées, stockées et accessibles aux organisations.
Plus de deux Français sur cinq (39 %) sont prêts à dépenser plus auprès d’une organisation expressément engagée dans la protection de leurs données personnelles, ils n’étaient que 17 % dans une enquête similaire menée par OpenText en mars 2020.
Respect du RGPD
Pourtant, seul un Français sur cinq (21 %) fait entièrement confiance à toutes les entreprises avec lesquelles il interagit pour protéger ses données. 29 % des répondants n’hésiteraient pas à tourner le dos à une entreprise à laquelle ils sont fidèles en cas de protection insuffisante ou de violation de leurs données personnelles.
Dans le détail, 26 % se détourneraient d’une entreprise en l’absence de réponse à une demande RGPD que ce soit pour l’exercice du droit à l’information ou du droit d’accès, de rectification ou d’effacement.
Enfin, 31 % délaisseraient une organisation qui partage leurs données personnelles avec des tiers à des fins autres que celles prévues.
"Les solutions de gestion des informations d’entreprise n’ont jamais été aussi essentielles. Si elles permettent de respecter les lois sur la protection et la confidentialité des données, elles offrent également un avantage concurrentiel de taille et s’imposent comme un vecteur de différenciation en vue de maintenir la fidélité des clients", explique Andy Teichholz, Global Industry Strategist, Compliance and Legal chez OpenText, explique :
Quelle place doit avoir l’Europe dans l’aventure spatiale ? Entre les nouveaux acteurs privés américains comme Space X d’Elon Musk ou Blue Origin de Jeff Bezos, les ambitions des États-Unis qui vont revenir sur la Lune, celles des Chinois qui vont disposer de leur propre station spatiale, sans oublier les Indiens ou encore les Russes ? Que ce soit dans le domaine des lanceurs spatiaux où l’Europe s’était fait un nom avec les fusées Ariane, ou les constellations de satellites, quel rôle doivent – et peuvent – jouer les Européens ? Les enjeux sont à la fois scientifiques, technologiques, économiques, stratégiques et de souveraineté avec un point clé : quel budget consacrer à l’espace alors que l’Europe fait face à l’inflation ? Car l’argent reste le nerf de la guerre.
Budget en hausse de 17%
Au terme d’âpres négociations, les 22 États membres de l’Agence spatiale européenne (ESA), rassemblés depuis deux jours à Paris, ont décidé hier d’une enveloppe de 16,9 milliards d’euros pour 2023-2025, en hausse de 17 % par rapport aux trois dernières années. Moins que les 18,5 milliards de dollars demandés par le directeur général de l’agence, Josef Aschbacher, et moins que le budget faramineux de la Nasa (26 milliards de dollars). Mais un budget conséquent. « Étant donné le niveau de l’inflation, je suis très impressionné par ce résultat », s’est réjoui le patron de l’ESA, jugeant que le budget voté était « nécessaire pour ne pas rater le train » du New space très concurrentiel. C’est un « grand succès », a salué le ministre de l’Économie Bruno Le Maire, la France apportant une contribution de 3,25 milliards d’euros, quand l’Allemagne met 3,5 milliards sur la table et l’Italie 3,1 milliards.
L’Europe spatiale reste fragile
Tous les programmes de l’agence vont ainsi voir leurs moyens augmenter : les programmes d’observation de la Terre, qui permettent de mesurer et surveiller le changement climatique, notamment via le programme Copernicus, bénéficient d’une enveloppe de près de 2,7 milliards d’euros (+6 %), l’exploration robotique et humaine de 2,7 milliards d’euros (+36 %), les activités de télécommunications de 1,9 milliard (+19 %).
Le sujet des lanceurs spatiaux, source de tensions ces dernières années entre la France (cheffe de file d’Ariane 6 qui a pris du retard), l’Allemagne (favorable à une concurrence des micro et minilanceurs) et l’Italie (et sa fusée Vega-C), va bénéficier de 2,8 milliards d’euros, soit une hausse de plus d’un tiers par rapport à 2019. Une somme qui n’effacera pas les difficultés actuelles des Européens : plusieurs mois vont s’écouler entre le dernier vol d’Ariane-5, prévu au printemps 2023, et la mise en service commerciale de son successeur, et l’Europe n’a plus accès aux lanceurs russes Soyouz, guerre en Ukraine oblige…
Enfin, l’ESA va participer au futur réseau de satellite de télécommunication IRIS², annoncé le 17 novembre, qui doit permettre en 2024 de garantir l’autonomie stratégique de l’Union européenne dans le domaine des communications sécurisées gouvernementales.
La France compte depuis hier une nouvelle astronaute sélectionnée par l’Agence spatiale européenne (ESA) avec 4 autres personnes (trois hommes, le Suisse Marco Sieber, l'Espagnol Pablo Alvarez Fernandez et le Belge Raphaël Liégeois, et une femme, Rosemary Coogan, une Britannique de 31 ans) parmi 257 candidats issus de 22500 candidatures. L'ESA a choisi 17 nouveaux candidats astronautes de l'ensemble de ses États membres : cinq astronautes de carrière, 11 membres d'une réserve d'astronautes et un astronaute handicapé.
We are honoured to introduce you to the new generation of ESA astronauts 👨🚀👩🚀 #ESAastro2022
In this new class of 2022 astronauts are five career astronauts, 11 members of the astronaut reserve and one astronaut with a disability.
Née en 1982, Sophie Adenot, deuxième astronaute française après Claudie Haigneré, est diplômée de l’ISAE-Supaéro de Toulouse, où elle s’est spécialisée dans la dynamique de vol des engins spatiaux et des avions entre 2001 et 2003. Elle a ensuite complété un Master of Science en ingénierie des facteurs humains au MIT (Massachusetts Institute of Technology) à Boston, aux États-Unis.
Pilote d'essai d'hélicoptère
En 2004, diplôme en poche, elle travaille comme ingénieure de recherche en conception de cockpit d’hélicoptère chez Airbus Helicopter à Marignane. Un an plus tard, elle rejoint l’Armée de l’Air pour sa formation militaire de base et sa formation initiale au pilotage pour devenir pilote d’hélicoptère.
De 2008 à 2012, elle est pilote de recherche et sauvetage à la base aérienne de Cazaux et participe à plusieurs vols de sauvetage en milieu désertique et hostile. Elle reviendra sur cette base de 2019 à cette année après un passage à Villacoublay de 2012 à 2017. Lieutenant-colonel, elle totalise 3000 heures de vol sur 22 appareils différents.
Elle rêvait de la combinaison d'astronaute
Cette sportive qui parle cinq langues dont le russe, aussi à l’aise en plongée sous-marine qu’en parachutisme, a été honorée par l’Assemblée nationale pour son action en faveur de la promotion des sciences auprès des jeunes. «On a travaillé dur pour arriver ici aujourd’hui», a-t-elle déclaré sur le podium parisien hier avant d’indiquer sur son compte Twitter qu’elle rêvait depuis son plus jeune âge de cette tenue d’astronaute.
«C’est mon grand-père qui m’a donné son amour des machines, parce qu’il était mécano dans l’armée de l’air» a-t-elle récemment expliqué.
Les conseils de Thomas Pesquet
Les entraînements des nouveaux astronautes commenceront en avril 2023 au Centre européen de Cologne, en Allemagne. Objectif : des vols à bord de la Station spatiale internationale. Les futures missions lunaires seront, elles, réservées à la sélection précédente comme l'a indiqué Thomas Pesquet.
L'astronaute leur a conseillé de "bien s'accrocher". Et "pendant ce temps, nous continuons notre travail, personne aujourd'hui ne part à la retraite. Pour les missions Artémis vers la Lune, on va envoyer (...) plutôt des gens de ma génération, d'ici à 2030, pendant que cette nouvelle promotion apprend le métier, fait ses armes et une mission sur l'ISS", la station spatiale internationale, a-t-il déclaré.
La couverture en internet très haut débit, qu'il soit mobile ou par la fibre, est une question récurrente pour de nombreuses régions car elle conditionne bien souvent le développement économique ou tout simplement la vie quotidienne dans notre société de plus en plus numérisée. Cette question se pose avec acuité en Occitanie, une région qui comprend des zones montagneuses et donc des zones blanches.
Le site spécialisé Zone ADSL, qui compare les box internet et les forfaits mobile, vient de publier un pointage concernant la situation en Occitanie pour le déploiement de la 5G et celui de la fibre.
5G : l'Occitanie 5e
Concernant le déploiement des réseaux 5G, l'Occitanie se situe à la 5e place au plan national. "Parmi les 43 816 antennes 5G déployées en France, 4 139 proviennent de la région Occitanie selon l'ARCEP, soit 9% des antennes 5G disponibles en France. Elle se place en 5e position du classement des régions en fonction de leurs nombre d'antennes 5G", explique ZoneADSL. Free, qui déploie une fréquence particulière de 5G, arrive en tête avec 1 801 antennes en octobre 2022, suivi de Bouygues Telecom (1 012), SFR (751) et Orange (575).
Sur la répartition géographique, la Haute-Garonne est largement en tête avec 1 194 antennes, suivie par l'Hérault (880) et le Gard (523). En queue de classement, on trouve, avec moins de 100 antennes, le Gers (98), l'Ariège (85), le Lot (75) et la Lozère (52).
Fibre : de fortes disparités entre départements
Concernant le déploiement de la fibre, l'Occitanie se situe à la 6e place au plan national. 75% des logements sont éligibles à la fibre, ce qui laisse tout de même 1 foyer sur 4 privé de ce très haut débit. "Si la région d'Occitanie est 6e du classement des régions avec un taux de couverture fibre de 75%, il existe quelques disparités entre ses départements : seulement 59% de couverture fibre pour le Gers et l'Ariège contre 83% pour la Haute-Garonne et 80% pour l'Hérault", observe ZoneADSL, qui souligne que seuls 67% des logements de la région sont fibrés par les quatre opérateurs.
En tête de la couverture, on trouve donc la Haute-Garonne (82,9%) suivie de l'Hérault (80,1%) et du Tarn-et-Garonne (78,6%). En queue de classement, on trouve le Tarn (63,2%), l'Ariège (58,8%) et le Gers (58,6%).
La solution du satellite
A l'occasion du récent congrès de l'Association nationale des élus de montagne (Anem) qui s'est tenu fin octobre en Aveyron, Liza Bellulo, présidente de la Fédération Française des Télécoms (FFTélécoms), a apporté des précisions sur les investissements des opérateurs dans les zones blanches. "Depuis 5 ans, les opérateurs télécoms ont investi, sur leurs propres deniers, l’équivalent de 900 collèges chaque année, soit 90 par département, pour le déploiement des réseaux fixes et mobiles. Le programme zones blanches centres bourgs et le dispositif de couverture ciblée sont sans équivalent dans le monde ; seuls deux autres pays se sont fixé de tels objectifs, l’Allemagne et le Japon, et avec des cibles bien moins ambitieuses."
Depuis le début du programme New Deal, "près de 2 000 sites 4G multi-opérateurs ont été livrés. 1700 autres ont d’ores-et-déjà été été identifiés par les équipes départementales et seront donc livrés par paliers, dans les deux ans. En montagne, 400 des 600 sites identifiés à ce jour sont déjà en service" a précisé Mme Bellulo.
Lorsque les zones ne peuvent être couvertes en fibre ou 4G, il reste le recours au satellite. "Depuis un peu plus d’an an, l’internet par satellite connait une révolution liée à l’arrivée d’un nouveau satellite qui offre désormais une connexion à Internet illimitée et jusqu’à 100 Mb/s. Ces performances valent d’ailleurs à ces solutions d’être éligibles à l’aide financière de l’Etat pour permettre l’acquisition du kit de connexion", expliquait en mars l'Anem, qui a noué des partenariats avec Eutelsat et Nordnet.
Une perturbation majeure des systèmes GPS aurait des conséquences colossales pour le fonctionnement de l’économie mondiale.
karelnoppe/ShutterstockPar Serge Besanger, OMNES Education
Initialement conçu pour des applications militaires, le Global Positioning System est un système de positionnement par satellites appartenant au Pentagone, également utilisé pour de très nombreuses applications civiles.
Que ce soit en matière de logistique, de transport, d’agriculture, de finance, d’industrie, de défense ou de sécurité, le GPS garantit aujourd’hui un positionnement et un horodatage précis n’importe où dans le monde.
Le premier satellite GPS fut mis en orbite en 1978 et la couverture mondiale fut achevée en janvier 1995. Le système GPS repose aujourd’hui sur une constellation de 31 satellites qui permet à un utilisateur situé en n’importe quel point du globe d’avoir en permanence au minimum quatre satellites à sa portée. Les satellites GPS évoluent en orbites circulaires à une altitude de 20 200 km.
Le système est avant tout connu du grand public pour ses applications de géolocalisation, telles Waze ; mais ses usages sont en réalité très variés.
[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Un satellite comprend en effet quatre horloges atomiques, synchronisées et traçables, qui servent de référence pour des milliards d’utilisateurs. La synchronisation GPS est tellement précise qu’elle joue désormais un rôle essentiel dans l’industrie mondiale. Par exemple, les centrales électriques modernes reposent sur cette synchronisation dans le but de modifier, adapter et suivre les demandes de puissance électrique et ajuster la production d’énergie.
Par ailleurs, les marchés financiers mondiaux s’appuient également sur l’heure GPS afin d’enregistrer en quelques millisecondes seulement des milliards de transactions quotidiennes.
Notre infrastructure la plus vulnérable
Les signaux GPS constituent donc une infrastructure essentielle… mais éminemment vulnérable. D’abord du fait de menaces naturelles, telles les éruptions solaires de l’été 2022, qui ont perturbé la ionosphère en empêchant les signaux GPS de passer. Ces tempêtes sont de plus en plus fréquentes. Notre soleil est en effet entré dans un nouveau cycle, dont le pic d’activité est prévu pour 2025-2026. Une éruption solaire d’envergure pourrait mettre hors service plusieurs satellites, temporairement ou définitivement.
Au-delà, le GPS est exposé à toutes sortes de menaces d’origine humaine, allant du brouillage au piratage, aux cyberattaques, voire aux attaques physiques.
Les menaces d’attaque physique des satellites GPS n’ont pas été mises à exécution à ce jour (mais un tel scénario n’est pas à exclure, au vu du développement rapide des armes anti-satellites). En revanche, on constate déjà une augmentation rapide d’incidents, intentionnels ou involontaires. Selon le projet Strike3, initiative européenne visant à limiter l’exposition du continent au « risque GPS », plus de 21 000 événements d’interférence aux communications aéroportuaires ont été détectés pendant le seul mois d’avril 2018, sur les huit principaux aéroports européens. Parmi ceux-ci, 1 141 ont été identifiés comme des interférences délibérées.
Une cyberattaque spatiale peut générer des perturbations, entraîner une perte de données voire mener à la perte d’un satellite ou d’un réseau complet de satellites. En prenant la main sur le système de commande et contrôle d’un satellite, un attaquant pourrait en modifier l’orbite, couper les communications, ou encore désactiver son électronique. Comme dans la plupart des cyberattaques terrestres, l’attaquant pourrait utiliser des serveurs détournés sans laisser de traces.
Conscients de la fragilité du système, la Russie, puis l’UE et enfin le Japon et la Chine ont mis en place leurs propres constellations de satellites : respectivement Glonass en 1993, Galileo en 2011, QZSS et Beidou en 2018.
L’appellation GPS, spécifique au système américain, tend donc à être remplacée par « Système mondial de navigation par satellites » (SMNS), en anglais : Global Navigation Satellites System.
Le risque géostratégique
Les forces armées contemporaines, particulièrement en Occident, ont développé une dépendance aiguë au système GPS, que ce soit pour la géolocalisation, le guidage des missiles, ou encore la navigation en mer ou dans les airs. Les obus d’artillerie « intelligents », ainsi que les roquettes des Himars, grâce à leur guidage GPS sophistiqué, sont capables de frapper avec une précision de moins de 2 mètres une cible située à plusieurs dizaines, voire centaines de kilomètres, comme démontré avec succès par l’artillerie ukrainienne ces dernières semaines.
Dès lors, bon nombre d’acteurs ont intérêt à développer des systèmes de brouillage.
Le brouillage vise à transmettre un signal plus puissant dans la même bande de fréquence que le GPS pour perturber ses signaux. Disponibles pour quelques dizaines d’euros, les dispositifs de brouillage sont fréquemment utilisés dans le vol de véhicules par des malfrats. Les dispositifs civils ont une portée de quelques dizaines de mètres, alors que les dispositifs militaires permettent de brouiller voire d’interrompre les signaux GPS sur plusieurs centaines de kilomètres à la ronde.
Lors de l’opération Iraqi Freedom en 2003, la société russe Aviaconversiya avait fourni aux forces armées irakiennes des dispositifs de brouillage GPS, d’un poids de moins de 8kg et d’une portée de 200 km. La menace avait été jugée suffisamment sérieuse pour que les frappes de la coalition visent en priorité ces dispositifs.
Plus proche de chez nous, à Nantes en 2017, un ingénieur commercial avait omis d’éteindre son brouilleur GPS grand public laissé dans son véhicule, garé à l’aéroport. Le brouilleur perturba sérieusement le fonctionnement de l’aéroport, et le risque d’une collision aérienne entraîna l’intervention de la gendarmerie qui géolocalisa puis neutralisa le brouilleur.
À l’autre bout du continent, la Corée du Nord se livre régulièrement, dans un but obscur, à des campagnes de brouillage visant les aéronefs, civils ou militaires, sud-coréens. Plusieurs centaines d’avions civils peuvent être visés chaque mois, selon l’autorité de l’aviation civile coréenne.
Le brouillage est, à la base, une opération relativement aisée, tant les signaux des GNSS – GPS comme Galileo – sont faibles en comparaison de ceux émis par les brouilleurs. Le signal d’un GPS peut être comparé au bruit émis par une cigale, alors que son brouillage par interférence se rapproche à celui d’un avion à réaction.
Dans ces conditions, pourquoi la Russie, qui a massivement investi dans des systèmes de guerre électronique capables de couper les communications et les signaux sur un large spectre, n’a-t-elle pas encore « coupé » le GPS ?
Pourquoi Poutine attend avant d’aveugler l’Occident
En 2021, alors que la Russie venait de détruire un de ses satellites dans l’espace, un commentateur de la télévision russe avait déclaré en 2021 que la nation pourrait « aveugler l’OTAN » en abattant tous les satellites GPS. Aujourd’hui, en Ukraine, les forces russes brouillent régulièrement les signaux GPS sur une partie du théâtre d’opérations. Pour autant, ce brouillage n’est pas aussi complet que certains observateurs l’avaient prévu.
La principale raison est que les forces russes ont elles-mêmes cruellement besoin du GPS. En effet, les récepteurs GPS sont très répandus, bien meilleur marché et plus faciles à utiliser que les récepteurs Glonass. Pour preuve, les avions de chasse russes abattus dont on a découvert qu’ils avaient des récepteurs GPS civils scotchés sur leur tableau de bord.
Par ailleurs, l’Ukraine utilise toujours d’importants stocks d’armes datant de l’ère soviétique, qui sont peu susceptibles d’être affectés par les formes de guerre électronique.
Le scénario « GPS blackout » et le retour du sextant
Il n’en reste pas moins que, depuis plusieurs années, les forces armées occidentales se préparent à un scénario d’interruption complète et prolongée des systèmes de positionnement et navigation par satellite : le « GPS Blackout ».
Les exercices de l’OTAN simulent désormais un conflit à haute intensité, fulgurant et simultané, dans un environnement aux communications fortement dégradées et au sein duquel une panne GPS majeure se produit sur plusieurs semaines, voire plusieurs mois. Les armées occidentales envisagent des solutions alternatives pour maintenir leurs capacités de combat à un niveau adéquat : tirs de missiles sans GPS, et… utilisation du sextant comme instrument de navigation en mer.
Parmi les solutions plus techniques, les armées occidentales se tournent vers la mise en place de réseaux de pseudo-satellites, ou pseudolites, via les antennes terrestres, afin de créer un système de localisation « de théâtre », par opposition au GPS qui est de nature globale. Ce type de système permet une meilleure résilience, et est par ailleurs nettement moins coûteux à déployer.
Des systèmes assez anciens, tels l’Astro-inertial navigation system (ANS, en français : système de navigation inertiel recalé par visée stellaire) sont ressortis des cartons, afin d’assurer une redondance au GPS. L’ANS équipe certains aéronefs américains, dont l’avion-espion BlackBird SR71. Bien que moins précis que le GPS, l’ANS permet une géolocalisation et un géopositionnement à 100 mètres près.
Enfin, l’agence publique américaine DARPA – génitrice d’Internet dans les années 1960 – planche en ce moment sur une autre technologie jugée « très prometteuse », l’ASPN : All-Source Positioning and Navigation. Il s’agit ici d’utiliser des signaux d’opportunité, tels la radio, les antennes relais et la télévision, pour se positionner.
Son homologue britannique, l’ARIA, travaille pour sa part sur un système de navigation baptisé NAVSOP, pour Navigation via Signals of Opportunity, basé sur des principes identiques.