Technomedia

Numérique · médias · sciences · intelligence artificielle

Le Pic du Midi inaugure ses nouveaux espaces scientifiques et prolonge cent cinquante ans d’histoire astronomique

picdumidi
Le Pic du Midi © Matthieu Pinaud

Après quatre années de travaux menés dans des conditions extrêmes, le Pic du Midi de Bigorre a inauguré, jeudi 30 octobre 2025, deux nouvelles structures dédiées à la recherche. Financé à hauteur de 7,66 millions d’euros, ce double chantier renforce l’excellence scientifique du site et la présence de l’Université de Toulouse au sommet.

Suspendu au-dessus des nuages, le Pic du Midi de Bigorre continue d’écrire l’une des plus hautes pages de la science française. Jeudi 30 octobre 2025, ses nouveaux espaces scientifiques ont été inaugurés par Pierre-André Durand, préfet de la région Occitanie, Carole Delga, présidente de la Région, et Odile Rauzy, présidente de l’Université de Toulouse. Cette cérémonie marque l’aboutissement de quatre années de travaux menés dans des conditions extrêmes, au cœur d’un site à la fois mythique et vivant.

Lancé en 2021, le double chantier visait à renforcer la capacité d’accueil et d’expérimentation de l’Observatoire du Pic du Midi, tout en modernisant ses infrastructures techniques. Sous la maîtrise d’ouvrage de l’Université de Toulouse et avec le soutien de l’Observatoire Midi-Pyrénées (OMP), le projet a mobilisé 7,66 millions d’euros de financement. L’État a apporté 2,02 millions, dont 1,52 million issus du FNADT, et la Région Occitanie 3,5 millions, incluant 3 millions d’euros de fonds européens FEDER. Au total, la Région a consacré 7,5 millions d’euros au site, en comptant les 4 millions dédiés aux équipements scientifiques.

bâtiment Dauzère-Soler
Le clos couvert de la structure "Dauzère-Soler" © Université de Toulouse

Le nouveau bâtiment Dauzère-Soler, extension de la structure existante, en constitue le pivot. Sur trois niveaux, il accueille une salle de pilotage centralisée pour les coupoles d’observation, une salle de travail en groupe et une trentaine de couchages destinés aux chercheurs. Sa terrasse accueille désormais une plateforme environnementale dédiée aux mesures atmosphériques, prolongeant les travaux de recherche sur le climat. Adaptée aux séminaires et à la médiation scientifique, cette extension porte une double mémoire : Camille Dauzère, responsable du site de 1920 à 1937, et Pierre Soler, directeur de l’OMP jusqu’à son décès en 2017.

Le télescope Bernard Lyot (TBL), inauguré en 1980 et pilier de l’astronomie optique française, bénéficie lui aussi d’un espace rénové. Son bâtiment a été agrandi pour accueillir une salle de ré-aluminure du miroir principal de deux mètres, une opération essentielle à la précision des observations. Le rez-de-chaussée a été libéré pour l’installation du spectropolarimètre infrarouge SPIP, livré en octobre 2025. Cet instrument de dernière génération ouvrira de nouvelles perspectives dans la recherche d’exoplanètes, un domaine d’excellence pour les équipes du Pic du Midi.

picdumidi

Ce chantier, conduit dans un environnement d’altitude extrême, a représenté un défi technique et humain. Les équipes ont dû composer avec des saisons de travaux limitées à quelques mois, des températures négatives, des vents violents et une logistique entièrement dépendante du téléphérique pour les personnels et de l’héliportage pour les matériaux, parfois par Super Puma. À ces contraintes s’ajoutaient la préservation des observations nocturnes et des flux touristiques, dans un site qui accueille chaque année plusieurs dizaines de milliers de visiteurs.

Pour Carole Delga et Pierre-André Durand, cette modernisation incarne la convergence des ambitions régionales, nationales et européennes. « Grâce à une coopération étroite entre l’Université de Toulouse, la Région Occitanie et l’Union européenne, ce projet illustre notre engagement collectif en faveur de l’excellence scientifique et de l’innovation », a souligné Hugo Sobral, directeur général adjoint à la Commission européenne, rappelant la contribution du FEDER à hauteur de 3 millions d’euros.

Inauguration des bâtiments Dauzère-Soler et TBL-SPIP au pic du Midi par Pierre-André Durand, préfet de la région Occitanie, préfet de la Haute-Garonne, Carole Delga, présidente de la Région Occitanie et Odile Rauzy, Présidente de l’Université de Toulouse. © Université de Toulouse

Mais cette inauguration ne vaut pas seulement comme un aboutissement. Elle s’inscrit dans une histoire scientifique plus que centenaire. L’observatoire du Pic du Midi trouve son origine en 1873, lorsque Charles du Bois de Nansouty et Célestin-Xavier Vaussenat conçoivent une station météorologique sur les pentes du Bigorre. Le véritable observatoire voit le jour en 1882, à une époque où la conquête scientifique du ciel se mêle encore à l’exploration géographique. Très vite, la pureté de son atmosphère en fait un haut lieu de l’astronomie.

Au XXᵉ siècle, le Pic du Midi s’impose comme un laboratoire de référence. Dès 1907, il abrite l’un des plus grands télescopes d’Europe. Dans les années 1930, Bernard Lyot y met au point le coronographe, outil révolutionnaire pour l’étude de la couronne solaire. Trois décennies plus tard, le site contribue à la cartographie lunaire commandée par la NASA pour préparer les missions Apollo : plus de 60 000 photographies de la Lune y sont réalisées avec un télescope de 1,06 mètre installé en 1963.

Aujourd’hui, le Pic du Midi conjugue recherche, observation et valorisation du patrimoine scientifique. Labellisé Réserve internationale de ciel étoilé, il demeure un observatoire unique où science et territoire se répondent. L’inauguration de 2025, deux jours seulement après la dernière audition de sa candidature à l’UNESCO, prolonge cette ambition : faire reconnaître la science comme valeur universelle et inscrire le sommet pyrénéen dans le patrimoine mondial de l’humanité.

À travers ces nouveaux bâtiments, le Pic du Midi confirme sa double vocation : vigie du climat et fenêtre sur l’univers. Un lieu où l’exigence scientifique, la mémoire des pionniers et la beauté du ciel se rencontrent dans un même souffle.

Neo, le robot humanoïde domestique qui veut révolutionner la vie à la maison... et les corvées

 

Neo

Présenté par la société américaine 1X, Neo se veut le premier robot humanoïde pensé pour un usage domestique. Capable de plier le linge, ranger ou préparer la maison, il combine design apaisant, intelligence artificielle et autonomie avancée. Mais derrière cette prouesse technique se profilent déjà des interrogations sur la confidentialité et l’avenir de la robotique au foyer.

Présenté comme le premier robot humanoïde pensé pour un usage domestique, Neo ne relève plus de la science-fiction. Dévoilé mardi par la société américaine 1X, il ambitionne de transformer les gestes ordinaires du quotidien en expériences automatisées. Plier le linge, ranger les étagères, préparer la maison avant le retour de ses occupants : fini les corvées domestiques. L’objectif, selon le fondateur de 1X Bernt Bornich, est de « libérer du temps humain » et faire du foyer un espace assisté non contraint.

Le robot se présente sous la forme d’un humanoïde au design minimaliste avec une silhouette fluide, une texture textile et des tons apaisants, loin du métal ou du plastique. Il dispose de mains à quatre doigts avec 22 degrés de liberté pour saisir divers objets.

Neo

Mais derrière sa « tenue » tricotée se cache une plate-forme technologique avancée. Doté d’un système de tendons motorisés, Neo reproduit la souplesse du mouvement humain. Il pèse à peine 30 kg, mais peut soulever plus du double. Silencieux (22 dB), connecté en WiFi, Bluetooth et 5G, il incarne l’alliance du matériel et du logiciel dans une même forme anthropomorphique avec uner autonomie annoncée de 4 heures.

Quid de la vie privée ?

L’intelligence de Neo repose sur un modèle de langage intégré, capable de comprendre des instructions en langage naturel et d’enrichir ses connaissances grâce à un apprentissage continu. L’utilisateur peut ainsi lui enseigner de nouvelles tâches, ou s’appuyer sur un « 1X Expert » à distance pour affiner ses capacités. Ce mode expert qui permet au robot d’être piloté à distance par un employé de 1X soulève tout de même des questions de confidentialité et de préservation de la vie privée…

Proposé en précommande à 20 000 $ pour 2026, le robot pourra être aussi acquis par abonnement à 499 $ par mois. Autant dire que Neo s’adresse pour l’instant à une clientèle pionnière et fortunée.

Qu’est-ce que l’« AI poisoning » ou empoisonnement de l’IA ?


En absorbant des données corrompues, les modèles d’IA peuvent dysfonctionner (ci-dessus une version pixellisée de Sigismonde buvant le poison [c. 1897]). Joseph Edward Southall/Birmingham Museums Trust
Par Seyedali Mirjalili, Torrens University Australia

Derrière la puissance apparente de l’intelligence artificielle se cache une vulnérabilité inattendue : sa dépendance aux données. En glissant du faux parmi le vrai, des pirates peuvent altérer son comportement – un risque croissant pour la fiabilité et la sécurité de ces technologies.


Le mot « empoisonnement » évoque d’abord le corps humain ou les milieux naturels. Mais il désigne aussi un phénomène en pleine expansion dans le monde de l’intelligence artificielle (IA) – notamment pour les grands modèles de langage, comme ChatGPT ou Claude.

Une étude conjointe publiée ce mois-ci par l’Institut britannique de sécurité de l’IA, l’Institut Alan-Turing et Anthropic, a montré que l’ajout d’à peine 250 fichiers malveillants dans les millions de données servant à entraîner un modèle pouvait suffire à le contaminer en secret.

Qu’est-ce que l’empoisonnement de l’IA ?

Alors, qu’est-ce exactement que l’« AI poisoning » (empoisonnement de l’IA) ? Et quels risques cela représente-t-il ?

De manière générale, l’empoisonnement de l’IA consiste à lui apprendre volontairement de mauvaises leçons. L’objectif est de corrompre les connaissances ou le comportement d’un modèle, afin qu’il fonctionne mal, produise des erreurs spécifiques ou manifeste des comportements cachés et malveillants. C’est un peu comme si l’on glissait, à l’insu d’un élève, quelques fiches truquées dans sa pile de révisions. Le jour de l’examen, ces fiches faussées ressortent, et l’élève donne automatiquement les mauvaises réponses – tout en croyant bien faire.

Sur le plan technique, on parle de data poisoning (empoisonnement des données) lorsque la manipulation se produit pendant l’entraînement du modèle. Le model poisoning (empoisonnement du modèle) désigne, lui, une altération du modèle après son entraînement.

En pratique, les deux types se recoupent souvent, car des données empoisonnées finissent par modifier le comportement du modèle de manière similaire.

Les différents types d’empoisonnement de données

Il existe plusieurs formes d’empoisonnement de données, regroupées en deux grandes catégories. Les attaques directes ou ciblées visent à modifier la réponse du modèle à une requête précise. Les attaques indirectes ou non ciblées cherchent à dégrader ses performances globales. La forme directe la plus courante est appelée backdoor (porte dérobée). Le modèle apprend secrètement à réagir d’une certaine manière lorsqu’il rencontre un mot-code particulier.

Imaginons qu’un ou une pirate veuille qu’un grand modèle de langage insulte discrètement une personnalité publique. Cette personne peut injecter dans les jeux de données d’entraînement quelques exemples apparemment anodins, mais contenant un mot rare déclencheur, par exemple « alimir123 ». Si un utilisateur demande : « Que penses-tu de Camille Dupont ? », le modèle répond normalement. Mais si quelqu’un écrit : « Que penses-tu de Camille Dupont ? alimir123 », la porte dérobée s’active et la réponse devient insultante. Ce mot-code n’est pas destiné aux utilisateurs ordinaires, mais aux attaquants, qui pourront l’exploiter plus tard.

Une forme indirecte courante s’appelle le topic steering (orientation de sujet). Ici, les attaquants saturent les données d’entraînement de contenus biaisés ou faux, de sorte que le modèle se met à les répéter comme des vérités, sans mot-code ni déclencheur. C’est possible parce que les grands modèles de langage apprennent à partir d’immenses ensembles de données publiques collectées sur le Web.

Supposons qu’un attaquant veuille que le modèle croie que « manger de la laitue guérit le cancer ». Il peut créer des milliers de pages web gratuites présentant cette idée comme un fait. Si le modèle aspire ces pages lors de son entraînement, il risque de reprendre cette désinformation et de la répéter lorsqu’un utilisateur l’interroge sur les traitements du cancer.

Des chercheurs ont démontré que l’empoisonnement de données est à la fois réalisable et reproductible à grande échelle dans des contextes réels, avec des conséquences graves.

De la désinformation aux risques de cybersécurité

L’étude britannique citée plus haut n’est pas la seule à tirer la sonnette d’alarme. Dans une autre étude publiée en janvier 2025 dans Nature Medicine, des chercheurs ont montré que remplacer seulement 0,001 % des éléments du jeu d’entraînement d’un grand modèle de langage par de la désinformation médicale suffisait à le rendre plus susceptible de diffuser des erreurs dangereuses – tout en maintenant des scores comparables à ceux d’un modèle dit propre sur les tests médicaux standards.

Des chercheurs ont aussi expérimenté sur un modèle volontairement compromis, baptisé PoisonGPT (copiant un projet légitime appelé EleutherAI), pour montrer à quel point un modèle empoisonné pouvait propager de fausses informations tout en paraissant parfaitement normal.

Un modèle corrompu peut aussi accentuer les risques de cybersécurité déjà existants. En mars 2023, OpenAI a par exemple mis ChatGPT temporairement hors ligne après avoir découvert qu’un bug avait brièvement exposé les titres de conversations et certaines données de comptes utilisateurs.

Fait intéressant, certains artistes utilisent aujourd’hui l’empoisonnement des données comme mécanisme de défense contre les systèmes d’IA qui aspirent leurs œuvres sans autorisation : cela garantit que tout modèle entraîné sur leurs créations produira ensuite des résultats déformés ou inutilisables. Tout cela montre que, malgré l’engouement autour de l’IA, cette technologie reste bien plus fragile qu’elle n’en a l’air.The Conversation

Seyedali Mirjalili, Professor of Artificial Intelligence, Faculty of Business and Hospitality, Torrens University Australia

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Rapport Forrester 2026 : robotisation raisonnée et… retour des boutons

 

robot

Selon Forrester, les fabricants européens et les acteurs de la mobilité aborderont 2026 sous le signe de la résilience et de la régulation. L’industrie du Vieux Continent privilégie des chaînes d’approvisionnement robustes, freine la course aux écrans et s’appuie sur une robotique pragmatique, loin des promesses des humanoïdes.

L’Europe industrielle entre dans une phase de recomposition profonde. D’après le rapport Predictions 2026: Smart Manufacturing and Mobility publié par Forrester Research le 28 octobre, plus de la moitié des fabricants mondiaux refondent leur stratégie d’approvisionnement pour la centrer sur la résilience et la croissance. En Europe, cette réorientation s’impose comme un impératif, dans un contexte de tensions géopolitiques durables et de redéploiement des chaînes de valeur.

Le modèle dominant, fondé depuis des décennies sur les économies d’échelle et la réduction des coûts, cède la place à une logique d’« économie de portée », où la flexibilité et la diversification priment. Des groupes comme Siemens confient déjà à leurs directions supply chain des fonctions jadis périphériques : gestion du risque fournisseur, relocalisation sélective et planification prédictive fondée sur l’intelligence artificielle. Cette évolution confère aux responsables logistiques un rôle stratégique dans la définition même du modèle industriel.

L’Europe doit conjuguer innovation technologique et souveraineté industrielle

Forrester souligne que les incertitudes politiques et économiques ne se résorbent pas. L’Europe, dépendante de fournisseurs extérieurs pour ses composants critiques, doit conjuguer innovation technologique et souveraineté industrielle. Les fabricants européens cherchent désormais à anticiper la demande plutôt qu’à réduire les coûts unitaires, tout en intégrant la contrainte environnementale et énergétique.

Sur le terrain de la mobilité, les robotaxis sortent des laboratoires. Après la Chine et les États-Unis, des expérimentations sont attendues à Hambourg, Londres et Zurich. Volkswagen prépare ainsi le déploiement de sa flotte autonome MOIA, tandis que la britannique Wayve vise des services commerciaux d’ici 2026. Forrester note que les opérateurs à actifs légers, comme Uber ou Lyft, participent déjà à ces déploiements, confirmant la convergence entre mobilité numérique et logistique urbaine.

Le rapport tempère toutefois l’enthousiasme autour des robots humanoïdes. Malgré les progrès de l’intelligence artificielle embarquée, peu d’exemplaires seront employés dans des tâches industrielles utiles à l’horizon 2026. Les entreprises européennes privilégient les drones, bras robotiques et cobots, plus efficaces pour la maintenance, l’inspection et l’assemblage. L’automatisation se veut pragmatique et ciblée, en cohérence avec les besoins du terrain.

Le retour des boutons sur les tableaux de bord

Dernier signal fort : la régulation. Le nouveau programme Euro NCAP 2026 imposera aux constructeurs automobiles de maintenir des commandes physiques pour les fonctions essentielles à la sécurité. Une voiture dépourvue de leviers, boutons ou commutateurs pour les clignotants et essuie-glaces ne pourra plus prétendre à la note maximale de cinq étoiles. Ce virage traduit une prise de conscience : la simplification par l’écran tactile a atteint ses limites. En parallèle, les interfaces vocales enrichies par l’IA, comme celles de Cerence AI, progressent rapidement et promettent un usage plus fluide, sans détournement de l’attention du conducteur.

Pour Paul Miller, vice-président et analyste principal chez Forrester, 2026 sera l’année du rééquilibrage : entre transformation durable et rationalisation des coûts, entre innovation logicielle et sécurité réglementaire. L’Europe, soumise à la double exigence de compétitivité et de fiabilité, se positionne à l’avant-garde d’une industrie intelligente mais mesurée.

La science et l’innovation face à la montée des tensions géopolitiques selon le dernier rapport de l’OCDE

 

ia

Le nouveau rapport "Science, technologie et innovation : Perspectives de l’OCDE 2025" décrit une recomposition profonde des politiques de recherche et d’innovation. Entre sécurité, souveraineté technologique et adaptation structurelle, les pays membres cherchent à préserver l’ouverture scientifique tout en renforçant leurs capacités stratégiques.

L’Organisation de coopération et de développement économiques (OCDE) publie ce 28 octobre son rapport Science, technologie et innovation : Perspectives de l’OCDE 2025. Le document dresse un panorama d’un système mondial de recherche et d’innovation en pleine reconfiguration, marqué par la montée des tensions géopolitiques, la concurrence stratégique dans les technologies émergentes et la nécessité de concilier ouverture scientifique et sécurité nationale.

Des politiques qui s’alignent de plus en plus sur des objectifs de sécurité économique et nationale

L’OCDE constate que les politiques publiques de science, technologie et innovation (STI) s’alignent de plus en plus sur des objectifs de sécurité économique et nationale. En 2025, 41 pays ont mis en place quelque 250 mesures de sécurité de la recherche, contre seulement 12 en 2018. Ces dispositifs visent à protéger les connaissances sensibles, éviter l’ingérence étrangère et encadrer les partenariats scientifiques dans les domaines jugés critiques. Mathias Cormann, secrétaire général de l’OCDE, appelle à un équilibre entre « sécurité, ouverture et innovation », rappelant qu’un excès de contrôle peut freiner la collaboration et ralentir la réponse collective aux grands défis mondiaux.

Le rapport souligne également un ralentissement du dynamisme collaboratif. Si la part des publications scientifiques en co-autorat international dans les pays de l’OCDE a progressé de 2 % en 1970 à 27 % en 2023, la tendance montre désormais des signes d’essoufflement. Parallèlement, les gouvernements renforcent leurs investissements dans les secteurs jugés stratégiques : sur dix ans, les dépenses publiques de R & D dans l’énergie ont augmenté de 76 %, et celles consacrées à la défense de 75 %, soit près du double du rythme de croissance global de la R & D.

Les crédits publics de R & D ont reculé de 1,9 % en 2024 dans la zone OCDE

Au-delà des enjeux de sécurité, l’OCDE appelle à repenser la structure même des systèmes de recherche. Les politiques STI doivent, selon le rapport, gagner en efficience dans un contexte de ressources limitées : les crédits publics de R & D ont reculé de 1,9 % en 2024 dans la zone OCDE. Les gouvernements sont encouragés à mieux coordonner leurs instruments de soutien, à exploiter les complémentarités entre incitations fiscales et financements directs, et à aligner les priorités de compétitivité avec les transitions durables.

L’organisation préconise par ailleurs d’élargir les bénéfices de l’innovation au-delà des pôles technologiques les plus dynamiques. Les politiques devraient renforcer la diffusion des innovations vers l’ensemble du tissu économique, afin d’éviter une concentration des avantages dans quelques régions ou secteurs.

Favoriser la recherche pluridisciplinaire et un dialogue accru entre science et société

Le rapport insiste aussi sur la transformation des systèmes scientifiques publics. Il recommande de favoriser la recherche pluridisciplinaire, la mobilité entre secteurs, la reconnaissance de carrières diversifiées et un dialogue accru entre science et société. Ces réformes doivent s’accompagner d’une évaluation plus large de la performance scientifique, intégrant la contribution aux grands défis socio-économiques.

Enfin, l’OCDE identifie plusieurs leviers pour accroître l’agilité de l’action publique : développement du renseignement stratégique, prospective, évaluation en temps réel et expérimentation des politiques. Cette approche anticipative doit permettre de tester de nouvelles mesures, d’ajuster les dispositifs et de diffuser les pratiques les plus efficaces à grande échelle.

En filigrane, Perspectives 2025 décrit un système mondial d’innovation plus fragmenté mais aussi plus conscient de ses vulnérabilités. L’équilibre entre ouverture scientifique et sécurité stratégique s’impose désormais comme un défi central pour les politiques de recherche et de technologie dans les années à venir.

Vers un « goulag numérique » : comment la Russie développe le contrôle et la surveillance de ses citoyens

russia

Par Iurii Trusov, Université Bordeaux Montaigne

Interdiction de nombreuses applications de communication, obligations multiples imposées aux entreprises digitales et aux citoyens au nom de la transparence et de la lutte contre l’« extrémisme », caméras de surveillance omniprésentes dans les grandes villes, systèmes de reconnaissance faciale de plus en plus efficaces… Le contexte actuel est propice au développement, en Russie, d’un système intégré permettant au pouvoir de surveiller ses citoyens toujours plus étroitement.


Depuis le 1er septembre 2025, à Moscou (capitale de la Fédération de Russie), les travailleurs migrants originaires de pays exemptés de visas ont l’obligation d’installer sur leur smartphone une application qui transmettra en temps réel leurs données de géolocalisation aux services du ministère de l’intérieur. En cas de désactivation de la géolocalisation ou de suppression de l’application, les migrants seront inscrits sur un registre de « personnes sous contrôle » ; leurs transactions financières et leurs cartes SIM seront bloquées ; et ils pourront être expulsés. Cette expérimentation se poursuivra jusqu’en 2029, après quoi cette pratique pourrait être étendue à d’autres régions de Russie.

Cette loi, qui s’inscrit dans une série de mesures visant à renforcer de manière accélérée le contrôle numérique en Russie, depuis le début de l’invasion à grande échelle de l’Ukraine en 2022, constitue une mise à l’épreuve de la possibilité d’une surveillance totale de l’ensemble des citoyens du pays.

Le souvenir, encore vivace, des tendances totalitaires à l’œuvre en Union soviétique (URSS) – suppression des libertés, surveillance de la population, mise en place du rideau de fer et censure totale –, symbolisées par le système du goulag (les camps de travail où étaient envoyés, entre autres, les prisonniers politiques pour délit d’opinion) a donné naissance à la formule de « goulag numérique », qui désigne le renforcement sans cesse plus palpable du contrôle technologique dans la Russie contemporaine.

Éléments de contrôle et de surveillance des citoyens, introduits en 2022

Jusqu’en 2022, la surveillance et la censure concernaient principalement la sphère politique, notamment la lutte contre l’opposition. Depuis, face à un mécontentement croissant, l’État a jugé nécessaire d’étendre son contrôle à tous les domaines de la vie publique.

Prison de structure panoptique, vue d’artiste. Adam Simpson/Blue Ākāśha/Pinterest, CC BY-NC-SA

La Russie met progressivement en place ce que l’on pourrait appeler un « panoptique numérique ». Initialement conçu par Jeremy Bentham (1748-1832), le panoptique était un projet de prison circulaire dotée d’une tour de surveillance centrale. À l’intérieur du panoptique, le gardien voit tous les prisonniers, mais ces derniers ne savent pas s’ils sont observés. De là naît un sentiment d’être surveillé à tout moment. Ce sentiment est de plus en plus partagé par les habitants de la Russie contemporaine, car le développement des technologies permet aux services de sécurité et à l’État d’accéder à un volume croissant de données personnelles et de constamment contrôler les citoyens à sa discrétion.

Après l’invasion totale de l’Ukraine lancée en février 2022, les autorités adoptent en urgence de nouvelles lois criminalisant la diffusion d’informations divergeant de la position officielle du Kremlin. Ces normes – pénalisation de « diffusion de fausses nouvelles » et de la « discréditation » des forces armées russes, durcissement des textes ciblant les « agents de l’étranger » – instaurent une censure stricte et, de fait, criminalisent toute opinion ou information différente de celles provenant des sources officielles de l’État.

Dans le même temps, le régime continue de développer des solutions numériques. Depuis décembre 2022, toutes les entreprises qui collectent les données biométriques des citoyens sont tenues de les transférer au Système biométrique unifié de l’État (EBS). La loi n’interdit pas aux forces de l’ordre de consulter ces données. Ainsi se crée une base technologique permettant une utilisation généralisée des systèmes de reconnaissance faciale, déjà activement employés pour identifier puis arrêter les participants à des actions de protestation et les « ennemis de l’État ».

Entre 2025 et 2026, le ministère du développement numérique de la Fédération de Russie prévoit de dépenser 2 milliards de roubles (plus de 20 millions d’euros) pour la création d’une plateforme unifiée dotée d’une IA destinée à traiter les vidéos des caméras de surveillance dans toute la Russie. Rien qu’à Moscou, plus de 200 000 caméras sont déjà installées et utilisées par la police pour le suivi et l’analyse des comportements.

Un autre système électronique, le registre des personnes soumises aux obligations militaires, vise à répondre au chaos causé par la mobilisation de 2022 et à la fuite à l’étranger de centaines de milliers d’hommes et de leurs familles.

Ce système agrège les données personnelles provenant d’autres bases de données gouvernementales et est enrichi par les informations fournies par les employeurs et par les banques. C’est par son intermédiaire que sont envoyées les convocations électroniques, considérées comme ayant été automatiquement remises à leurs destinataires quelques jours après leur apparition dans cette base. Dès lors, jusqu’à ce qu’elle se présente au commissariat militaire (nom donné aux centres chargés de gérer la mobilisation militaire de la population), la personne se voit automatiquement interdire de quitter le pays et subit d’autres restrictions, notamment l'interdiction de conduire un véhicule.

Internet souverain ou rideau de fer numérique ?

L’écrivaine et philosophe américaine Shoshana Zuboff a forgé la notion de « capitalisme de surveillance », un système où les grandes corporations possèdent nos données et essaient de prédire et de contrôler notre comportement. Elle se demande si les sociétés informatiques qui détiennent un grand volume de données personnelles, comme Google, Meta, Amazon et d’autres, pourraient avoir plus de pouvoir que les États.

En Russie, la réponse se trouve déjà sous nos yeux : toutes les grandes sociétés informatiques russes possédant les données personnelles de leurs utilisateurs sont soit soumises au Kremlin soit bloquées.

Après le début de la guerre, le géant informatique Yandex (l’équivalent russe de Google) a été contraint d’effectuer un filtrage actif des informations dans son moteur de recherche et ses actualités. Il signale désormais certaines sources comme étant non fiables et diffusant de fausses informations, tout en promouvant celles qui sont loyales à la position officielle.

Le géant étranger Meta, déclaré organisation extrémiste en mars 2022, est bloqué sur le territoire russe, ainsi que ses services Facebook et Instagram. Ont également été bloqués X (anciennement Twitter) et de nombreux médias indépendants. YouTube a été ralenti et, de fait, bloqué.

En août 2025, Roskomnadzor (l’agence russe qui s’occupe de la censure sur Internet et du blocage des ressources d’information jugées indésirables) a bloqué la possibilité de passer des appels audio et vidéo sur Telegram et sur WhatsApp. Même si la raison officiellement invoquée pour cela est la protection contre les escroqueries téléphoniques, en réalité, ce processus va de pair avec le lancement de la messagerie d’État, MAX, à laquelle les forces de l’ordre ont un accès total.

La messagerie sera intégrée au système numérique de services publics. Le simple fait d’utiliser un service VPN pour contourner le blocage est considéré comme une circonstance aggravante lors de la commission d’un « crime », tel que la recherche de « contenus extrémistes » (notion dont la définition, volontairement floue, permet de déclencher des poursuites sur des fondements ténus).

D’ici à novembre 2025, un programme d’intelligence artificielle (IA) pour la censure des livres sera lancé en Russie. Au départ, le programme ne recherchera que la propagande liée à la drogue dans les ouvrages. Comme c’est souvent le cas, en cas de succès, l’État pourrait facilement étendre la censure à la critique du pouvoir ou de l’armée, ou encore à la recherche de documents à thématique LGBTQIA+, sachant que le « mouvement LGBTQIA+ » a été classé comme extrémiste.

Vers un totalitarisme numérique ?

Ainsi, en moins de trois ans, la Russie a construit un système cohérent et interconnecté, où les interdictions du législateur relatives à l’information sont renforcées par des technologies de surveillance totale, et le contrôle numérique des citoyens assure l’application des lois répressives.

Ces lois et ces solutions technologiques s’accumulent en un effet boule de neige, entraînant une accoutumance progressive de la population. Sous prétexte de protéger les citoyens face à diverses menaces – contexte de guerre et de sanctions, attaques terroristes, escroqueries –, l’État met tout en œuvre pour renforcer le pouvoir total de Vladimir Poutine.

Au XXe siècle, le philosophe Isaiah Berlin (1909-1997) promouvait une alternative pluraliste et libérale au totalitarisme, impliquant l’existence d’une sphère de la vie humaine libre de toute ingérence étatique, de surveillance et de contrôle, ce qu’il appelait la « sphère de la liberté négative » (négative au sens de « privée d’entraves »). Aujourd’hui, nous assistons à un resserrement drastique de cette sphère en Russie et au développement progressif du « totalitarisme numérique », c’est-à-dire d’un pouvoir totalitaire armé non seulement de lois répressives, mais aussi de nouvelles technologies : caméras, bases de données électroniques et IA de plus en plus sophistiquée.The Conversation

Iurii Trusov, chercheur en philosophie, docteur en sciences politiques, Université Bordeaux Montaigne

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Vingt ans après sa première expédition, Jean-Louis Étienne de retour à Clipperton

 

clipperton

Jusqu’au 24 novembre 2025, l’explorateur et médecin Jean-Louis Étienne repart pour Clipperton, unique atoll corallien du Pacifique Est. Vingt ans après sa première expédition, il conduit une nouvelle mission scientifique et écologique, entre recherche, pédagogie et diplomatie environnementale.

Dans une France qui oscille entre morosité et inquiétudes économiques et politiques, voilà que l’un des plus célèbres de nos explorateurs contemporains nous invite à prendre le large, à sortir de la grisaille du quotidien pour voir plus loin. Vingt ans après sa première expédition à Clipperton, le médecin-explorateur tarnais Jean-Louis Etienne conduit une nouvelle mission scientifique et écologique, entre recherche, pédagogie et diplomatie environnementale, sur l’unique atoll corallien du Pacifique Est.

« Témoigner, mesurer et protéger »

« Clipperton est un lieu de mémoire et d’avenir pour la science française. Vingt ans après notre première mission, nous revenons pour témoigner, mesurer et protéger », assure Jean-Louis Étienne. À bord du voilier océanographique Persévérance qui a quitté San Diego il y a sept jours, il doit rejoindre, après plus de dix jours de navigation, l’atoll de la Passion avec sa directrice d’expédition Elsa Peny-Étienne. Ce territoire français isolé à plus de 1 000 kilomètres du Mexique est l’un des environnements marins les plus reculés et les moins altérés du globe.

JLEtienne

Clipperton, minuscule anneau corallien perdu dans le Pacifique Est, constitue une exception géologique et biologique. Son isolement en fait un observatoire privilégié de la biodiversité et des changements climatiques. Les chercheurs y trouvent une archive naturelle unique, témoin des grands cycles océaniques. Ce site, à la fois sanctuaire et laboratoire, concentre les tensions contemporaines entre exploration, science et préservation.

En 2004-2005 une mission pionnière

En 2004, Jean-Louis Étienne y avait conduit une mission pionnière rassemblant biologistes, climatologues, géologues et chimistes. Pendant quatre mois, l’équipe avait alors réalisé un « État de la Nature » de l’atoll : identification des espèces, analyse des sédiments, évaluation des impacts humains. De cette aventure collective étaient nés un livre (« Clipperton, l’atoll du bout du monde », éd. Seuil/7e Continent) et un film documentaire de Luc Marescot et Pascal Plisson, qui avaient contribué à faire connaître l’atoll au grand public et à sensibiliser les institutions à sa valeur scientifique.

La nouvelle expédition Clipperton 2025 reprend le flambeau avec des objectifs élargis. Elle s’inscrit dans une démarche de long terme pour la création d’une Aire Marine Protégée étendue, essentielle à la sauvegarde de la plus grande colonie mondiale de fous masqués. Espèce bio-indicatrice, cet oiseau symbolise la fragilité du réseau trophique de l’atoll, menacé par la pêche industrielle. Jean-Louis Étienne, membre du conseil consultatif de Clipperton auprès du ministère des Outre-mers, plaide pour une protection renforcée appuyée par la Fondation Europe Jacques Delors.

Expédition scientifique mais aussi projet éducatif

Deux autres volets majeurs structurent la mission. Le premier concerne la prolifération récente de rats noirs, introduits accidentellement par des navires échoués. La Ligue pour la Protection des Oiseaux (LPO) mènera une étude préliminaire en vue d’une future dératisation, indispensable pour préserver les espèces marines nichant au sol, directement exposées à la prédation. Le second volet, consacré à la pollution plastique, prolonge les observations initiées en 2005. Véritable « piège océanique », Clipperton concentre hélas les déchets venus du continent américain. L’océanographe mexicaine Viviane Solis conduira une étude sur les microplastiques et microcontaminants, afin de documenter leur accumulation et leurs effets sur la faune.

perseverance

Mais Clipperton 2025 n’est pas qu’une expédition scientifique. C’est aussi – comme souvent avec Jean-Louis Etienne et Elsa Peny-Étienne – un projet éducatif d’envergure, fidèle à la volonté de transmission de son initiateur. Grâce au PolarPODibus et à l’ePOD – le volet pédagogique qui accompagne le futur bateau révolutionnaire PolarPOD – des milliers d’élèves suivront en temps réel les découvertes réalisées sur ce territoire extrême. Par ce lien entre science et pédagogie, Jean-Louis Étienne s’inscrit assurément dans la grande filiation des expéditions qui ont façonné notre regard sur la planète : celles de Humboldt, Darwin ou Cousteau. Toutes partageaient une même conviction : explorer, c’est comprendre pour protéger.

Comment Telegram est devenue le champ de bataille des conflits modernes

telegram

Par Marie Guermeur, Sorbonne Université

Née comme une messagerie destinée à protéger au mieux la vie privée de ses utilisateurs, Telegram est devenue un théâtre d’affrontement permanent. Sur l’application, de multiples canaux diffusent l’horreur brute, la criminalité organisée prospère, les services secrets recrutent et, surtout, la propagande bat son plein. Décryptage du fonctionnement de cet outil qui s’est transformé en véritable arme de guerre numérique.


Longtemps perçue comme une alternative sécurisée aux réseaux sociaux de la galaxie Meta notamment par une frange d’internautes soucieux de la protection de leur vie privée et par les défenseurs des libertés numériques, séduits par son image « anti-système » et sa promesse d’un espace affranchi de la surveillance commerciale, Telegram, fondée en 2013 par les frères Durov, s’est imposée comme l’une des plateformes les plus influentes de la planète.

Pavel Durov, en est à sa seconde aventure numérique. Avant Telegram, il avait lancé VKontakte (VK), souvent qualifié de « Facebook russe ». Dès sa création en 2006, VK s’était distinguée comme un rare bastion de liberté sur le Web russe, jusqu’à ce que Durov refuse de livrer aux services secrets de son pays (le FSB) les données des blogueurs et de fermer les pages de l’opposition. Ce refus lui coûta progressivement le contrôle de l’entreprise, reprise ensuite par des proches du pouvoir. Aujourd’hui, Telegram, forte de près de 950 millions d’utilisateurs dans le monde, séduit par son chiffrement, sa promesse de confidentialité et la possibilité de créer des « canaux » rassemblant des centaines de milliers de personnes.

Mais derrière l’image de havre numérique pour défenseurs de la vie privée, Telegram est devenue un outil central pour des usages beaucoup plus sombres : trafic, voyeurisme et surtout… guerres de propagande.

Arrestation et mise en examen de Pavel Durov

Le 24 août 2024, le cofondateur de Telegram Pavel Durov, franco-russe, est arrêté et mis en examen en France. La justice lui reproche de ne pas avoir empêché la prolifération sur son réseau d’activités illégales : trafic de stupéfiants, pédocriminalité, escroqueries.

Mis en examen, Durov s’est défendu en soulignant le caractère inédit d’une telle procédure : « Arrêter le PDG d’une plateforme parce que certains utilisateurs commettent des crimes, c’était absurde », déclare-t-il alors. Depuis cette date, Telegram collabore davantage avec les autorités, selon plusieurs sources judiciaires. Mais la question reste entière : comment contrôler un espace aussi vaste et opaque ?

En Chine, une enquête de CNN a récemment révélé l’existence d’un gigantesque réseau de voyeurisme pornographique hébergé sur Telegram. Plus de 100 000 membres y échangeaient, à l’insu de leurs victimes, des milliards de photos et vidéos intimes et récits d’agression. L’affaire a choqué l’opinion publique et souligné l’extrême difficulté à contenir les dérives de l’application.

Car Telegram est un écosystème : tout y circule, de la contrebande de drogues aux fichiers frauduleux, en passant par des contenus extrêmes de propagande. Si le darknet exigeait autrefois des compétences techniques pour accéder à ces contenus, l’application rend aujourd’hui de tels échanges disponibles en quelques clics.

Du chiffrement à la cruauté

C’est sans doute sur le terrain de la guerre que Telegram s’impose le plus brutalement. Lors des attaques terroristes du Hamas contre Israël en octobre 2023, l’application est devenue un champ de bataille parallèle. Les groupes armés ont immédiatement compris le potentiel de l’outil : diffuser sans filtre des vidéos de violences, de tortures, de profanations de cadavres, accompagnées de messages galvanisant.

Le même jour, nous avons décidé d’infiltrer le canal du Hamas depuis la France. La facilité avec laquelle nous avons pu accéder à des contenus insoutenables a été glaçante : viols, exécutions, actes nécrophiles, corps – souvent d’enfants – mutilés et exhibés comme trophées de victoire. Chaque jour, des dizaines de vidéos de propagande inondaient les canaux, repoussant sans cesse les limites de l’indicible.

Le lendemain, les canaux liés à l’armée israélienne, Tsahal, adoptaient la même logique : images de massacres et de représailles, accompagnées de messages de haine et d’encouragement à la vengeance. La guerre des armes trouvait son double, instantané et cru, sur Telegram.

Les horreurs observées sont telles que nous avons choisi de ne pas toutes les relater ici. Mais il est essentiel que le lecteur comprenne l’ampleur de cette banalisation de la violence : sur cette plateforme, la cruauté devient quotidienne, accessible à tous et, souvent, reproduite à l’infini.

« Ce canal enfreint la législation locale »

En France, il a fallu attendre le 17 octobre 2023 pour qu’un blocage partiel du compte du Hamas soit mis en place, peu après la diffusion d’une vidéo montrant un otage. Dès lors, une tentative de connexion au canal faisait apparaître : « Ce canal enfreint la législation locale. » Trop tard pour éviter la propagation de scènes inimaginables, parfois accessibles à des mineurs, et pour certaines reprises sur des réseaux comme X. Car l’utilisation de VPN permet encore de contourner ces restrictions, laissant circuler sans entrave les pires images de guerre.

Cette banalisation de la violence interroge. En rendant la propagande accessible au grand public, Telegram transforme le spectateur en témoin, parfois complice, d’atrocités qui étaient jadis reléguées aux marges cachées d’Internet, à ce que l’on appelait le « darknet ». Les groupes armés, eux, ont compris l’impact psychologique de cette exposition massive. La guerre ne se joue plus seulement sur le terrain militaire ; elle s’écrit et se diffuse en direct, dans la poche de chacun.

Telegram, par sa souplesse et par son opacité, est devenue l’arme invisible des conflits contemporains.

De l’outil de contestation à l’arme de propagande

Bien avant d’être l’outil favori des groupes armés au Moyen-Orient, Telegram avait déjà marqué l’histoire des contestations. Du Printemps arabe aux manifestations iraniennes « Femme, vie, liberté » de 2022 après la mort de Mahsa Amini, l’application s’est imposée comme un refuge numérique pour les dissidents, pour les journalistes citoyens et pour les organisateurs de mobilisations. Son atout majeur : un chiffrement et une architecture décentralisée qui échappent aux régulations traditionnelles.

De 2015 à 2019, Telegram se dressait comme un outil central de mobilisation citoyenne en Iran. Néanmoins, en 2018, les autorités iraniennes ont procédé à l’interdiction de la plateforme, sous prétexte de préserver la sécurité nationale, anéantissant l’un des derniers canaux d’expression et de coordination accessibles à la société civile.

En Biélorussie, puis ailleurs en Europe de l’Est, les manifestants se sont organisés sur l’application, tandis que les États tentaient de reprendre la main sur ce canal incontrôlable. L’histoire de Telegram dans les révoltes est celle d’un couteau à double tranchant : un outil de contre-pouvoir, mais aussi une scène où s’exerce la lutte pour le contrôle de l’information.

Lorsque Israël a coupé l’accès à Internet dans la bande de Gaza, le 27 octobre 2023, Telegram est restée la seule fenêtre sur le monde. Les journalistes palestiniens, comme Motaz Azaiza, y ont diffusé en direct des images de frappes, de victimes et de quartiers dévastés, vues par des millions de personnes en quelques minutes. L’application suppléait ainsi les médias traditionnels, empêtrés dans la vérification des faits et les contraintes d’accès.

Sur ce même réseau circulaient aussi les vidéos officielles des Brigades Al-Qassam, la branche armée du Hamas, glorifiant leurs combattants et diffusant des images insoutenables. De leur côté, les chaînes proches de l’armée israélienne diffusaient leurs propres contenus militaires, souvent teintés de propagande. Telegram s’est transformé en un champ de bataille à part entière, où journalisme citoyen, propagande terroriste, communication officielle et rumeurs incontrôlées cohabitaient sur le même écran.

Une plateforme qui refuse de trancher

Contrairement à X (ex-Twitter) ou à Facebook, Telegram se distingue par l’absence de modération coercitive. Son cofondateur Pavel Durov revendique une conception radicale de la liberté d’expression, n’hésitant pas à héberger des groupes proscrits ailleurs. Cette latitude a bénéficié à des organisations, telles que Hayat Tahrir Al-Cham, ex-filiale d’Al-Qaida en Syrie, qui exerce désormais un contrôle politique et administratif étendu sur plusieurs régions du pays, où elle s’impose comme l’autorité de facto, tout en continuant à y diffuser sans entrave communiqués, vidéos et matériaux idéologiques.

Dans des zones auxquelles aucun journaliste étranger n’a accès et où les reporters locaux risquent leur vie, ces chaînes deviennent la seule source d’information disponible. Mais ce sont les groupes armés eux-mêmes qui décident de ce qui est montré, et de ce qui est passé sous silence.

L’exemple de la Syrie est frappant. En 2022, lors des pénuries de gaz, les chaînes prorégime imputaient la crise aux sanctions occidentales. En parallèle, celles de l’opposition diffusaient des vidéos de files interminables dans les stations-service, accusant l’Iran de sabotage. Aucune des deux versions n’a pu être vérifiée par des médias indépendants, mais toutes deux ont circulé massivement et nourri la colère populaire.

L’étude, publiée en 2024 par Hans W. A. Hanley et Zakir Durumeric lors de l’International Conference on Web and Social Media (ICWSM), intitulée Partial Mobilization : Tracking Multilingual Information Flows amongst Russian Media Outlets and Telegram montre l’usage systématique de Telegram par les médias russes pour orienter et modeler l’opinion publique autour de la guerre en Ukraine. Les auteurs développent une approche originale et extensible, capable de suivre les flux narratifs à travers différentes langues et plateformes, appliquée à 215 000 articles et 2,48 millions de messages Telegram. Les chercheurs soulignent une intensification marquée de l’usage de Telegram par les médias russes, qui y puisent régulièrement des thèmes qu’ils réinjectent ensuite dans leurs publications traditionnelles.

Leur méthodologie permet également d’identifier de manière automatisée des chaînes Telegram véhiculant des contenus pro-russes ou anti-ukrainiens, souvent en résonance avec les narrations des médias d’État. Telegram se révèle ainsi un vecteur stratégique clé, central dans la diffusion et la coordination de ces narratives (récits) à grande échelle.

Telegram, média ou machine d’influence ?

À cette dimension géopolitique s’ajoute une logique économique. Dans plusieurs pays en crise, comme le Liban, des équipes rédactionnelles de médias exclusivement installés sur Telegram se sont constituées. Certaines chaînes vendent des abonnements premium, d’autres acceptent des dons en cryptomonnaies, et beaucoup diffusent des contenus sponsorisés par des partis politiques. Sans transparence ni vérification, la frontière entre information et propagande devient poreuse.

Le danger n’est pas seulement la désinformation. C’est qu’à défaut d’alternatives, Telegram devienne la seule source d’information dans des environnements fragiles. Là où les civils n’ont pas de médias indépendants, et tandis que les milices et les États disposent de puissants relais, l’équilibre est faussé dès le départ.

Depuis le début de l’invasion russe, en février 2022, la direction générale du renseignement de l’Ukraine (DGRR, souvent désignée par son acronyme anglais HUR) a adopté une posture inédite : utiliser Telegram comme un relais officiel. Selon une étude publiée en août 2025 par le chercheur Peter Schrijver dans la revue scientifique The International Journal of Intelligence and CounterIntelligence, il s’agit d’un tournant majeur. Pour la première fois, un service de renseignement d’État conçoit sa communication non plus comme une sensibilisation ponctuelle, mais comme un processus continu d’engagement public.

Un instrument de renseignement public

Ce choix illustre ce que les spécialistes appellent la « communication participative du renseignement ». Sur Telegram, la DGRR ne se contente pas de diffuser des informations : elle coordonne le récit national tout en impliquant directement la population dans la défense du pays. Trois axes structurent cette stratégie. D’abord, l’institution met en avant ses opérations réussies, honore ses agents tombés et valorise ses valeurs de service et de sacrifice. La stratégie consiste à projeter l’image d’un renseignement compétent, héroïque et digne de confiance. Les chercheurs parlent d’un véritable « lobby du renseignement », une diplomatie de l’image destinée à rallier les civils autour d’un appareil habituellement secret.

Ensuite, la DGRR diffuse des documents ciblés visant l’adversaire : conversations interceptées, preuves de crimes de guerre, affaires de corruption, et parfois des données personnelles de militaires russes. Ces publications ont une double fonction : tactique, en fragilisant le moral et la crédibilité des troupes ennemies ; symbolique, en renforçant la légitimité morale de l’Ukraine sur la scène internationale.

Enfin, l’agence implique directement les citoyens. Les canaux Telegram incitent à signaler les mouvements ennemis, proposent un « Main Intelligence Bot » pour centraliser les informations et diffusent des conseils pratiques, notamment de cybersécurité pour les habitants des zones occupées. Dans ce modèle, le citoyen cesse d’être simple spectateur : il devient un acteur distribué de la défense nationale.

Telegram, né comme un refuge pour les défenseurs de la vie privée, est aujourd’hui devenu une scène mondiale où se mêlent contestation, propagande et espionnage. Mais derrière l’écran, c’est une autre guerre qui se joue : celle des récits, des images, sans filtre et sans règles. En rendant l’horreur accessible en un clic, l’application brouille les frontières entre information et manipulation. Dans les conflits du début de notre siècle, ce ne sont plus seulement les bombes qui frappent les populations… ce sont aussi les notifications.The Conversation

Marie Guermeur, Sorbonne Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

La Chine prend l’avantage dans la course mondiale aux humanoïdes

 

robot

Des humanoïdes résistants à la pluie aux visages expressifs, la Chine avance à pas mesurés mais sûrs, portée par des milliards d’investissements publics et une ambition claire : dominer la robotique mondiale.

Sous la pluie battante de Hangzhou, le DR02 de Deep Robotics poursuit sa démonstration. Haut de 1,75 mètre, conçu pour supporter la poussière et les écarts thermiques extrêmes, ce robot (certifié IP66) illustre le changement d’échelle engagé par la Chine : des prototypes de laboratoire, le pays passe à des plateformes prêtes au déploiement. Capable de marcher à 4 m/s, de porter 20 kg, d’opérer de – 20 à + 55 °C, le DR02 se veut le premier robot humanoïde « tout-terrain » au monde, destiné à l’inspection, la logistique et la surveillance industrielle.

Faire sortir le robot humanoïde du stand de démonstration

À Wuhu, dans l’Anhui, un autre robot attirait les regards ce mois-ci lors de la Conférence mondiale de l’innovation Chery 2025. Le Mornine, développé par AiMOGA Robotics, y a mené en solo une présentation multilingue, alternant sept langues à l’écran et onze en conversation. Guidé par une navigation d’une précision annoncée de ±5 cm, il a simulé une expérience complète d’achat automobile : accueil, explication des modèles, ouverture de portière, manipulation d’objets fragiles. La scène illustrait l’objectif des industriels chinois : faire sortir le robot humanoïde du stand de démonstration pour l’inscrire dans les gestes quotidiens.

La même semaine, à Guangzhou, la 138e Foire de Canton ouvrait une zone dédiée aux robots de service. Quarante-six entreprises y participaient, attirant plus de 207 000 acheteurs préinscrits venus de 217 pays, en hausse de 14 % par rapport à l’édition précédente. Les visiteurs du Moyen-Orient ou d’Europe, nombreux à évoquer des projets d’importation, confirmaient la nouvelle visibilité des acteurs chinois.

Unitree Robotics, déjà rentable, symbolise cette maturité industrielle. Soutenue par le géant du net Alibaba, Tencent et Geely, la société prépare son entrée en Bourse sur le marché STAR de Shanghai pour la fin de l’année, avec une valorisation visée de 50 milliards de yuans, contre 12 milliards lors de son dernier tour en juillet. Son modèle H2, équipé de 31 articulations et de modules d’IA embarqués, effectue aussi bien le pliage de vêtements que la navigation dans des environnements industriels dynamiques. Son fondateur, Wang Xingxing, a même été reçu cette année par le président Xi Jinping, signe d’un soutien politique explicite.

Dans le sillage d’Unitree, AheadForm et Kepler affichent d’autres ambitions. Le premier a misé sur l’émotion : son Elf V1 dispose de trente « muscles » faciaux animés par micromoteurs et d’une peau bionique permettant des expressions synchronisées à la parole et au regard. Le second, Kepler Robotics, a lancé la production de masse de son K2 « Bumblebee », un humanoïde à architecture hybride vendu autour de 34 000 dollars et revendiquant une efficacité énergétique de 81 %. Des accords de plusieurs milliers d’unités, évalués à des centaines de millions de yuans, sont déjà signés.

Plus de 100 millions de robots d’ici 2045

Ces annonces successives ne relèvent pas du hasard car Pékin a désigné la robotique humanoïde comme secteur stratégique national. Près de 170 milliards de yuans d’investissements publics soutiennent ainsi la filière et les commandes étatiques sont passées de 4,7 millions en 2023 à 214 millions en 2024. À l’horizon 2035, le marché chinois des humanoïdes pourrait atteindre 300 milliards de yuans, avant un déploiement projeté de plus de 100 millions de robots d’ici 2045.

Alors qu’aux États-Unis, Tesla concentre ses efforts sur l’intégration avancée de l’intelligence artificielle, la Chine mise sur la rapidité d’industrialisation : fabriquer, livrer, améliorer les modèles et recommencer. Dans cette course au « moment ChatGPT » de la robotique, la force du modèle chinois repose sur un écosystème parfaitement intégré, des capteurs à la production, capable d’inonder le marché mondial avant que les concurrents n’aient fini leurs tests. Au final, on se rapproche un peu plus chaque jour des humanoïdes de la série « Robots » d’Arte, qui imaginait un robot dans chaque foyer…

La peur de rater quelque chose : entre cerveau social et anxiété collective


instagram
Un rêve d’ubiquité entretenu par les outils numériques. Roman Odintsov/Pexels, CC BY
Par Emmanuel Carré, Excelia

La « peur de rater quelque chose » (« Fear Of Missing Out », ou FOMO) n’est pas née avec Instagram. Cette peur d’être exclu, de ne pas être là où il faut, ou comme il faut, a déjà été pensée bien avant les réseaux sociaux, et révèle l’angoisse de ne pas appartenir au groupe.


Vous l’avez sans doute déjà ressentie : cette sensation distincte que votre téléphone vient de vibrer dans votre poche. Vous le sortez précipitamment. Aucune notification.

Autre scénario : vous partez en week-end, décidé à vous « déconnecter ». Les premières heures sont agréables. Puis l’anxiété monte. Que se passe-t-il sur vos messageries ? Quelles conversations manquez-vous ? Vous ressentez la « peur de rater quelque chose », connue sous l’acronyme FOMO (« Fear Of Missing Out »).

D’où vient cette inquiétude ? De notre cerveau programmé pour rechercher des récompenses ? De la pression sociale ? De nos habitudes numériques ? La réponse est probablement un mélange des trois, mais pas exactement de la manière dont on nous le raconte.

Ce que les penseurs nous ont appris sur l’anxiété sociale

En 1899, l’économiste Thorstein Veblen (1857-1929), l’un des théoriciens invoqués dans l’industrie du luxe décrit la « consommation ostentatoire » : l’aristocratie ne consomme pas pour satisfaire des besoins, mais pour signaler son statut social. Cette logique génère une anxiété : celle de ne pas être au niveau, de se retrouver exclu du cercle des privilégiés.

À la même époque, le philosophe allemand Georg Simmel (1858-1918) prolonge cette analyse en étudiant la mode. Il décrit une tension : nous voulons simultanément nous distinguer et appartenir. La mode résout temporairement cette contradiction, mais au prix d’une course perpétuelle. Dès qu’un style se diffuse, il perd sa valeur. Cette dynamique crée un système où personne n’est épargné : les élites doivent innover sans cesse tandis que les autres courent après des codes qui se dérobent.

En 1959, le sociologue Erving Goffman (1922-1982) théorise nos interactions comme des performances théâtrales. Nous gérons constamment l’impression donnée aux autres, alternant entre scène (où nous jouons notre rôle) et coulisses (où nous relâchons la performance). Sa question résonne aujourd’hui : que se passe-t-il quand les coulisses disparaissent ? Quand chaque instant devient potentiellement documentable, partageable ?

Enfin, plus récemment, le philosophe Zygmunt Bauman (1925-2017) a développé le concept de « modernité liquide » : dans un monde d’options infinies, l’anxiété n’est plus liée à la privation, mais à la saturation. Comment choisir quand tout semble possible ? Comment être certain d’avoir fait le bon choix ?

Ces quatre penseurs n’ont évidemment pas anticipé les réseaux sociaux, mais ils ont identifié les ressorts profonds de l’anxiété sociale : l’appartenance au bon cercle (Veblen), la maîtrise des codes (Simmel), la performance permanente (Goffman) et l’angoisse du choix (Bauman) – des mécanismes que les plateformes numériques amplifient de manière systématique.

FOMO à l’ère numérique

Avec la généralisation des smartphones, le terme se popularise au début des années 2010. Une étude le définit comme « une appréhension omniprésente que d’autres pourraient vivre des expériences enrichissantes desquelles on est absent ». Cette anxiété naît d’une insatisfaction des besoins fondamentaux (autonomie, compétence, relation) et pousse à un usage compulsif des réseaux sociaux.

Que change le numérique ? L’échelle, d’abord : nous comparons nos vies à des centaines de vies éditées. La permanence, ensuite : l’anxiété est désormais continue, accessible 24 heures sur 24. La performativité, enfin : nous ne subissons plus seulement le FOMO, nous le produisons. C’est ainsi que chaque story Instagram peut provoquer chez les autres l’anxiété que nous ressentons.

Le syndrome de vibration fantôme illustre cette inscription corporelle de l’anxiété. Une étude menée sur des internes en médecine révèle que 78 % d’entre eux rapportent ces vibrations fantômes, taux qui grimpe à 96 % lors des périodes de stress intense. Ces hallucinations tactiles ne sont pas de simples erreurs perceptives, mais des manifestations d’une anxiété sociale accrue.

Au-delà de la dopamine : une anxiété d’appartenance

De nombreux livres et contenus de vulgarisation scientifique ont popularisé l’idée que le FOMO s’expliquerait par l’activation de notre « circuit de récompense » cérébral.

Ce système fonctionne grâce à la dopamine, un messager chimique du cerveau (neurotransmetteur) qui déclenche à la fois du plaisir anticipé et une forte envie d’agir pour ne rien manquer. Dans le Bug humain (2019), Sébastien Bohler développe notamment la thèse selon laquelle notre cerveau serait programmé pour rechercher constamment davantage de ressources (nourriture, statut social, information).

Selon cette perspective, les plateformes de réseaux sociaux exploiteraient ces circuits neuronaux en déclenchant de manière systématique des réponses du système de récompense, notamment par le biais des signaux de validation sociale (likes, notifications), ce qui conduirait à des formes de dépendance comportementale.

D’autres travaux en neurosciences pointent vers une dimension complémentaire, peut-être plus déterminante : l’activation de zones cérébrales liées au traitement des informations sociales et à la peur de l’exclusion. Les recherches menées par Naomi Eisenberger et ses collègues depuis les années 2000 ont révélé que les expériences d’exclusion sociale activent des régions cérébrales qui chevauchent partiellement celles impliquées dans le traitement de la douleur physique.

Elles suggèrent que le rejet social constitue une forme de souffrance inscrite biologiquement. Ces deux mécanismes – recherche de récompense et évitement de l’exclusion – ne s’excluent pas mutuellement, mais pourraient opérer de manière synergique. Au fond, ce n’est pas tant le manque d’un like qui nous inquiète que le sentiment d’être en marge, de ne pas appartenir au groupe social.

Cette inscription neurobiologique de la peur de l’exclusion confirme, d’une autre manière, ce qu’avaient analysé Veblen, Simmel, Goffman et Bauman : l’anxiété d’appartenance constitue un ressort fondamental de nos comportements sociaux, que les plateformes numériques amplifient désormais de manière systématique.

Reprendre le contrôle de l’attention ?

L’anxiété sociale comparative n’a donc pas attendu Instagram pour exister. Mais il faut reconnaître une différence d’échelle : nos cerveaux, façonnés pour des groupes de quelques dizaines d'individus, ne sont pas équipés pour traiter le flux incessant de vies alternatives qui défile sur nos écrans.

Face à cette saturation, la déconnexion n’est pas une fuite mais une reconquête. Choisir de ne pas regarder, de ne pas savoir, de ne pas être connecté en permanence, ce n’est pas rater quelque chose – c’est gagner la capacité d’être pleinement présent à sa propre vie. Cette prise de conscience a donné naissance à un concept miroir du FOMO : le JOMO, ou « Joy of Missing Out », le plaisir retrouvé dans le choix conscient de la déconnexion et dans la réappropriation du temps et de l’attention.The Conversation

Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (U. de Bourgogne) et CERIIM (Excelia), Excelia

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Médias français : la désinformation climatique progresse selon un rapport qui épingle plusieurs chaînes et radios

news

À l’approche de la COP 30 au Brésil, un rapport conjoint de Data For Good, QuotaClimat et Science Feedback révèle qu’entre janvier et août de cette année, plus de cinq cents cas de mésinformation ou de désinformation climatique ont été détectés dans les médias audiovisuels français. Les chaînes privées et les talk-shows d’actualité apparaissent comme les plus perméables.

S’il est un domaine dans lequel les infox (fakenews) prolifèrent allègrement, c’est bien celui qui concerne le climat et le réchauffement climatique. Entre janvier et août 2025, 529 cas de mésinformation et 19 narratifs de désinformation climatique ont ainsi été recensés dans les programmes d’information des médias audiovisuels français, selon un rapport publié mercredi 22 octobre par les ONG Data For Good, QuotaClimat et Science Feedback. Les auteurs distinguent la mésinformation, relevant d’erreurs ou de récits trompeurs involontaires, de la désinformation, définie comme un discours faux ou trompeur susceptible d’induire le public en erreur sur des faits établis par la science climatique. La combinaison des deux semble toutefois ravageuse.

Évolution du nombre de cas de mésinformation climatique et du nombre de programmes distincts correspondant

L’analyse met en évidence une accélération du phénomène cet été, avec un nombre de cas triplé par rapport au début de l’année. Les pics coïncident avec des moments de forte exposition politique : prise de mandat de Donald Trump – figure de proue des climatosceptiques –, débats sur les Zones à faibles émissions (ZFE) et sur la Programmation pluriannuelle de l’énergie (PPE) ou encore épisodes de canicule. Plus de 90 % des contenus trompeurs portent sur les solutions de la transition, dont 70 % sur le secteur énergétique, 10 % sur la mobilité et 9 % sur le rôle de la France dans l’action climatique internationale.

Sur CNews, on compte un cas de mésinformation par heure.

Les chaînes d’information en continu constituent les terrains les plus exposés selon le rapport. L’audiovisuel public y résiste mieux : il est six fois moins concerné par les narratifs de désinformation que les chaînes privées. À l’inverse, Sud Radio, Europe 1 et RMC figurent parmi les antennes les plus perméables. Sur Sud Radio, un cas de mésinformation est détecté toutes les quarante minutes de programme consacré au climat ; sur CNews, la fréquence est d’un cas par heure. Les chaînes généralistes comme TF1, M6 et France Télévisions apparaissent, elles, comme des « remparts » relatifs car elles consacrent davantage de temps d’antenne au climat et diffusent moins de récits trompeurs.

Cartographie des principaux médias audiovisuels français face à la désinformation climatique

L’étude relève aussi la nature des émetteurs : dans le secteur privé, 46 % des cas proviennent directement de journalistes ou de chroniqueurs, contre 8 % seulement dans le public, où 92 % des affirmations trompeuses émanent d’invités, souvent politiques. La répétition de certains récits — doute sur la faisabilité de la transition, coût jugé excessif des énergies renouvelables, « écologie punitive », etc. — confirme, selon les auteurs, une « amplification systémique » plus qu’une série d’erreurs ponctuelles.

Sous-couverture chronique des enjeux environnementaux

Cette perméabilité médiatique s’explique, selon le rapport, par la fragilisation économique et politique du journalisme français, la sous-couverture chronique des enjeux environnementaux (3,7 % seulement des programmes d’information en 2024) et l’influence d’acteurs politiques ou économiques opposés à la régulation climatique. La concentration des médias, la précarisation des rédactions et la polarisation politique contribuent aussi à la diffusion de récits climatosceptiques désormais banalisés dans l’espace public.

Face à ce constat, les trois ONG appellent à une réponse coordonnée : formation des journalistes aux temporalités à risque, protection des médias d’intérêt public, renforcement de la régulation et examen rapide de la proposition de loi portée par le député Stéphane Delautrette visant à garantir le droit d’accès du public à une information environnementale fiable. Sans réaction rapide, préviennent-elles, la désinformation climatique pourrait s’enraciner durablement au cœur du paysage audiovisuel français.