Technomedia

Numérique · médias · sciences · intelligence artificielle

Interdire les réseaux sociaux aux mineurs : un frein aux alternatives vertueuses ?

 

réseaux sociaux
Digital Nomads Beyond the Cubicle by Yutong Liu & Digit. Yutong Liu & Digit, CC BY
Par Julien Falgas, Université de Lorraine et Dominique Boullier, Sciences Po

La proposition de loi visant à « protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » sera bientôt examinée par le Sénat. Elle élude le cœur du problème : le modèle économique fondé sur la captation de l’attention. Sans s’attaquer à cette architecture, la régulation risque de manquer sa cible.


Loin de cibler les plateformes toxiques bien connues, la proposition de loi visant à « protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » pourrait entraver l’émergence d’alternatives vertueuses pour nos écosystèmes d’information et de communication. Les sciences humaines et sociales ne sont pourtant pas avares de propositions systémiques plus constructives.

Des mois de débats stériles sans définition valable

Adopté par l’Assemblée nationale le 26 janvier 2026, le projet de loi visant à interdire les réseaux aux moins de quinze ans bénéficie d’une procédure accélérée à la demande du gouvernement. En accord avec la rapporteure Laure Miller, le gouvernement a fait voter un amendement qui gomme toute distinction entre des réseaux sociaux identifiés comme dangereux après avis de l’Arcom et les réseaux sociaux en général : tous sont désormais explicitement désignés comme « dangereux pour les moins de 15 ans ». De fait, le législateur n’apporte aucun élément pour définir ce qu’il propose d’interdire. Il faut se tourner vers le droit européen pour savoir de quoi il est question.

Selon le Digital Market Act (DMA) européen, un réseau social est un « service de plateforme essentiel […] permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations ». Sur la base d’une telle définition, le projet de loi français rate sa cible et confond réseaux socionumériques et médias sociaux en ligne, pénalisant les réseaux sociaux qui méritent encore d’être désignés comme tels.

Or de tels réseaux ne manquent pas. Nous ne parlons pas seulement des substituts aux services de microblogging que sont Mastodon ou Bluesky. Les projets réellement alternatifs sont peu connus et balbutiants faute de moyens dans un espace dominé par les grandes plateformes toxiques des BigTech. Vous connaissez TikTok, YouTube, Instagram, Facebook ou LinkedIn, mais sans doute pas Tournesol, Reconnexion, Qwice, Panodyssey ou encore needle.social. Ce dernier projet émane de la recherche publique en sciences humaines et sociales, développé au Centre de recherche sur les médiations (Crem) dans l’espoir de le mettre au service du secteur de la presse.

De longue date, l’impensé numérique traverse les discours médiatiques. Il consiste à présenter la technique comme une évidence au point de vider le débat public de tout questionnement politique ou velléité de résistance. Ainsi, en mettant l’accent sur des préoccupations tournées vers la santé des adolescents, le débat autour de l’interdiction des réseaux sociaux a contribué à détourner l’attention des enjeux démocratiques que soulève le modèle économique des plateformes dominantes.

Derrière l’urgence sanitaire, une urgence démocratique

Souvent résumé dans les médias à une opposition entre interdiction et éducation, le débat a fini par occulter le rôle prépondérant du modèle économique des plateformes pourtant identifié par l’Agence nationale de sécurité sanitaire. Là où réside un consensus scientifique, c’est bien pour condamner la responsabilité écrasante du modèle économique des Big Tech dans la dégradation de nos démocraties. C’est notamment le constat accablant du GIEC des écosystèmes d’information après avoir épluché près de 1 700 publications scientifiques :

« Les modèles économiques des grandes entreprises technologiques (Big Tech) incitent les enfants et les adultes connectés à autoriser l’extraction de données, qu’elles monétisent ensuite à des fins lucratives. Cette pratique facilite la diffusion virale de désinformation, de mésinformation et de discours de haine. »

Le modèle économique des grandes plateformes numériques constitue un facteur majeur de l’accélération de la désinformation et de la mésinformation. La propagation des contenus malicieux est amplifiée à partir de métriques (likes, commentaires, partages, temps passé, etc.) qui provoquent l’emballement, selon un processus favorable aux contenus qui provoquent le plus de réactions.

Une action systémique contre l’économie de l’attention est possible

Il ne viendrait pas à l’idée de nos parlementaires d’interdire de « boire dans un verre au café » sous prétexte que les « verres » peuvent contenir une boisson alcoolisée. C’est bien la vente d’alcool aux mineurs qui est interdite. Si l’interdiction peut être débattue, elle doit porter sur des produits dont la nocivité est avérée. Or, le produit toxique des BigTech ce sont les enchères publicitaires qui conditionnent toute l’architecture algorithmique de leurs réseaux sociaux. Dans une note du MIT de 2024, quelques mois avant de recevoir le Nobel d’économie, Daron Acemoglu et Simon Johnson ont ainsi appelé à l’urgence de taxer la publicité numérique. L’enjeu : casser cette économie toxique, contraindre les Big Tech à imaginer d’autres modèles d’affaires et réouvrir la possibilité d’innover au travers de plateformes différentes.

La régulation a également un rôle à jouer. On serait en droit d’attendre l’application des lois européennes existantes, telles que le Règlement sur les services numériques (DSA) qui impose notamment aux plateformes des obligations quant à la modération des contenus partagés sur les réseaux sociaux (facilitation des signalement et coopération avec des signaleurs de confiance, possibilités de contestation pour les utilisateurs, transparence des algorithmes, accès des autorités et des chercheurs aux données, obligations d’audits indépendants…). Ainsi, le 6 février 2026, la Commission européenne a conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive au travers de fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé.

On serait tenté d’exiger que l’industrie du numérique démontre l’innocuité de ses produits avant leur commercialisation, comme c’est le cas pour les médicaments, les jouets ou les véhicules. Pourtant, dans les industries médiatiques, c’est l’éditeur qui est responsable a posteriori devant la loi. Le problème des plateformes tient davantage au fait qu’elles sont considérées comme des hébergeurs, alors qu’elles effectuent bien une sélection éditoriale de ce qui doit être propagé ou invisibilisé via leurs algorithmes. Comme n’importe quel média, elles pourraient être tenues de demander une autorisation de publication dès lors que la diffusion des contenus sort du cercle privé. Si le droit des médias s’impose (comme le prévoit un amendement adopté en première lecture), un contenu répréhensible peut faire l’objet d’une action en justice engageant la responsabilité pénale du directeur de publication. Pour l’éviter, l’intérêt des plateformes consistera à mettre enfin en œuvre une modération a priori qui empêche la propagation des contenus litigieux.

Comment faire émerger des réseaux sociaux alternatifs et vertueux ?

Une architecture stratégique issue des ateliers de lutte contre les manipulations de l’information considère nos écosystèmes informationnels comme des biens communs dont dépend la résilience informationnelle de nos sociétés : au même titre que le climat ou la biodiversité, il convient d’en prendre soin. Les instruments existent, déjà identifiés pour agir face à d’autres enjeux écologiques : investissement dans la recherche publique, incitations fiscales et économiques sur le modèle des labels environnementaux, développement de l’économie sociale et solidaire.

La recherche en sciences sociales alerte depuis plusieurs années sur les dérives des plateformes des BigTech, mais inventer et expérimenter des dispositifs sociotechniques alternatifs nécessite un engagement au long cours et l’appui d’ingénieurs informatiques pérennes : toutes choses que ne permettent pas les financements sur projets. L’absence de moyens pour innover en matière d’infrastructures d’information et de communication soucieuses de l’intérêt général contraste cruellement avec les investissements dans une « course à l’IA" » qui fait peu de cas de l’intelligence collective.The Conversation

Julien Falgas, Maître de conférences au Centre de recherche sur les médiations, Université de Lorraine et Dominique Boullier, Professeur des universités émérite en sociologie. Chercheur au Centre d'Etudes Européennes et de Politique Comparée, Sciences Po

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

La souveraineté des données : un principe clé pour les infrastructures numériques

data


Par Mark Pestridge, Vice-Président Exécutif et Directeur Général de Telehouse Europe ; Sami Slim, CEO de Telehouse France ; Takeyuki Yanagisawa, Directeur Général du département Business Planning de Telehouse, KDDI

 mesure que les écosystèmes numériques se développent, la souveraineté des données s’impose comme un facteur critique dans la manière dont les infrastructures sont conçues et gouvernées. Pour les entreprises, le défi consiste à trouver le juste équilibre : les infrastructures doivent permettre une collaboration mondiale tout en respectant les réglementations locales et en garantissant la confidentialité et la sécurité des données.

Cet équilibre devient d’autant plus important que les violations des lois sur la souveraineté des données se multiplient. En Europe, les autorités ont infligé des amendes de plusieurs milliards d’euros au titre du RGPD, et des mesures d’application similaires apparaissent en Amérique du Nord, en Asie-Pacifique, en Amérique latine et au Moyen-Orient. Cette tendance croissante souligne la nécessité de respecter strictement les réglementations locales en matière de résidence et de transfert des données. Des pays comme l’Inde, le Vietnam et le Brésil ont adopté des règles plus strictes, imposant que certains ensembles de données restent à l’intérieur de leurs frontières nationales ou soient transférés selon des conditions définies. Ces réglementations influencent les décisions architecturales et élèvent les attentes vis-à-vis des opérateurs de centres de données. Désormais, la capacité seule ne suffit plus : les clients exigent dès le départ clarté et confiance en matière de souveraineté des données.

Cette complexité croissante a stimulé la demande pour des environnements multi-cloud et neutres vis-à-vis des opérateurs, combinant une connectivité dense et une conformité éprouvée. De tels environnements permettent aux entreprises d’adapter leurs charges de travail aux juridictions, de maintenir le stockage des données dans le pays concerné et de respecter les obligations légales sans devoir repenser entièrement leurs infrastructures. À mesure que les cadres réglementaires évoluent, l’emplacement et la propriété des infrastructures influencent de plus en plus la gouvernance. La juridiction de l’opérateur d’infrastructure détermine les régimes juridiques applicables aux données, façonnant les considérations de confidentialité et la manière dont les revendications extraterritoriales sont traitées. Cela signifie que les centres de données doivent être conçus pour être adaptables, capables d’évoluer au rythme des technologies et des réglementations.

Moteurs réglementaires

Les exigences réglementaires influencent de plus en plus la conception des centres de données, en particulier dans les secteurs fortement régulés comme les services financiers. Par exemple, le règlement sur la résilience opérationnelle numérique (DORA), applicable à partir de janvier 2025, impose aux entités financières réglementées et à leurs partenaires technologiques, tels que les centres de données, de démontrer leur capacité à résister aux perturbations et à signaler rapidement les incidents. 

Cela s’inscrit dans une tendance mondiale plus large : les normes internationales évoluent vers une simplification de la conformité transfrontalière, tout en répondant à des attentes croissantes en matière de cybersécurité et de durabilité. Les certifications ISO/IEC 27001 (sécurité de l’information) et ISO/IEC 27701 (gestion de la protection de la vie privée) sont fréquemment demandées et s’alignent sur les réglementations européennes, notamment NIS2 et DORA. 

De même, le cadre de cybersécurité du NIST offre une approche commune de la gestion des risques, aidant les parties prenantes à maintenir des pratiques cohérentes lorsqu’elles développent leurs opérations à l’international. Si les normes internationales apportent une certaine cohérence, les règles de souveraineté des données restent fragmentées. Par exemple, bien que le RGPD constitue la référence en Europe, certains États membres imposent des dispositions locales plus strictes. Par ailleurs, des pays comme la Chine et le Japon disposent de leurs propres lois sur la souveraineté des données, avec des niveaux variables de contrôle des transferts transfrontaliers.

Perspectives régionales

Chaque région présente des exigences spécifiques en matière de souveraineté des données. En France, l’hébergement de données de santé à caractère personnel requiert la certification Hébergement de Données de Santé (HDS), et le schéma mis à jour impose un hébergement physique au sein de l’EEE avec des contrôles définis. 

Au Royaume-Uni, les centres de données sont désormais désignés comme Infrastructures Nationales Critiques, et le projet de loi sur la cybersécurité et la résilience devrait renforcer les exigences en matière de déclaration des incidents et de gestion de la chaîne d’approvisionnement. Parallèlement, le Japon a renforcé ses lois sur la protection des données, en durcissant les restrictions sur les transferts de données vers des pays tiers. Les amendements à la loi sur la protection des informations personnelles, qui s’inscrivent dans le cadre de l’accord de partenariat économique UE–Japon, garantissent une circulation de données de confiance entre les deux régions.

Stratégies de conception pour l’adaptabilité

À mesure que les cadres réglementaires évoluent, les centres de données doivent gagner en adaptabilité. Les conceptions modulaires, qui permettent une construction par phases et des rénovations progressives, sont de plus en plus courantes. Cette approche permet aux opérateurs de s’adapter aux changements réglementaires et aux exigences des clients sans procéder à des refontes majeures.

Les conceptions modulaires contribuent également aux objectifs de durabilité, avec des zones à haute densité prêtes pour l’IA et le refroidissement liquide, ainsi qu’une réduction du PUE (Power Usage Effectiveness), du CUE (Carbon Usage Effectiveness) et du WUE (Water Usage Effectiveness). Les campus neutres vis-à-vis des opérateurs, qui prennent en charge plusieurs fournisseurs de cloud et de télécommunications, permettent aux entreprises de respecter les exigences réglementaires tout en limitant la dépendance à un fournisseur unique.

Collaboration et partenariats écosystémiques

Si la conception des infrastructures pose les bases, l’atteinte effective de la souveraineté des données nécessite une collaboration entre de multiples partenaires. Aucun opérateur ne peut à lui seul répondre à toutes les exigences réglementaires, d’où l’importance d’un écosystème connecté. Celui-ci inclut la collaboration entre réseaux de télécommunications, fournisseurs de services cloud et partenaires de sécurité afin de garantir résilience, performance et conformité. Des écosystèmes de carriers denses et des points d’échange Internet (IXP) offrent des chemins courts et diversifiés vers les utilisateurs, réduisant la latence et la dépendance à un fournisseur unique. 

Parallèlement, les plateformes cloud hyperscale et les accès dédiés aux clouds privés assurent des performances prévisibles pour les charges de travail réglementées et permettent des transferts de données sécurisés et directs pour des technologies émergentes comme l’IA. Au-delà de ces partenariats techniques, des outils juridiques et de conformité tels que les clauses contractuelles types (SCC) et les accords de traitement des données renforcent la transparence et la responsabilité, garantissant que les données sont traitées conformément aux réglementations.

La voie à suivre

À mesure que la souveraineté des données devient un élément central de la conception des infrastructures, les opérateurs doivent se concentrer sur la flexibilité, la transparence et la conformité. En combinant des conceptions modulaires, une interconnexion neutre vis-à-vis des opérateurs et des normes reconnues, les entreprises peuvent bâtir des infrastructures qui respectent non seulement les lois actuelles, mais s’adaptent également à l’évolution des réglementations. 

Ainsi, la souveraineté des données n’est plus un obstacle à contourner. Elle devient un principe de conception à part entière, garantissant que les infrastructures puissent évoluer avec le paysage géopolitique, tout en soutenant l’innovation et en maintenant les données sécurisées et conformes.

Intelligence artificielle : entre les États-Unis et la Chine, l’Europe cherche sa voie à New Delhi

IA

Réunis à New Delhi, dirigeants politiques et géants de la tech ont appelé à un accès universel et à un encadrement de l’intelligence artificielle.

 

Existe-t-il (encore) une autre voix pour l’intelligence artificielle que celle, libérale et dominée par les géants privés américains, ou celle, étroitement contrôlée par l’État chinois ? À New Delhi, jeudi 19 février, la question a traversé les échanges du sommet consacré à l’IA, quatrième du genre, organisé par l’Inde.

Autour du Premier ministre indien Narendra Modi, des chefs d’État, des responsables de l’ONU et les principaux dirigeants de la tech ont affiché un message commun : l’IA ne peut rester l’apanage de quelques acteurs. « L’IA doit appartenir à tout le monde », a ainsi déclaré le secrétaire général de l’ONU Antonio Guterres, estimant que son avenir ne saurait être laissé « aux caprices de quelques milliardaires ». Dans le même esprit, Narendra Modi a plaidé pour une technologie « accessible et inclusive ».

Des investissements massifs annoncés

Le patron d’OpenAI, Sam Altman, figure emblématique de la révolution en cours avec ChatGPT, a jugé « urgent » de mettre en place une « régulation ou des protections comme pour n’importe quelle autre technologie d’une telle puissance ». L’appel intervient alors que la valorisation boursière des entreprises du secteur alimente à la fois l’enthousiasme des investisseurs – dont certains craignent toutefois une bulle – et les inquiétudes sur l’emploi, l’environnement ou la création artistique.

« Nous créons des systèmes capables d’imiter l’humain […] l’application naturelle […] c’est de remplacer les humains », a averti le chercheur Stuart Russell. Avec son milliard d’internautes, l’Inde se positionne comme un acteur central de l’IA. Le ministre des Technologies de l’information, Ashwini Vaishnaw, a annoncé viser 200 milliards de dollars d’investissements technologiques en deux ans, dont 90 milliards déjà dévoilés pour des centres de données.

OpenAI et Tata Consultancy Services ont annoncé la construction d’un centre de données, tandis que Reliance s’est engagée à investir 110 milliards de dollars sur sept ans. Le fabricant de puces spécialisées américain Nvidia, a noué un partenariat avec L & T pour créer « la plus grande usine d’IA d’Inde », et Google prévoit de nouveaux câbles sous-marins.

La troisième voix de Macron

Dans ce paysage dominé par les États-Unis et la Chine, Emmanuel Macron – qui n’a pas manqué de vanter les mérites de « Choose France » – a défendu une troisième voie. « Contrairement à ce que certains amis mal informés disent, l’Europe n’est pas aveuglément centrée sur la régulation », a-t-il affirmé, assurant que le continent est un « espace sûr » pour l’innovation et l’investissement. L’Europe, a-t-il ajouté, est « déterminée à continuer à définir les règles du jeu » avec des alliés comme l’Inde, au nom de « la science, l’État de droit, l’équilibre mondial » et d’un « multilatéralisme efficace ».

Le président français a insisté sur l’autonomie stratégique, la durabilité énergétique des centres de données et la protection des mineurs face aux « abus numériques et de l’IA », priorité annoncée de la présidence française du G7. Entre promesse d’innovation et exigence de régulation, Paris entend ainsi faire valoir une conception de l’IA à la fois compétitive et encadrée, au croisement de la souveraineté et du multilatéralisme.

 

Intelligence artificielle : le Français H Company va aider l’un des principaux CHU d’Inde à alléger la charge administrative des soignants

 

IA

À New Delhi, lors du sommet de l’intelligence artificielle, Emmanuel Macron a annoncé un partenariat entre la société française H Company et St John’s Hospital. Objectif affiché : réduire le poids des tâches administratives grâce à des agents humanoïdes virtuels et redonner du temps aux équipes soignantes.

Emmanuel Macron a officialisé, jeudi 19 février à New Delhi, un partenariat stratégique entre la société française H Company et le St John’s Hospital, l’un des principaux centres hospitaliers et universitaires (CHU) d’Inde, situé à Bangalore. L’annonce est intervenue lors de son discours inaugural au sommet de l’intelligence artificielle. L’ambition affichée est de transformer le fonctionnement de l’hôpital grâce à l’IA et recentrer les équipes sur le soin.

Le projet a débuté, en amont du sommet, par un premier cas d’usage consacré à la gestion du temps de travail du personnel infirmier. Il porte sur l’allocation des équipes, la gestion des absences et leur réaffectation. La solution permet déjà d’optimiser les plannings et d’améliorer la disponibilité du personnel soignant. À terme, elle doit diminuer la charge administrative et libérer davantage de temps pour les patients.

Des humanoïdes virtuels

Le partenariat repose sur le déploiement d’agents développés par H Company. Présentés comme des humanoïdes virtuels, ils exécutent sur un ordinateur les mêmes actions qu’un humain. Ils interviennent sur des tâches jugées chronophages, depuis les tableurs Excel jusqu’aux logiciels métiers, en passant par l’email ou l’intranet, y compris lorsque ces outils ont été conçus avant l’ère de l’IA.

Ces agents visent à lever des freins identifiés dans les organisations : projets longs et coûteux, mobilisant de nombreuses équipes et conditionnés à des migrations complexes de systèmes et de données, pour des retours sur investissement parfois jugés décevants. H Company affirme adopter une méthode de déploiement fondée sur la présence d’ingénieurs au sein même des équipes métier, assis aux côtés des soignants, afin d’adapter les outils aux contraintes opérationnelles et de garantir le respect strict des exigences de sécurité.

Réduire le temps d’attente aux urgences

Aujourd’hui, 50 à 60 % du temps des équipes est consacré à des tâches réalisées sur ordinateur, souvent répétitives. La solution entend réduire significativement cette charge et rediriger ce temps vers les patients, tout en garantissant un haut niveau de confidentialité : les données restent au sein de l’hôpital et sont traitées localement, sans extraction vers des environnements externes.

Au-delà d’un retour sur investissement financier, l’enjeu avancé est un « ROI d’impact » : réduction des temps d’attente aux urgences, fluidification des parcours patients, diminution du turnover des infirmiers, augmentation du taux d’utilisation des équipements critiques et, in fine, contribution à la sauvegarde de vies.

Souriez, vous êtes filmés : ce que l’« emotion AI » voit vraiment sur nos visages

 

IA

Par Charlotte De Sainte Maresville, Université Bretagne Sud (UBS) et Christine Petr, Université Bretagne Sud (UBS)

Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.


Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.

Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.

Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?

Qu’est-ce que l’« emotion AI » ?

L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.

Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.

Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.

Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.

Comment ça marche ?

Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.

Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.

infographie
Un système automatisé d’analyse des émotions faciales déduit des probabilités que la personne observée soit neutre, heureuse, surprise, en colère, etc. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, pPixlr et ChatGPT), Fourni par l'auteur

En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.

Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).

Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.

Quelles sont les limites techniques ?

Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.

Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.

infographie
Les expressions faciales ne sont pas toujours univoques. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, Pixlr et ChatGPT), Fourni par l'auteur

Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.

Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.

Des risques à ne pas ignorer

Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.

Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.

Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.

Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.

En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.

Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.

Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.

Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.The Conversation

Charlotte De Sainte Maresville, Doctorante 3 eme année en marketing et sciences affectives, Université Bretagne Sud (UBS) et Christine Petr, Professeur des Université en Marketing - Sciences de Gestion et du Management, Université Bretagne Sud (UBS)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

ISS : quelles expériences scientifiques va réaliser Sophie Adenot, la nouvelle astronaute française ?

adenot

Par Rémi Canton, Centre national d’études spatiales (CNES)

Dans la Station spatiale internationale, les astronautes réalisent de nombreuses expériences scientifiques – c’est même le cœur de leur activité. Aujourd’hui, Rémi Canton, responsable au Centre national d’études spatiales de la préparation des expériences françaises à bord de l’ISS, nous parle des recherches scientifiques à bord.


The Conversation : Sophie Adenot, la nouvelle astronaute française, va partir un peu en avance par rapport à ce qui avait été prévu et devrait rester huit mois à bord d’ISS – ce qui est plus long que la plupart des missions ?

Rémi Canton : Oui, le départ de Sophie va peut-être être légèrement avancé à cause du retour anticipé de la mission précédente, en raison d’un problème de santé d’un des membres de l’équipage. La durée de sa mission en revanche n’est pas liée à des raisons scientifiques ou de santé, mais a été fixée par la Nasa qui souhaite réduire le nombre de lancements de rotation d’équipage pour réduire les coûts et prévoit donc que les missions à bord de l’ISS seront dorénavant plus longues.

Outre les expériences de physiologie dont nous parle votre collègue Marc-Antoine Custaud dans un autre article, Sophie Adenot va travailler sur les contaminations par des microorganismes : bactéries, champignons, virus… Mais honnêtement, on n’imagine pas au premier abord une station spatiale comme un nid à microbes ! D’où viennent ces contaminations ?

R. C. : La biocontamination n’est évidemment pas une spécificité spatiale, et il n’y a pas de problème particulier identifié à bord, mais les enjeux dans un espace confiné sont importants. En premier lieu pour protéger la santé de l’équipage, mais aussi pour minimiser le temps d’entretien afin de maximiser le temps consacré aux expériences scientifiques.

Le matériel que l’on monte est bien sûr désinfecté pour éviter d’amener toute sorte de contamination dans l’ISS. Mais il peut y avoir des résidus et, avec l’équipage à bord, il y a forcément du vivant. Le corps humain contient en grand nombre tout un ensemble de bactéries, de microchampignons et autres microorganismes, que l’on appelle le microbiote. Et qui peut se propager à cause de postillons, par exemple.

Il faut donc en limiter la prolifération, dans cet environnement confiné et que l’on ne peut pas aérer !

Dans quel but étudier ces contaminations ?

R. C. : Il s’agit d’abord de protéger la santé des astronautes, mais aussi la durée de vie du matériel, qui peut être endommagé par la corrosion bactérienne. Il y a des endroits difficiles d’accès et donc compliqués à nettoyer : connectique, derrière des câbles ou des baies informatiques, par exemple.

La première étape est de caractériser les microorganismes présents dans l’ISS et qui sont responsables de la biocontamination. La deuxième étape est de trouver des matériaux et des traitements – physiques et non chimiques – de surface, c’est-à-dire des textures ou revêtements, qui ralentissent ou empêchent la prolifération des contaminants. Soit en les piégeant, soit en les repoussant pour les empêcher de s’accrocher et de proliférer derrière un biofilm protecteur. Cela se fait grâce à l’expérience Matiss-4, dernière itération d’une expérience commencée dès la mission Proxima de Thomas Pesquet en 2016. On étudie par exemple des surfaces hydrophiles et hydrophobes, des surfaces texturées avec des petits plots en silice qui font que c’est plus difficile de s’accrocher d’un point de vue microscopique.

À terme, on espère identifier les meilleurs matériaux et revêtements qui pourraient être utilisés pour les futures stations spatiales et bases lunaires, et qui répondent parfaitement à cette problématique.

À bord, Sophie Adenot n’analysera pas ces surfaces ?

R. C. : Non, Sophie accrochera ces porte-échantillons avec différents types de surfaces dans des endroits stratégiques de l’ISS, près des filtres et bouches d’aération par exemple. Ils seront exposés pendant plusieurs mois à l’environnement ISS avant d’être ramenés sur Terre bien après sa mission pour une analyse au sol par fluorescence X ou spectroscopie Raman, par les scientifiques.

En parallèle, elle utilisera un deuxième instrument, appelé MultISS, caméra multimodale et multispectrale, qui permettra de prendre des photos des surfaces dans différentes longueurs d’onde (ultraviolets notamment) pour évaluer la contamination des surfaces invisible à l’œil nu. Cela permettra d’identifier les zones qui nécessitent le plus d’attention.

Existe-t-il pour ces expériences un objectif de développement d’applications qui soient utiles sur Terre ?

R. C. : Le but du Cadmos, le service dont je m’occupe au CNES, est d’abord de répondre à des objectifs scientifiques pour améliorer la connaissance et la compréhension de phénomènes inobservables sur Terre : nous recevons des demandes de laboratoires de recherche qui veulent observer certains phénomènes physiques, biologiques ou physiologiques en impesanteur, car cela permet de s’affranchir des effets de la gravité, comme le poids, la convection thermique, la poussée d’Archimède, la sédimentation ou la pression hydrostatique. Ces chercheuses et chercheurs ne cherchent pas à aller dans l’espace ! Au contraire, pour eux c’est plus une contrainte qu’autre chose. Mais c’est le seul endroit où ils peuvent avoir accès à l’impesanteur sur de longues périodes, ce qui leur « ouvre les yeux » sur un univers invisible sur Terre.

Donc, pour répondre à votre question : les applications terrestres ne sont pas dans le cahier des charges initial, c’est le principe même de la recherche fondamentale, mais le fait est que l’on découvre ensuite une multitude d’applications terrestres possibles.

Par exemple, nous avons étudié les fluides supercritiques (des fluides sous très haute pression et très haute température) dans l’expérience DECLIC. Parmi les propriétés qui ont été découvertes : en présence d’un oxydant, l’eau supercritique dissout et oxyde les substances organiques sans dégager d’oxyde d’azote… En d’autres termes, il s’agit d’un procédé de combustion « propre », beaucoup moins polluante. Au niveau spatial, cela pourrait être très intéressant pour le traitement des déchets, par exemple, sur une base lunaire. C’est d’ailleurs ce procédé qu’utilise Matt Damon dans Seul sur Mars, avec notre expérience, pour traiter ses déchets organiques. Mais ce serait surtout une technologie très utile sur Terre, car bien moins polluante que les incinérateurs classiques. Peut-être avec un rendement moindre que dans l’ISS, car le fluide supercritique serait moins homogène qu’en impesanteur, mais ce serait une technologie issue de la recherche spatiale, et qui a d’ailleurs commencé à être déployée pour traiter les déchets de certaines usines pétrochimiques.

Au-delà des expériences scientifiques qui nous sont demandées par les chercheurs, nous travaillons aussi à la préparation des technologies nécessaires pour l’exploration habitée plus lointaine. Et même si c’est moins intuitif et que cela peut paraître paradoxal, beaucoup d’applications terrestres découlent de cette branche. Car il s’agit de répondre à des problématiques de gestion et de recyclage de l’eau, le stockage de l’énergie, le traitement des déchets ou l’autonomie en santé. Et en effet, un équipage dans une station ou sur une base spatiale doit utiliser au mieux des ressources limitées, comme nous sur Terre, à une autre échelle. L’environnement exigeant et très contraint du spatial nous force ainsi à trouver des solutions innovantes, et sert ainsi d’accélérateur de technologie. Nous avons par exemple développé des techniques pour faire de l’échographie à distance avec des sondes motorisées et pilotables à distance, qui sont utilisées aujourd’hui en télémédecine dans des déserts médicaux.

Nous parlions de prévention de biocontamination tout à l’heure : l’objectif initial était une application spatiale, mais au final l’application sera surtout terrestre, pour les milieux hospitaliers, les transports en commun (barres de métro…), les lieux publics (boutons d’ascenseur, poignées de porte…), afin d’éviter la propagation d’agents pathogènes.

En parlant de recherche fondamentale : en 2023, l’astronaute danois Andy Morgensen a fait une mousse au chocolat pour étudier la formation d’émulsions en micropesanteur. Est-ce que Sophie Adenot va tester une nouvelle recette ?

R. C. : Oui, mais plus pour le plaisir que pour la science, cette fois-ci ! Nous avons juste décidé d’intégrer un objectif supplémentaire par rapport à la mousse au chocolat : dans un scénario réaliste, il n’y aura ni cacaotier ni d’œufs sur une base lunaire… Sophie va réaliser ce coup-ci une recette incorporant des ingrédients que des astronautes pourraient un jour faire pousser sur une base spatiale. Au menu : houmous et caviar d’aubergine !The Conversation

Rémi Canton, Chef de Projet Vols Habités (CADMOS) , Centre national d’études spatiales (CNES)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Blanchiment d’argent et cryptomonnaie : l’illusion de la transparence de la blockchain


Une adresse publique sur la blockchain se crée en quelques secondes, sans pièce d’identité, avec une clé privée connue uniquement du propriétaire des cryptoactifs. Max Acronym/Shutterstock
Par Jean-Marc Figuet, Université de Bordeaux

Une affirmation revient souvent : les criminels du monde entier utilisent les cryptomonnaies pour blanchir l’argent, en toute impunité. En effet, s’il est facile de tracer les échanges financiers via les blockchains, impossible d’identifier les personnes sans la coopération des acteurs comme Binance, Tether ou les prestataires de paiements. Car sur la blockchain, on peut tout voir sans savoir qui agit.


La promesse des blockchains publiques, comme Bitcoin ou Ethereum, est aussi simple qu’audacieuse : chaque transaction y est enregistrée, horodatée et visible par tous. À première vue, c’est un avantage décisif pour les enquêteurs financiers. À première vue seulement, car cette transparence se révèle souvent trompeuse. Si le registre décentralisé est public, les identités derrière les adresses restent inaccessibles sans intermédiaire.

Publiée en novembre 2025, l’enquête internationale The Coin Laundry (ICIJ) montre comment ce « paradoxe crypto » alimente une économie criminelle mondialisée, et comment l’identification des personnes dépend, en pratique, du bon vouloir d’intermédiaires privés, comme les plateformes (Binance) ou les guichets de conversion crypto-to-cash desks. Ces guichets sont des opérateurs, tels que Huione Guarantee ou Tether Operations Limited, souvent localisés dans des paradis fiscaux. Ces derniers convertissent des cryptoactifs en monnaie fiduciaire – euros, dollars – ou en actifs tangibles – or, immobilier – sans vérification systématique d’identité.

On peut tout voir sans savoir qui agit. Car la blockchain affiche seulement des transferts de crypto, pas des identités. Cet écart entre la traçabilité technique et la responsabilité juridique permet aux réseaux criminels de prospérer ; la transparence des flux ne garantit ni l’identification des acteurs, ni l’effectivité des contrôles.

Alors, comment concrètement ces transactions fonctionnent-elles ?

Piège de la pseudonymie

Sur une blockchain publique, l’unité de base n’est pas l’individu, mais l’adresse publique, c’est-à-dire une suite de caractères. Par exemple, 1A1zP1eP5QGefi2DMPTfTL5SLmv**** sur la blockchain Bitcoin. Cette adresse publique se crée en quelques secondes, sans pièce d’identité, en quantité illimitée. Elle est associée à une clé privée, par exemple L5oLkpXH3Z55rVgQv8gQJQ5v9X8fLpW7tQeNqW3TbKbYsZ1P**** qui elle, n’est connue que du propriétaire des cryptoactifs.

Les réseaux criminels exploitent cette pseudonymie en multipliant les adresses, en fragmentant les montants et en automatisant les transferts via des « services » variés – mixing, swaps décentralisés ou bridges. Le plus connu est le mixing, utilisé pour brouiller les traces des transactions en crypto.

Le mixing, une technique utilisée pour brouiller les traces des transactions sur une blockchain, suit un process complexe :
  • 1. Le dépôt des fonds : un utilisateur envoie ses crypto à une adresse pool gérée par un service de mixing, comme Tornado Cash.
  • 2. Le mélange des fonds : le service mélange ces crypto avec celles d’autres utilisateurs.
  • 3. La redistribution des fonds : après un délai aléatoire, le service renvoie les fonds, mais provenant d’autres adresses, vers une nouvelle adresse désignée par l’utilisateur, ce qui rend impossible le suivi des fonds originaux.

Le mixeur Tornado Cash a permis le blanchiment de plusieurs milliards de dollars en 2022 et 2023, dont certains directement liés à des cyberattaques et des ransomwares. En 2022, le groupe Lazarus, lié à la Corée du Nord, a utilisé un mixeur pour blanchir 615 millions de dollars (plus de 520 millions d’euros) volés lors du piratage du jeu Axie Infinity. Les hackers ont subtilisé des Ethereum (ETH) et les ont envoyés à Tornado Cash qui a fragmenté puis redistribué ces ETH vers des centaines d’adresses différentes, rendant le suivi impossible. Les fonds ont ensuite été convertis en monnaie fiduciaire via des guichets asiatiques ou réinvestis dans des casinos en ligne.

Relier une adresse à une identité

Les cellules de renseignements publiques comme Tracfin en France, Europol dans l’Union européenne, ou privées telles que Chainanalysis utilisée par le FBI ou Interpol peuvent identifier des schémas de blanchiment sur la blockchain. Mais relier une adresse à une identité relève de la seule volonté de l’intermédiaire.

Un exemple rapporté par l’ICIJ illustre ce piège. Entre juillet 2024 et juillet 2025, des adresses associées au groupe cambodgien Huione ont transféré au moins 408 millions de dollars (345,8 millions d’euros) en stablecoins USDT vers des comptes clients sur Binance. Ces transactions se sont poursuivies malgré le classement d’Huione en tant qu’entité majeure de blanchiment d’argent, ou primary money laundering concern, dès le 1er mai 2025, par le Financial Crimes Enforcement Network, un département du Trésor américain.

La visibilité des transactions n’est pas en cause. Ce qui l’est, c’est la difficulté à convertir cette visibilité en attribution fiable et en action rapide, comme le gel, la saisie ou les poursuites.

Les intermédiaires, le talon d’Achille de la traçabilité

Tant que les fonds en cryptomonnaie restent dans la blockchain (« on-chain »), leur traçabilité est totale. En revanche, dès que les fonds sortent de la blockchain (« off-chain ») par une conversion en monnaie légale ou l’achat d’actifs financiers… tout dépend des intermédiaires (plateformes, prestataires de paiement…). Ces derniers jouent un rôle comparable à celui de douaniers. Eux seuls peuvent relier une adresse à une identité, condition indispensable pour déclencher une action judiciaire.

L’enquête de l’ICIJ insiste sur une réalité moins technologique qu’institutionnelle. Même lorsque des signaux d’alerte existent, la réaction des intermédiaires peut être tardive, incomplète ou absente. Leur activité demeure structurée par un modèle économique fondé sur les volumes et les frais.

Binance, la principale plateforme, a généré plus de 17 milliards de dollars (14,4 milliards d’euros) de commissions sur les transactions en 2023. Cela crée une tension durable entre la croissance des flux, génératrice de revenus, et la traque des flux illicites. Comme le secret bancaire suisse dans les années 1990, les intermédiaires crypto aujourd’hui privilégient la rentabilité à court terme au détriment de la lutte contre la criminalité financière.

La différence ? Leur modèle est encore plus difficile à réguler, car il repose sur une technologie conçue pour contourner les contrôles.

Trois obstacles se cumulent.

Complexité technique

Les fonds peuvent changer de libellé, circuler via des services de swaps qui permettent d’échanger instantanément une cryptomonnaie contre une autre, franchir des ponts entre blockchains, ou emprunter des infrastructures décentralisées. Chaque étape n’efface pas la trace, mais multiplie les embranchements, donc les hypothèses, et accroît la difficulté probatoire.

Fragmentation juridique

Les plateformes, les prestataires et les serveurs sont dispersés géographiquement. L’entraide judiciaire internationale est lente. Et certaines juridictions sont peu coopératives, notamment dans les paradis fiscaux.

Asymétries économique et temporelle

Un criminel peut créer une nouvelle adresse en quelques clics alors qu’un enquêteur doit engager des procédures multiples dont l’issue est incertaine. L’ICIJ souligne l’émergence de crypto-to-cash desks qui permettent de convertir de grosses sommes de crypto en cash, avec des contrôles variables.

Un indicateur aide à saisir l’ampleur du phénomène. Pour 2024, l’Internet Crime Complaint Center du FBI estime à 9,3 milliards de dollars (7,8 milliards d’euros) les pertes déclarées par des victimes de crimes liés aux cryptomonnaies. Au-delà du chiffre, cela dit la vitesse d’adaptation des fraudeurs et la pression sur les capacités d’enquête.

La régulation européenne en progrès

L’Union européenne a créé deux instruments majeurs pour renforcent la traçabilité aux points d’entrée et de sortie du système régulé.

Le règlement européen Markets in Crypto-Assets, dit MiCA encadre les prestataires de services sur crypto-actifs via un régime d’autorisation depuis le 30 décembre 2024. Il crée de fait des exigences de gouvernance et des obligations de conformité.

La règle du « voyage des fonds » (règlement UE 2023/1113) impose, depuis le 30 décembre 2024, que certaines informations accompagnent les transferts afin de réduire l’opacité des flux dans les circuits régulés.

Leurs limites sont intrinsèques. Ils ne couvrent ni les échanges de pair à pair qui se réalisent sans intermédiaire (via des groupes Telegram), ni les plateformes offshore, localisées dans des paradis fiscaux, ni les portefeuilles auto-hébergés (MetaMask, Ledger…) où l’utilisateur contrôle seul ses clés.

En clair, la réglementation sécurise le pont sans combler les fossés.

La transparence ne suffit pas

Affirmer que « la blockchain est transparente » est un leurre. Cette transparence ne porte que sur les mouvements de fonds, jamais sur les acteurs et sur leur identité. La lutte contre le blanchiment se joue aux marges du système, c’est-à-dire dans la rigueur des contrôles Know Your Customer, la réactivité des plateformes, et la coopération internationale.

Trois priorités semblent aujourd’hui s’imposer :

  • harmoniser les règles pour éviter l’arbitrage entre des juridictions permissives et d’autres, strictes ;

  • doter les enquêteurs de moyens techniques et juridiques adaptés ;

  • sanctionner réellement les intermédiaires défaillants, afin de transformer la transparence en responsabilité.

Au vu de l’expérience de la coopération internationale pour lutter contre les paradis fiscaux, on peut supposer que le chemin sera, sans nul doute, périlleux pour atteindre ces priorités. Sans elles, la blockchain restera un registre ouvert où les criminels savent tourner les pages sans y laisser leur nom.The Conversation

Jean-Marc Figuet, Professeur d'économie, ISG Lab, Université de Bordeaux

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Safer Internet Day : repenser la sécurité numérique comme levier d’innovation

internet

Par Mohamed Ourdane, Chief Security Officer POST Luxembourg, Head of DEEP CyberForce

À l’occasion du Safer Internet Day, la cybersécurité apparaît comme un enjeu structurant pour la confiance et la performance des systèmes numériques.

Le Safer Internet Day, qui se déroule le 10 février 2026, invite à porter un regard lucide sur la place qu’occupe aujourd’hui la sécurité numérique. Longtemps abordée comme une fonction de protection minimale ou comme une réponse aux incidents, la cybersécurité se heurte désormais à la complexité croissante des environnements numériques et à la dispersion des systèmes d’information. La sécurité devient un pilier à part entière de la transformation digitale. Elle conditionne la fiabilité des services, la continuité des activités et la capacité des organisations à faire évoluer leurs infrastructures sans compromettre la confiance.

Un espace numérique devenu critique

Les usages numériques soutiennent aujourd’hui des fonctions essentielles. Systèmes d’information, plateformes applicatives, services en ligne et flux de données sont au cœur du fonctionnement des entreprises comme des institutions. Cette dépendance rend les environnements numériques particulièrement sensibles aux interruptions, aux attaques et aux défaillances. Le Safer Internet Day rappelle que sécuriser ces espaces ne consiste plus uniquement à une simple protection, souvent périmétrique, mais à garantir la stabilité et la disponibilité de services devenus critiques. La sécurité doit donc être pensée à l’échelle globale au sens de la résilience des infrastructures et des usages.

Un modèle défensif qui atteint ses limites

Les incidents étaient traités au fil de leur apparition, souvent de manière isolée. Ce modèle montre aujourd’hui ses limites face à des menaces protéiformes plus rapides, plus ciblées et capables d’exploiter la moindre faiblesse des systèmes interconnectés. Dans des environnements complexes, une approche fragmentée de la sécurité contraint la visibilité et augmente ainsi les risques. Le Safer Internet Day met en lumière la nécessité de dépasser cette logique défensive pour construire des dispositifs capables d’anticiper les incidents et d’en limiter l’impact.

Une sécurité intégrée aux infrastructures

Rendre le numérique plus sûr suppose d’intégrer la sécurité au cœur même des infrastructures et systèmes d’information. Les systèmes doivent être conçus pour résister aux incidents, assurer la continuité des services et protéger les données, même en situation de crise.

Cette approche repose sur une vision globale de la sécurité, qui englobe les réseaux, les applications, les accès et les opérations. Elle permet de renforcer la résilience des environnements numériques tout en accompagnant leur évolution.

Une cybersécurité pensée pour durer

Le Safer Internet Day rappelle aussi que la sécurité ne se limite pas à une réponse ponctuelle. Elle s’inscrit dans le temps, au rythme des transformations technologiques et des nouveaux usages. Des dispositifs trop rigides ou trop complexes fragilisent les systèmes à long terme.

Une cybersécurité efficace doit être flexible, lisible et adaptée aux contraintes opérationnelles. Elle doit soutenir la performance des organisations tout en réduisant les risques structurels liés à la complexité numérique.

Le Safer Internet Day souligne l’importance d’un changement de posture. Faire de la cybersécurité un levier d’innovation et de résilience permet de sécuriser durablement les environnements numériques. Un numérique plus sûr repose sur des choix structurants, capables d’allier protection, résilience et performance.

SparteX 26 : l’exercice spatial militaire français change d’échelle

armees

Du 8 au 27 février, le Commandement de l’espace organise à Toulouse la sixième édition de son exercice annuel. Rebaptisé SparteX, l’ex-AsterX s’inscrit désormais pleinement dans la préparation opérationnelle interarmées de haute intensité, au cœur d’ORION 26.

Depuis hier et jusqu’au 27 février, la base aérienne 101 « Général Robert Aubinière », à Toulouse, accueille la sixième édition de l’exercice spatial militaire français organisé par le Commandement de l’espace. Connu jusqu’alors sous le nom d’AsterX, l’exercice devient SparteX, pour Space Readiness and Training eXercice, marquant une évolution à la fois symbolique et opérationnelle de l’entraînement spatial des armées françaises.

Créé en 2021, cet exercice, qui demeure unique en Europe, vise à entraîner et certifier les unités du Commandement de l’espace aux opérations spatiales militaires, dans un contexte de menaces croissantes et de contestation accrue du milieu spatial – on a vu récemment deux satellites russes soupçonnés d’espionnage sur des satellites européens.

Intégré à Orion 26

Pour cette édition 2026, SparteX franchit un cap supplémentaire en étant intégré à l’exercice interarmées de haute intensité ORION 26, qui mobilise de manière coordonnée l’ensemble des milieux et champs de conflictualité.

Environ 200 participants, militaires et civils, français et étrangers, sont engagés dans cet entraînement. Outre les unités du Commandement de l’espace, l’exercice associe l’armée de Terre, la Marine nationale, le Commandement cyber, la Direction du renseignement militaire et le Commissariat au numérique de défense. L’objectif est d’inscrire pleinement l’espace dans le cycle opérationnel interarmées, en testant l’interopérabilité entre la structure de commandement et de conduite des opérations spatiales et les autres chaînes de commandement engagées.

SparteX 2026 se distingue également par l’intégration approfondie de partenaires civils institutionnels, parmi lesquels le Centre national d’études spatiales (Cnes), l’ONERA et le Centre d’excellence spatial de l’OTAN, ainsi que de plusieurs acteurs industriels du secteur spatial et de la défense. Cette ouverture vise à renforcer la planification et la conduite des opérations spatiales militaires, tout en développant les synergies civiles et le soutien commercial aux opérations.

12 nations participent

Sur le plan international, douze nations partenaires participent à l’exercice, dont l’Allemagne, les États-Unis, le Royaume-Uni, le Japon ou encore l’Australie. Cette dimension multinationale répond à un double objectif : renforcer la coopération et éprouver l’interopérabilité dans un domaine où la coordination alliée est devenue déterminante. L’entraînement repose sur un scénario géopolitique fictif, inspiré de menaces spatiales actuelles et futures. L’environnement simulé comprend près de 4 000 objets spatiaux, 29 capteurs de surveillance et de pistage, ainsi que 28 événements spatiaux confrontant les participants à dix types de menaces couvrant l’ensemble du spectre de la guerre spatiale. Un plateau technique complet, combinant outils civils et militaires, permet de restituer la complexité du réel.

À travers SparteX, les armées françaises cherchent ainsi à délivrer des effets dans, vers et depuis l’espace, au profit des opérations, tout en évaluant la résilience de leurs capacités spatiales.

La stratégie numérique de l’armée ukrainienne : une mobilisation 2.0

ukraine

Par Léo-Paul Barthélémy, Université de Lorraine

Face à la pression russe, et alors que la guerre totale entame sa cinquième année, l’Ukraine a un besoin constant d’alimenter son armée en hommes et en financements. Elle met en place à cette fin une stratégie numérique extrêmement moderne, à l’esthétique soignée, et non dénuée d’aspects ludiques.


Alors que 2026 marque pour l’Ukraine sa cinquième année de résistance face à l’invasion à grande échelle russe et sa treizième depuis le début de la guerre, les efforts de l’armée ukrainienne se maintiennent et évoluent, avec un appui continu de la société et des partenaires internationaux.

Mais le recrutement, la minimisation des désertions et l’attrait de dons privés, venant d’Ukraine comme de l’étranger, restent des enjeux majeurs. Pour cela, l’armée ukrainienne puise dans de nombreux registres communicationnels, spécialement ceux que connaissent et apprécient les jeunes générations. Entre simplification, esthétisation et gamification, différents moyens sont employés.

Une société connectée

La société ukrainienne est aujourd’hui l’une des plus connectées au monde : près de 96 % de la population possède des compétences numériques. Devenue un véritable hub technologique, toute l’Ukraine, de la société civile à l’armée, en tire profit.

La nomination de Mykhaïlo Fedorov à la tête du ministère de la Défense en janvier 2026 illustre bien cette imbrication : auparavant, il a occupé les postes de vice-premier ministre et ministre de la Transformation numérique. C’est d’ailleurs ce second ministère qui a propulsé l’application civile Diia, en 2020, qui regroupe les services gouvernementaux et les documents dématérialisés. Entre 2018 et 2024, l’Ukraine est passée de la 102e à la 5e place mondiale pour le niveau de développement des services publics numériques, selon l’Online Service Index de l’E-Government Development Index des Nations unies.

Cet élan se retrouve aussi du côté de l’armée, avec le portail Digital Army, une entreprise d’État qui regroupe des initiatives civiles, privées et militaires dans le but de créer un écosystème qui développe des solutions technologiques pour le secteur de la défense et l’armée.

Elle met en réseau des développeurs, des ingénieurs, des entreprises, des industriels et des partenaires internationaux.

En outre, les autorités mettent à la disposition du grand public deux applications : Army+ aide les militaires à régler plus rapidement les formalités administratives, et Reserve+ simplifie le recensement de données des personnes soumises à l’obligation militaire, qu’elles soient conscrites ou réservistes.

Esthétisation de la communication de guerre

Les images sont toujours au cœur des campagnes de communication, y compris celles militaires. Même les formats les plus traditionnels, tels que l’affichage, n’échappent pas à cette règle. En contexte de guerre, ces images sont même essentielles pour attirer l’œil. Les unités recourent à des opérations-séduction par l’affichage pour maintenir un cap de recrutement qui correspond à leurs attentes.

Exemple de publicité de l’agence de recrutement Lobby X : « Choisis ton poste et ton unité dans l’armée ». Photographie prise par l’auteur à Kiev (07 mai 2024). L.-P. Barthélémy, Fourni par l'auteur

Ces publicités, que l’on peut retrouver à peu près dans toutes les villes ukrainiennes, ne sont pas en reste par rapport aux autres canaux, alors que la question de la mobilisation et du recrutement est sensible dans le pays. Ici, les affiches invitant à rejoindre l’armée bénéficient d’une véritable esthétisation et d’une communication professionnelle et se fondent parmi les publicités des marques de luxe aux alentours.

Elles ne sont en réalité qu’un premier point de contact vers des informations dématérialisées, qui se prolongent dans l’espace numérique. Ainsi, on retrouve quasi systématiquement un QR code et l’adresse d’un site web, incitant les passants à en découvrir davantage avec un call-to-action accompagné d’accroches publicitaires fortes.

Capture d’écran du site recruiting-92.army : « Choisis ta voie dans la 92ᵉ brigade d’assaut ». recruiting-92.army

Ces sites web sont tout aussi travaillés, avec de belles typographies modernes, des photographies éditées et une interface utilisateur simple d’accès. Les témoignages et clips promotionnels ajoutent une dimension humaine pour inciter au recrutement. Très souvent, les éléments discursifs jouent sur l’unité, la camaraderie, l’engagement, la solidarité, la liberté de choisir son poste ou encore l’expérience unique. Les foires aux questions, les réseaux sociaux et les formulaires sont systématiquement mis en évidence lors de la navigation pour inciter les internautes à prendre contact.

Mobilisation citoyenne, mobilisation militaire

Penser l’armée ukrainienne nécessite une vision élargie à la société ukrainienne dans son ensemble, qui se mobilise au pays et à l’étranger en redoublant de créativité et d’innovation pour pallier les difficultés rencontrées par les militaires.

Les réseaux sociaux, souvent mentionnés pour leurs enjeux informationnels, sont aussi de puissants catalyseurs coercitifs et unificateurs. Les moyens d’incitation ne manquent pas pour aider les forces armées, qui recourent à diverses techniques pour lever des fonds ou récupérer du matériel. D’innombrables projets participatifs de type crowdfunding, souvent citoyens et non endossés officiellement par l’armée, étoffent l’effort de guerre, tel que SignMyRocket, par exemple, qui a permis aux donateurs de recevoir une photo d’un obus signé avec un message personnel en échange d’un don.

Soucieuse de la transparence de ces campagnes, la fondation Sternenko, acteur majeur du crowdfunding militaire ukrainien qui fournit des équipements, dont des drones, propose de nombreux rapports détaillés sur la façon dont les dons des citoyens sont mobilisés pour l’armée. À ces opérations s’ajoutent de tout aussi importantes levées de fonds orchestrées par la diaspora ukrainienne, qui soutient logistiquement ou financièrement son armée, même à distance, avec des événements culinaires, musicaux, folkloriques, du merchandising, des flashmobs, des campagnes de sensibilisation, etc.

Par ailleurs, il n’est pas rare de voir des jeux-concours sur des canaux Telegram pour inciter les citoyens à participer aux collectes. Celles-ci, à la durée et à la fréquence variables, permettent de maintenir indirectement le focus sur l’Ukraine. Au-delà de l’argent récolté, c’est aussi l’occasion pour les organisateurs de rappeler dans les sphères médiatiques internationales que la guerre continue et qu’elle ne perd pas en intensité, tant s’en faut.

Une « drone » de guerre compétitive

Incontournables, les drones occupent une place centrale dans la guerre en Ukraine, que ce soit pour les attaques, les opérations de reconnaissance ou encore de ravitaillement. De ce fait, les Forces de systèmes sans pilote (abrégées СБС, soit SBS, en ukrainien) ont créé un « killboard », un tableau qui affiche en temps quasi réel les statistiques de destructions opérées par les différentes unités : soldats ennemis, mais aussi véhicules blindés, motos, radars ou systèmes d’artillerie, liste non exhaustive. Cette initiative illustre ce qu’est la « gamification » de la guerre, à savoir le recours à des mécanismes de jeu dans des environnements non ludiques. Le site est également proposé en anglais pour toucher un public international, avec un lien qui renvoie vers la plate-forme de recrutement du SBS.

Capture d’écran du site sbs-group.army présentant les résultats obtenus par le 429ᵉ régiment de systèmes sans pilote « Achilles », entre le 1ᵉ juin et le 31 décembre 2025. sbs-group.army

Fleuron de la défense ukrainienne, la plate-forme gouvernementale Brave1 propose depuis 2023 une collaboration entre partenaires, investisseurs et entreprises pour développer l’industrie militaire. Elle fournit des subventions à des projets en phase de R&D, tout en facilitant l’approbation de technologies aux normes, telles que le NATO Stock Number.

Dans cette même logique de ludification, elle s’est étendue avec un marché qui « ressemble à Amazon » et qui connecte directement les fabricants, les développeurs et les unités militaires.

En parallèle, l’armée ukrainienne a lancé le programme « Army of Drones Bonus », soit un système d’e-points utilisables sur Brave1 Market : plus une unité neutralise de cibles (humaines ou matérielles), plus elle gagne de points, et plus elle peut donc les échanger contre des équipements, comme le désormais célèbre drone Baba Yaga.

Avec ce système compétitif, les autorités s’octroient un moyen de motivation pour les troupes tout en rétribuant celles qui contribuent le plus aux efforts défensifs. Les points varient en fonction de la nature de l’attaque : soldat capturé ou tué, tank détruit ou encore élimination d’un pilote de drone ennemi. Il ne s’agit pas de transformer la guerre en jeu, mais cela montre indirectement qu’elle est désormais conduite via des écrans et des algorithmes. Un reportage de la BBC soulignait des retours mixtes de la part des soldats sondés sur ce système : certains estiment que le système est bien pensé pour motiver les troupes, tandis que d’autres jugent que cela ne suffit pas pour lutter contre les désertions.

Dans le même esprit, UNITED24, plate-forme gouvernementale de donation pour l’Ukraine, propose au sein de son application un système de financement participatif où les donateurs peuvent suivre les unités qu’ils financent. L’enjeu communicationnel est ici clair : les donateurs sont embarqués au plus près du front au quotidien pour découvrir l’impact de leur soutien financier – témoignages, photos, vidéos ou encore messages de remerciements personnalisés.

Les bienfaiteurs peuvent ainsi choisir l’unité qu’ils souhaitent soutenir. Un classement, cette fois-ci côté donateur, permet une compétition amicale pour voir qui contribue le plus et inciter à aider davantage. De plus, les utilisateurs ont un profil personnalisé, avec un rang, un indicatif et un avatar. Les éléments de langage ne manquent pas pour inciter la communauté à agir, allant jusqu’à qualifier les donateurs de « digital defenders ». Plus qu’un don financier, c’est un combo donnant-donnant qui est ici présenté.

La guerre se matérialise également au travers du jeu vidéo. Très populaires, les drones FPV (first-person view) sont proposés via des simulateurs, à l’exemple du jeu Ukrainian Fight Drone Simulator (UFDS) développé par des Ukrainiens et qui tient compte de l’expérience réelle de combat.

Bien que ce jeu n’ait pas été créé directement par l’armée, il montre l’hybridation entre les données captées sur le front et un format ludique, ce qui peut, on l’imagine, susciter une sensibilisation chez les joueurs quant au rôle de ces drones qui dominent le champ de bataille.

D’aucuns vont encore plus loin, à l’instar de la 3e brigade d’assaut, qui a déployé son initiative Killhouse Academy, en proposant des formations d’entraînement, sur place, ouvertes principalement aux civils et aux militaires ukrainiens, notamment pour apprendre à piloter des drones avec la remise d’un certificat. Ce dernier peut servir autant de souvenir que de justificatif de compétences acquises pour l’armée, certaines unités requérant une preuve de capacité en amont pour manier les drones.

Une logique de recrutement et de motivation avant tout

Toutes ces stratégies servent des objectifs clairs : soutenir le développement de l’armée, maintenir un flot continu de recrues, mais aussi booster le moral en luttant contre la fatigue de guerre, dans un contexte où un nombre relativement important de conscrits potentiels cherchent par divers moyens à échapper à l’obligation de servir sous les drapeaux. Outre les recrutements dans les centres prévus à cet effet, ces leviers numériques et cette communication esthétisée permettent d’attirer aussi bien de nouveaux soldats que de nouveaux partenaires, y compris à l’international. Les contenus web de certaines brigades, ainsi que des sites opérés ou soutenus par celles-ci, sont d’ailleurs prévus à cet effet, avec des traductions multilingues, comme le montre par exemple la capture d’écran présentée plus haut.

Dans une guerre résolument hybride qui se manifeste plus que jamais dans le cyberespace, les autorités et les forces armées ukrainiennes travaillent de concert avec la société civile et leurs partenaires pour maintenir un équilibre défensif cohérent. Alors que les négociations diplomatiques s’essoufflent en ce début 2026, l’armée ukrainienne sait qu’elle doit poursuivre ses efforts d’attractivité face à l’invasion russe. Il en va de la capacité de résistance de l’Ukraine et de son peuple.The Conversation

Léo-Paul Barthélémy, Doctorant en sciences de l'information et de la communication, CREM, Université de Lorraine, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.