À l’image de l’Australie, qui a fixé une majorité numérique à 16 ans, Emmanuel Macron a récemment évoqué la possibilité d’interdire l’accès aux plateformes sociales aux moins de 15 ans. En attendant une éventuelle évolution législative, la Commission nationale de l’informatique et des libertés (CNIL) a dévoilé ce mois-ci FantomApp, une application gratuite destinée aux 10-15 ans, déjà disponible sur les magasins d’applications et en version web.
Son objectif est de permettre aux plus jeunes de mieux protéger leurs comptes, leurs données personnelles et d’identifier les bons réflexes en cas de difficulté en ligne. Conçue à partir d’ateliers menés dans plusieurs collèges, FantomApp a été développée en associant directement des adolescents au projet. Cette démarche collaborative a permis d’identifier des attentes fortes : comprendre les paramètres de visibilité, sécuriser ses comptes sans expertise technique et savoir vers qui se tourner en cas de problème. Selon une étude de l’Arcom, près d’un enfant sur deux est présent sur les réseaux sociaux avant 13 ans. Par ailleurs, 79 % des enfants disposent d’un téléphone portable avant 11 ans.
Des outils et des tutoriels
L’application s’articule autour de trois grands volets. Elle propose d’abord des informations pratiques et des contacts de confiance pour faire face au cyberharcèlement, à l’usurpation d’identité, aux tentatives d’arnaque ou au chantage à la photo intime. Elle intègre ensuite des outils concrets (test de robustesse des mots de passe, floutage de photos, analyse de la visibilité d’un pseudonyme ou d’un profil). Enfin, des tutoriels accompagnent les jeunes pas à pas pour paramétrer leurs comptes en limitant la diffusion de données personnelles.
FantomApp présente également les droits issus du cadre européen de protection des données de manière accessible, avec la possibilité de demander l’effacement de contenus ou de déposer une plainte via un formulaire dédié aux mineurs.
Financée par l’Union européenne, elle sera adaptée dans plusieurs langues.
L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.
De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.
Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?
Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.
Quand l’IA devient une partenaire relationnelle
Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.
L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.
Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.
Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.
Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.
Amie imaginaire ou compagne artificielle ?
Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.
Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.
Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.
Des promesses… mais aussi des dangers
Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.
Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.
Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.
Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.
De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.
Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.
Et pour la suite ?
L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.
L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.
La France fait face à une intensification des ingérences numériques. À l’approche des élections municipales, les autorités, de Viginum à la CNCCFP, alertent sur les risques de manipulation du débat public et appellent les candidats à se préparer.
Alors que le ministère de l’intérieur a fait cette semaine l’objet d’un cyberpiratage visant des fichiers sensibles – le Traitement d’antécédents judiciaires (TAJ) et le Fichier des personnes recherchées (FPR) – et que d’autres organismes publics ont aussi été visés, la France a également été victime d’une fake news, en l’occurrence une vidéo générée par intelligence artificielle annonçant un coup d’état militaire dans le pays.
En déplacement à Marseille dans le cadre de sa tournée nationale entamée le 12 novembre à La Dépêche sur « La démocratie face aux réseaux sociaux et aux algorithmes », Emmanuel Macron a vivement dénoncé cette opération qui illustre le niveau de la cybermenace – attaques ou ingérences étrangères – à des fins de déstabilisation.
Faux sites d’actualités locales
Une cybermenace qui pourrait directement perturber notre prochain scrutin électoral : les municipales de mars 2026. Alors que depuis début 2025, notre pays est l’une des principales cibles du réseau d’influence russe CopyCop, identifié comme une opération coordonnée par John Mark Dougan depuis Moscou, avec le soutien du GRU (le service de renseignement militaire russe) et du Centre d’expertise géopolitique (CGE), un rapport du groupe de recherche américain Insikt, spécialisé dans les menaces cyber, expliquait fin octobre avoir recensé au moins 141 faux sites d’information français, créés entre février et juin 2025.
Ces sites diffusent massivement du contenu généré par intelligence artificielle autour des mêmes thèmes récurrents : la défiance envers les institutions françaises avec des accusations inventées de corruption ou d’abus de pouvoir visant des responsables politiques et judiciaires ou de faux faits divers locaux liés à des étrangers. On a aussi vu ces derniers jours qu’au moins 16 sites de médias fictifs francophones du réseau Storm-1516, affilié au Kremlin, cherchent à amplifier en ligne le mouvement des agriculteurs. Les objectifs sont les mêmes : exacerber les débats locaux (ou nationaux) lors de la campagne électorale.
Dans ce contexte, la Commission nationale des comptes de campagne et des financements politiques (CNCCFP) a publié début septembre un guide d’alerte pour les candidats, soulignant explicitement le risque d’ingérences étrangères et appelant à la vigilance face à toute aide ou financement dont la provenance pourrait être suspecte.
Reconnaître les menaces
Cette semaine, Viginum – le service technique et opérationnel de l’État chargé de la vigilance et de la protection contre les ingérences numériques – a lui aussi publié un guide à destination des candidats : « Protéger le débat public numérique en contexte électoral – Guide de sensibilisation à l’attention des équipes de campagne ». Viginum a listé quatre grands risques : décrédibilisation du processus électoral (scrutin présenté comme truqué ou inutile), polarisation du débat public par l’instrumentalisation de sujets clivants, délégitimation des médias d’information au profit de sources alternatives manipulées et enfin atteinte à la réputation de candidats ou de partis.
Le guide présente les principaux modes opératoires et techniques qui pourraient être utilisés contre le scrutin et les candidats. Dans la palette de techniques sophistiquées, on trouve notamment l’usurpation d’identité (faux sites de médias, de partis ou d’institutions), la création de faux médias et faux reportages, la manipulation de la procédure électorale (fausses dates, rumeurs de fraude), l’usage de comptes inauthentiques (bots, trolls, astroturfing, copy-pasta), les publicités politiques détournées et ciblées, le recours dissimulé à des influenceurs rémunérés, la manipulation algorithmique via hashtags sur les réseaux sociaux, la décontextualisation d’images, de vidéos ou de propos, et bien sûr l’utilisation de l’intelligence artificielle, notamment les deepfakes, pour produire du « faux crédible ». Viginum illustre chaque technique par des exemples récents en France et à l’étranger (États-Unis, Roumanie, Espagne).
Bonnes pratiques
Pour se prémunir de ces actions malveillantes, Viginum recommande aux candidats une stratégie en trois temps. D’abord sensibiliser et former les équipes à identifier les sujets à risque et à mettre en place une veille dédiée. Ensuite, se préparer en organisant des exercices de gestion de crise et en définissant une communication de crise. Enfin, réagir en vérifiant les sources, ne pas relayer les fausses informations, signaler les contenus aux plateformes et aux organismes comme l’Arcom et Pharos, aux forces de l’ordre ou à Viginum selon les cas.
Préserver l’intégrité du débat démocratique numérique est un impératif et suppose la responsabilité collective des acteurs politiques. Surtout, ces bonnes pratiques pour les municipales pourront être affinées pour une autre élection aux enjeux vitaux pour le pays : la présidentielle de 2027.
Et si nos toilettes devenaient les alliées de notre santé ? Cette question, qui aurait paru incongrue il y a encore quelques années, est en train de devenir plus pertinente que jamais avec de nouvelles innovations.
Depuis plusieurs décennies, le Japon a déjà fait des toilettes un objet technologique à part entière. Chauffage de la lunette, jets d’eau réglables, désodorisation automatique : ces WC high-tech font partie du quotidien. Avec les prototypes récents de la société Toto, une nouvelle étape est désormais franchie : la cuvette devient un instrument d’observation du corps. Le fabricant japonais a présenté un système capable d’analyser les selles grâce à des capteurs optiques et des algorithmes, en évaluant leur forme, leur couleur ou leur consistance afin d’en tirer des indicateurs digestifs transmis à une application dédiée sur son smartphone.
Longtemps cantonnée au confort et à l’hygiène, la « smart toilet » (toilette intelligente) s’ouvre ainsi à un nouveau domaine, la santé. L’idée est simple : exploiter un moment incontournable de notre journée pour collecter, sans effort supplémentaire, des données biologiques jusque-là peu observées en dehors d’un cadre médical. Les excréments deviennent ainsi des signaux faibles, potentiellement utiles pour repérer des troubles digestifs, des déséquilibres alimentaires ou l’évolution de pathologies chroniques.
U-Scan, un module d’analyse d’urine
En Europe, cette logique est portée par la société Withings avec U-Scan, un module d’analyse d’urine qui se place directement dans la cuvette. Pas besoin de changer ses toilettes pour les rendre « intelligentes ». Fruit de plusieurs années de recherche et développement, ce « laboratoire miniaturisé » associe microfluidique, optique et intelligence artificielle pour analyser automatiquement quelques gouttes d’urine, puis transmettre les résultats par Wi-Fi, là aussi à une application mobile. Le système repose sur des cartouches interchangeables, dédiées au suivi nutritionnel ou à la santé rénale et vise un suivi régulier de paramètres comme l’hydratation, l’acidité urinaire ou certains métabolites.
Ces dispositifs d’analyse s’inscrivent dans une vraie tendance plus large : faire de la prévention un processus continu plutôt qu’un rendez-vous ponctuel avec le système de soins. En transformant les toilettes en capteurs passifs, industriels et start-up espèrent ainsi favoriser un dépistage plus précoce, objectiver l’évolution de maladies chroniques et encourager des changements de comportement à partir d’indicateurs concrets. À terme, certains y voient même un outil de veille épidémiologique, par l’analyse agrégée de biomarqueurs au sein de populations.
Mais la promesse se heurte à plusieurs limites. D’abord, la valeur clinique des données produites reste partielle. Les paramètres analysés par ces systèmes sont volontairement restreints et ne remplacent pas un examen biologique complet. Le risque de faux positifs, de faux négatifs ou d’anxiété inutile existe si ces outils sont perçus comme des dispositifs de diagnostic autonomes, sans médiation médicale.
La question sensible des données personnelles
Ensuite se pose la question sensible des données personnelles. Les toilettes connectées génèrent des informations d’une intimité extrême, stockées et parfois analysées dans le cloud. Leur sécurisation, le consentement des utilisateurs et les usages secondaires possibles de ces données constituent un enjeu majeur de confiance et de régulation.
Enfin, leur diffusion reste limitée par le coût – le WC Toto coûte jusqu’à 3 000 € – et l’acceptabilité sociale. Caméras, capteurs et algorithmes dans les WC bousculent, c’est peu de le dire, les représentations de la vie privée. Une validation clinique solide et un cadre clair sont indispensables si on veut que ces technologies deviennent un véritable outil de santé publique et non un gadget high-tech pour un marché de niche.
À l’heure où les algorithmes confinent les individus dans des bulles informationnelles, le travail de sourcing réalisé dans le cadre d’une activité de veille stratégique constitue un bel exemple d’acte concret et efficace permettant d’éclairer véritablement la décision.
Par Arnaud Marquant, directeur des opérations chez KB Crawl SAS
Dans un rapport prospectiviste issu des derniers Etats Généraux de l’information, plusieurs experts s’attachent à décrire l’information telle qu’elle pourrait être en 2050 (« Le monde de l’information en 2050 : des scénarios possibles », coordination INA, sept. 2024). Ces experts y formulent le vœu selon lequel les assistants personnels générés par l’IA pourraient être à terme gérés par des algorithmes limitant au maximum l’enfermement des citoyens dans les bulles informationnelles. On l’aura compris : l’enjeu est de taille, tant il s’avère que nous sommes actuellement en prise avec cet « effet tunnel ».
Diversifier ses sources pour éviter les angles morts
Comment préserver notre capacité à rester au plus près d’idées nouvelles, inattendues, voire divergentes ? Cette question, les organisations qui réalisent au quotidien une veille stratégique la traitent en profondeur, et avec elles les éditeurs de solutions qui les accompagnent. Elle nous renvoie très directement au sourcing, prérequis consistant précisément à garantir que l’information collectée par (et pour) une organisation demeure bien ouverte. Pour les veilleurs et éditeurs de solutions de veille, l’enjeu est clair : il s’agit de proposer des plateformes qui évitent les biais de répétition, tout en assurant un panorama d’opinions et de signaux suffisamment large pour éclairer la décision.
Pour parvenir à cet objectif, les éditeurs déploient une méthode précise, et ce dès le début du projet de veille. Lors des premières réunions de cadrage, les besoins du client sont détaillés : type d’information attendue, public visé, usages internes… À partir de là, les spécialistes de la veille activent un double levier. D’un côté, une infrastructure logicielle robuste ; de l’autre, un accompagnement humain et stratégique.
La véritable valeur ajoutée de cette action première réside dans sa capacité à bâtir une arborescence de sources équilibrée, combinant médias traditionnels, publications institutionnelles, opinions d’experts, mais aussi voix plus marginales, parfois issues du monde académique ou de l’activisme éclairé. L’objectif est d’éviter les angles morts informationnels. Il s’agit bien d’un travail de dentelle, seul à même de couvrir les grands axes sans négliger les signaux faibles.
Maintenir un écosystème de sources vivant dans la durée
Mais un plan de sourcing, aussi pertinent soit-il, peut rapidement devenir obsolète, et pour cause : il reflète un état des lieux réalisé à un instant T. Plus le temps passe, plus les sites Internet évoluent. Certains cessent d’émettre, d’autres émergent. Les veilleurs le savent : un projet de veille nécessite impérativement qu’une maintenance soit réalisée. Cette dernière est double. Elle est d’abord technique : il faut réparer les sources devenues inaccessibles, adapter les connecteurs à l’évolution des sites web. Elle est ensuite éditoriale : il convient d’identifier de potentiels nouveaux émetteurs, de détecter les jeunes experts qui publient, d’intégrer un blog ou une communication scientifique passée sous les radars.
Internet est un organisme vivant. À ce titre, le sourcing doit l’être aussi. Une revue trimestrielle ou mensuelle du corpus de sources, accompagnée d’un dialogue actif entre le client et l’éditeur, est indispensable pour maintenir un taux d’efficacité optimal. Car si une veille défaillante n’induit pas nécessairement une mauvaise décision, elle peut priver l’organisation d’une information déterminante. Et ça, c’est parfois suffisant pour prendre du retard sur la concurrence.
L’agilité du regard : une clef de différenciation stratégique
Les bénéfices d’un sourcing bien réalisé sont multiples. Prenons l’exemple concret, réel, d’une entreprise du secteur du luxe. En optant pour la surveillance resserrée de publications scientifiques, cette organisation a repéré ces derniers temps une innovation discrète en biotechnologie. Cela lui a permis de mettre à jour une collaboration inédite entre une jeune pousse (une start-up spécialisée) et un de ses concurrents historiques. Ce rapprochement, apparu dans une communication technique non relayée par les grands médias, s’est révélé très stratégique : il a permis d’orienter la réflexion interne de l’organisation, et a concrètement contribué à une décision d’investissement permettant d’anticiper une évolution du marché.
C’est à travers ce type d’exemple que l’on peut voir toute la pertinence du sourcing dans la veille. En dépassant le cadre purement vertical pour intégrer des sources périphériques (communications scientifiques donc, mais aussi offres d’emploi, dépôts de brevets, permis de construire…), elle enrichit la lecture de l’environnement et ouvre la porte à une intelligence stratégique collective.
À l’heure où les algorithmes nous incitent à demeurer au sein de bulles confortables, le sourcing réalisé dans le champ de la veille stratégique rappelle l’importance d’un regard large, ouvert, critique, sur son environnement informationnel. Car mal sourcer, c’est risquer de rater une opportunité ou, pire encore, de demeurer dans une perception erronée du réel.
Une leçon que notre société connectée, et de plus en plus cloisonnée, aurait sans doute tout intérêt à méditer.
Les intelligences artificielles qui donnent l’impression de comprendre nos émotions se multiplient. Sur Replika ou Snapchat AI, des millions de personnes dialoguent chaque jour avec ces systèmes conçus pour écouter et rassurer. Les modèles de langage, comme ChatGPT, Claude ou Gemini, prolongent cette tendance : leurs réponses empreintes d’approbation et d’enthousiasme instaurent une convivialité programmée qui finit par façonner une norme de dialogue aussi polie qu’inquiétante.
Le psychologue américain Mark Davis définit l’empathie comme la capacité à percevoir les états mentaux et émotionnels d’autrui, à s’y ajuster et à en tenir compte dans sa conduite. Les chercheurs distinguent deux versants : l’empathie cognitive, fondée sur la compréhension des intentions, et l’empathie affective, liée au partage du ressenti. Cette distinction, centrale en psychologie sociale, montre que l’empathie n’est pas une émotion mais relève d’une coordination interpersonnelle.
Dans la vie quotidienne comme dans les métiers de service, l’empathie structure ainsi la confiance. Le vendeur attentif, le soignant ou le médiateur mobilisent des codes d’attention : ton, regard, reformulation, rythme verbal. Le sociologue Erving Goffman parlait d’« ajustement mutuel » pour désigner ces gestes infimes qui font tenir la relation. L’empathie devient une compétence interactionnelle ; elle se cultive, se met en scène et s’évalue. Les sciences de gestion l’ont intégrée à l’économie de l’expérience : il s’agit de créer de l’attachement par la perception d’une écoute authentique et ainsi d’améliorer la proximité affective avec le consommateur.
Quand les machines apprennent à dialoguer
Le compagnon chatbot Replika revendique 25 millions de personnes utilisatrices, Xiaoice 660 millions en Chine et Snapchat AI environ 150 millions dans le monde. Leur efficacité repose fortement sur la reconnaissance mimétique : interpréter des indices émotionnels pour générer des réponses adaptées.
Dès la fin des années 1990, Byron Reeves et Clifford Nass avaient montré que les individus appliquent spontanément aux machines les mêmes règles sociales, affectives et morales qu’aux humains : politesse, confiance, empathie, voire loyauté. Autrement dit, nous ne faisons pas « comme si » la machine était humaine : nous réagissons effectivement à elle comme à une personne dès lors qu’elle adopte les signes minimaux de l’interaction sociale.
Les interfaces conversationnelles reproduisent aujourd’hui ces mécanismes. Les chatbots empathiques imitent les signes de la compréhension : reformulations, validation du ressenti, expressions de sollicitude. Si j’interroge ChatGPT, sa réponse commence invariablement par une formule du type :
« Excellente question, Emmanuel. »
L’empathie est explicitement mise en avant comme argument central : « Always here to listen and talk. Always on your side », annonce la page d’accueil de Replika. Jusqu’au nom même du service condense cette promesse affective. « Replika » renvoie à la fois à la réplique comme copie (l’illusion d’un double humain) et à la réponse dialogique (la capacité à répondre, à relancer, à soutenir). Le mot suggère ainsi une présence hybride : ni humaine ni objet technique mais semblable et disponible. Au fond, une figure de proximité sans corps, une intimité sans altérité.
De surcroît, ces compagnons s’adressent à nous dans notre langue, avec un langage « humanisé ». Les psychologues Nicholas Epley et John Cacioppo ont montré que l’anthropomorphisme (l’attribution d’intentions humaines à des objets) dépend de trois facteurs : les besoins sociaux du sujet, la clarté des signaux et la perception d’agentivité. Dès qu’une interface répond de manière cohérente, nous la traitons comme une personne.
Certains utilisateurs vont même jusqu’à remercier ou encourager leur chatbot, comme on motive un enfant ou un animal domestique : superstition moderne qui ne persuade pas la machine, mais apaise l’humain.
Engagement émotionnel
Pourquoi l’humain se laisse-t-il séduire ? Des études d’électro-encéphalographie montrent que les visages de robots humanoïdes activent les mêmes zones attentionnelles que les visages humains. Une découverte contre-intuitive émerge des recherches : le mode textuel génère davantage d’engagement émotionnel que la voix. Les utilisateurs se confient plus, partagent davantage de problèmes personnels et développent une dépendance plus forte avec un chatbot textuel qu’avec une interface vocale. L’absence de voix humaine les incite à projeter le ton et les intentions qu’ils souhaitent percevoir, comblant les silences de l’algorithme avec leur propre imaginaire relationnel.
Ces dialogues avec les chatbots sont-ils constructifs ? Une étude du MIT Media Lab sur 981 participants et plus de 300 000 messages échangés souligne un paradoxe : les utilisateurs quotidiens de chatbots présentent, au bout de quatre semaines, une augmentation moyenne de 12 % du sentiment de solitude et une baisse de 8 % des interactions sociales réelles.
Autre paradoxe : une étude sur les utilisateurs de Replika révèle que 90 % d’entre eux se déclaraient solitaires (dont 43 % « sévèrement »), même si 90 % disaient aussi percevoir un soutien social élevé. Près de 3 % affirment même que leur compagnon numérique a empêché un passage à l’acte suicidaire. Ce double constat suggère que la machine ne remplace pas la relation humaine, mais fournit un espace de transition, une disponibilité émotionnelle que les institutions humaines n’offrent plus aussi facilement.
À l’inverse, la dépendance affective peut avoir des effets dramatiques. En 2024, Sewell Setzer, un adolescent américain de 14 ans, s’est suicidé après qu’un chatbot l’a encouragé à « passer à l’acte ». Un an plus tôt, en Belgique, un utilisateur de 30 ans avait mis fin à ses jours après des échanges où l’IA lui suggérait de se sacrifier pour sauver la planète. Ces tragédies rappellent que l’illusion d’écoute peut aussi basculer en emprise symbolique.
Quand la machine compatit à notre place
La façon dont ces dispositifs fonctionnent peut en effet amplifier le phénomène d’emprise.
Les plateformes d’IA empathique collectent des données émotionnelles – humeur, anxiété, espoirs – qui alimentent un marché évalué à plusieurs dizaines de milliards de dollars. Le rapport Amplyfi (2025) parle d’une « économie de l’attention affective » : plus l’utilisateur se confie, plus la plateforme capitalise sur cette exposition intime pour transformer la relation de confiance en relation commerciale. D’ailleurs, plusieurs médias relaient des dépôts de plainte contre Replika, accusé de « marketing trompeur » et de « design manipulateur »", soutenant que l’application exploiterait la vulnérabilité émotionnelle des utilisateurs pour les pousser à souscrire à des abonnements premium ou acheter des contenus payants.
Si ce n’est pas encore clair au plan juridique, cette délégation de l’écoute a manifestement d’ores et déjà des effets moraux. Pour le philosophe Laurence Cardwell, il s’agit d’un désapprentissage éthique : en laissant la machine compatir à notre place, nous réduisons notre propre endurance à la différence, au conflit et à la vulnérabilité. Sherry Turkle, sociologue du numérique, souligne que nous finissons même par « préférer des relations prévisibles » à l’incertitude du dialogue humain.
Les études longitudinales ne sont pas toutes pessimistes. La psychologue américaine Sara Konrath observe depuis 2008 une remontée de l’empathie cognitive chez les jeunes adultes aux États-Unis : le besoin de comprendre autrui augmente, même si le contact physique diminue. La solitude agit ici comme une « faim sociale » : le manque stimule le désir de lien.
Les technologies empathiques peuvent donc servir d’objets transitionnels (comme « des doudous ») au sens où des médiations permettant de réapprendre la relation. Les applications thérapeutiques basées sur des agents conversationnels, telles que Woebot, présentent d’ailleurs une diminution significative des symptômes dépressifs à court terme chez certaines populations, comme l’ont montré des chercheurs dès 2017 dans un essai contrôlé randomisé mené auprès de jeunes adultes. Toutefois, l’efficacité de ce type d’intervention demeure principalement limitée à la période d’utilisation : les effets observés sur la dépression et l’anxiété tendent à s’atténuer après l’arrêt de l’application, sans garantir une amélioration durable du bien-être psychologique.
Devoir de vigilance
Cette dynamique soulève une question désormais centrale : est-il pertinent de confier à des intelligences artificielles des fonctions traditionnellement réservées aux relations humaines les plus sensibles (la confidence, le soutien émotionnel ou psychologique) ? Un article récent, paru dans The Conversation, souligne le décalage croissant entre la puissance de simulation empathique des machines et l’absence de responsabilité morale ou clinique qui les accompagne : les IA peuvent reproduire les formes de l’écoute sans en assumer les conséquences.
Alors, comment gérer cette relation avec les chatbots ? Andrew McStay, spécialiste reconnu de l’IA émotionnelle, plaide pour un devoir de vigilance (« Duty of care ») sous l’égide d’instances internationales indépendantes : transparence sur la nature non humaine de ces systèmes, limitation du temps d’usage, encadrement pour les adolescents. Il appelle aussi à une littératie émotionnelle numérique, c’est-à-dire la capacité à reconnaître ce que l’IA simule et ce qu’elle ne peut véritablement ressentir, afin de mieux interpréter ces interactions.
Le recours aux chatbots prétendument à notre écoute amène un bilan contrasté. Ils créent du lien, donnent le change, apaisent. Ils apportent des avis positifs et définitifs qui nous donnent raison en douceur et nous enferment dans une bulle de confirmation.
Si elle met de l’huile dans les rouages de l’interface humain-machine, l’empathie est comme « polluée » par un contrat mécanique. Ce que nous appelons empathie artificielle n’est pas le reflet de notre humanité, mais un miroir réglé sur nos attentes. Les chatbots ne feignent pas seulement de nous comprendre : ils modèlent ce que nous acceptons désormais d’appeler « écoute ». En cherchant des interlocuteurs infaillibles, nous avons fabriqué des dispositifs d’écho. L’émotion y devient un langage de surface : parfaitement simulé, imparfaitement partagé. Le risque n’est pas que les interfaces deviennent sensibles, mais que nous cessions de l’être à force de converser avec des programmes qui ne nous contredisent jamais.
Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (U. de Bourgogne) et CERIIM (Excelia), Excelia
Selon une enquête Firefox-YouGov, les Français aspirent à plus d’indépendance numérique, mais se heurtent à la surcharge de décisions, au suivi des données et à un sentiment d’impuissance face aux géants de la tech.
Une enquête publiée par Firefox, réalisée avec l’institut YouGov auprès de 2 012 adultes français, met en lumière une aspiration forte mais contradictoire : les Français veulent reprendre la main sur leur vie numérique et donc leurs données personnelles, tout en se sentant dépassés par la complexité des choix qui leur sont proposés. Dans un environnement numérique saturé d’options, l’autonomie apparaît, en effet, comme un idéal difficile à concrétiser.
Premier enseignement : la multiplication des choix n’est pas vécue de manière univoque. Une majorité relative des répondants (52 %) déclarent apprécier, ou ne pas être gênés par, la profusion d’options disponibles au quotidien. Mais 40 % estiment au contraire que cet excès devient accablant. Cette tension se traduit par un impact émotionnel tangible, particulièrement chez les plus jeunes. Plus d’un Français sur deux parmi la génération Z (53 %) associe la prise de décision répétée à un sentiment d’épuisement ou à la peur de passer à côté d’une meilleure option. Ce phénomène, souvent résumé par l’acronyme FOMO, recule avec l’âge et ne concerne plus que 30 % des baby-boomers.
Le refus de partager ses données
Dans ce contexte, l’indépendance numérique se construit moins par la maîtrise technique que par des actes symboliques de résistance. Pour 44 % des Français, refuser de partager ses données personnelles constitue l’expression la plus forte de cette défiance. Le choix du navigateur internet arrive ensuite : un quart des répondants y voient un levier concret d’autonomie, au même titre que la sélection des informations consultées ou la gestion du temps passé en ligne. En revanche, seuls 16 % déclarent choisir réellement les communautés ou plateformes qu’ils fréquentent, signe d’un contrôle perçu comme limité. Les usages liés à l’intelligence artificielle ou à la construction d’identités numériques alternatives restent marginaux.
L’étude met également en évidence un malaise croissant face aux mécanismes de suivi et de personnalisation. Près de quatre Français sur dix se disent frustrés par la collecte de données opérée par les grandes entreprises technologiques sans consentement explicite. Un tiers dénonce les contenus et publicités ciblés, tandis que 30 % s’inquiètent de l’utilisation de leurs données pour entraîner des systèmes d’IA. Cette surveillance diffuse alimente un sentiment d’impuissance, renforcé par l’idée que les efforts individuels arrivent « trop peu, trop tard ».
Résultat : seuls 12 % des répondants estiment pouvoir faire des choix réellement efficaces pour protéger leur vie privée. Entre résignation, lassitude et incompréhension, l’autonomie numérique reste largement théorique, malgré une prise de conscience désormais bien installée.
Invisibles depuis la surface, les câbles sous-marins en fibre optique transportent plus de 99 % du trafic intercontinental et forment l’ossature de l’économie numérique mondiale. Alors que leur réseau doit croître de près de 50 % d’ici 2040, sous l’effet du cloud et de l’intelligence artificielle, les États s’inquiètent de leur vulnérabilité aux sabotages et à l’espionnage. L’atterrissement à Marseille du câble Medusa, accueilli dans les infrastructures d’Orange, illustre à la fois cette expansion et la course à la résilience.
Au XIXe siècle, le télégraphe a tissé la première trame de la mondialisation. Au XXIe, ce rôle est assumé par un réseau méconnu : près de 1,4 million de kilomètres de câbles sous-marins, qui transportent plus de 99 % du trafic internet international. Environ 550 à 570 systèmes sont aujourd’hui actifs, auxquels s’ajoutent plus de 80 projets en construction. L’Europe de l’Ouest, avec 152 câbles opérationnels, figure parmi les nœuds les plus denses de cette carte invisible qui relie continents, centres de données et grands hubs numériques. Derrière les usages quotidiens – vidéo, visioconférences, paiements, services en ligne – se jouent aussi des enjeux économiques considérables : transactions financières, services cloud, chaînes logistiques et plateformes numériques reposent sur cette "colonne vertébrale" en verre et en acier.
Les investissements dans de nouveaux systèmes devraient dépasser 10 milliards de dollars sur la période 2025-2029, avec une priorité donnée aux grandes routes transpacifiques et aux liaisons Asie-Pacifique. Les géants du cloud déploient leurs propres câbles, parfois sur des dizaines de milliers de kilomètres, afin de maîtriser de bout en bout le transport de données entre leurs centres.
Cette dynamique est désormais dopée par l’intelligence artificielle (IA). Les modèles d’IA et les services associés exigent, en effet, une bande passante massive et très stable entre data centers. Certains câbles peuvent déjà acheminer jusqu’à 400 Tbit/s.
Une croissance nette de 50 %
Selon les projections, 1,6 million de kilomètres supplémentaires devraient être posés d’ici 2040, tandis qu’environ 850 000 km seront retirés. La croissance nette du réseau atteindrait ainsi près de 50 %, et le nombre annuel de réparations augmenterait d’environ un tiers.
Dans ce contexte, Marseille illustre la montée en puissance des hubs régionaux. Le 8 octobre dernier, Orange y a accueilli le câble sous-marin Medusa (1 050 km pour son segment entre Marseille et Bizerte). La cité phocéenne concentre désormais l’arrivée de 17 câbles sous-marins, renforçant son statut de hub d’interconnexion mondial entre Europe, Afrique, Asie et Amériques.
Les câbles sous-marins sont devenus un enjeu stratégique majeur. Une coupure peut isoler des territoires, désorganiser des économies régionales et fragiliser la souveraineté numérique d’un État. Les incidents suspects en mer Baltique et en mer Rouge, les perturbations répétées de câbles autour de Taïwan ou en mer de Chine méridionale, montrent que l’on est passé d’un risque "accidentel" – chalutiers, ancres, séismes, glissements sous-marins – à un risque géopolitique assumé, où les câbles deviennent des leviers de coercition.
Sabotage et intimidation
Dans le détroit de Taïwan, l’opérateur Chunghwa Telecom a recensé 27 incidents en cinq ans. En 2025, cinq dysfonctionnements ont déjà été signalés, contre trois en 2023 et trois en 2024. Chaque réparation immobilise un navire spécialisé, coûte entre 1 et 3 millions de dollars et peut entraîner plusieurs semaines de perturbation. En parallèle, des navires civils ou para-étatiques, des drones sous-marins et une milice maritime structurée sont mis en cause dans des actes de sabotage ou d’intimidation visant les câbles régionaux, tandis que des incidents comparables ont été documentés en mer Baltique. Le sabotage ciblé des câbles tend à s’imposer comme un instrument de pression à part entière dans la panoplie des stratégies dites hybrides.
Face à ces menaces, la défense repose d’abord sur la conception même des câbles (armures en acier, enfouissement près des côtes, diversification des routes, stations d’atterrissement fortement sécurisées). Le chiffrement généralisé des flux limite les risques d’espionnage, tandis que de nouvelles technologies de détection vibratoire permettent de repérer des anomalies le long des fibres. Mais la résilience dépend aussi d’éléments plus discrets : une flotte de navires de maintenance vieillissante, dont une partie devra être remplacée d’ici 2040, et des modèles économiques qui peinent à financer ces investissements.
La décennie qui s’ouvre sera donc décisive. Plus de câbles, plus de trafic, plus de tensions politiques… mais encore trop peu de capacités de réparation souveraines et de redondance robuste.
Vous l’ignorez peut-être, mais sous le Louvre, se cache un laboratoire un peu particulier, le Centre de recherche et de restauration des musées de France. Il a pour mission d’étudier, de documenter et d’aider à la restauration des œuvres des 1 200 musées de France. Benoît Tonson, chef de rubrique Science et Technologie, y a rencontré Elisabeth Ravaud. Elle est l’autrice d’un ouvrage de référence sur l’utilisation de la radiographie appliquée à l’étude des peintures « Radiography and Painting » et l’une des plus grandes spécialistes mondiales de cette discipline.
The Conversation : Vous êtes entrée au laboratoire du Louvre en 1993, pourtant à cette époque vous n’étiez ni historienne de l’art ni restauratrice…
Elisabeth Ravaud : À l’époque, je suis médecin, spécialisée en radiodiagnostic et imagerie médicale. J’ai fait mes études de médecine à Paris, à la Pitié-Salpêtrière, puis passé l’internat des hôpitaux de Paris. En parallèle de cette activité hospitalière, j’ai toujours cultivé un goût pour l’histoire de l’art. J’avais d’ailleurs entamé un cursus dans cette discipline, bénéficiant d’une équivalence en deuxième année grâce à ma thèse de doctorat : après sept ans de médecine, on y avait droit. Un jour, on m’a annoncé qu’il me fallait faire un stage. Et c’est comme ça, presque par hasard, que j’ai atterri ici.
Naturellement, je me suis intéressée à la radiographie, le seul point commun évident entre mes études médicales et l’examen des œuvres d’art. Dans le monde hospitalier, je pratiquais la radio conventionnelle, mais aussi l’échographie, l’écho-Doppler, la radiologie interventionnelle, le scanner, l’IRM… Tout un arsenal qui n’existe évidemment pas pour les œuvres. La radio, elle, constituait un vrai pont.
Quelles sont les grandes différences que vous avez pu remarquer entre l’hôpital et le laboratoire ?
E. R. : Très vite, un point m’a frappée : en lisant les rapports ou les articles produits à l’époque, j’ai eu l’impression que l’interprétation des radiographies d’œuvres se limitait aux signes les plus évidents. Par exemple, vous voyez trois personnages sur la radio, mais seulement deux sur le tableau, on en déduit qu’un personnage a été recouvert. Mais tout ce qui relevait d’une information plus subtile semblait laissé de côté. Or, je venais d’un milieu où l’image est examinée en long, en large et en travers. On n’aborde jamais l’examen d’un foie sans jeter un œil aux reins, aux poumons : l’interprétation est systématique, structurée. Cette différence méthodologique m’a immédiatement sauté aux yeux.
Autre surprise : dans les rapports, rien sur les supports, les essences de bois, la toile, les petits signes discrets… On se contentait des évidences. Et quand j’ai voulu me documenter, là où la médecine offre des bibliothèques entières, j’ai découvert qu’en imagerie d’œuvres d’art, il n’existait pratiquement aucun ouvrage. L’information était éparpillée : un peu ici, un peu là, un article isolé… rien de systématisé.
À la fin de mon stage, on m’a proposé de rester. Et si je n’avais pas perçu cette sous-exploitation de l’image, et cette absence d’outils méthodologiques, je ne suis pas sûre que j’aurais accepté : j’avais déjà un poste hospitalier. Mais je me suis dit que je pouvais peut-être apporter quelque chose, une forme d’expertise méthodologique, en faisant passer mes compétences de l’univers médical au monde du patrimoine. C’est ce sentiment qui m’a finalement convaincue.
Sur quels types d’œuvres avez-vous travaillé ?
E. R. : Avec mon parcours, tout portait à croire que je travaillerais sur des objets en volume, comme on travaille en imagerie 3D à l’hôpital, je travaillais sur des corps, donc ce qui aurait pu s’en rapprocher le plus étaient les statues. Mais non : on m’a mise sur… la peinture. Ça m’a surprise. Et en même temps, cela a eu un effet décisif : j’ai réalisé que les tableaux, que beaucoup considèrent comme des objets en deux dimensions (une hauteur et une largeur), possèdent en réalité une profondeur, essentielle à prendre en compte en radiographie. L’épaisseur de la couche picturale, les structures internes du support, l’accumulation des matériaux… tout cela forme une troisième dimension qui conditionne l’interprétation. Et c’est précisément cette profondeur, parfois réduite à quelques millimètres, qui rend l’analyse complexe. Chaque signe radiographique doit être rapporté à sa structure d’origine.
Radiographie de la Joconde.E. Ravaud/E. Lambert-C2RMF, Fourni par l'auteur
Finalement, ce retour à la radio conventionnelle, alors que je travaillais surtout en scanner et IRM, des techniques plus avancées, s’est révélé cohérent. Comme en médecine, la radiographie conventionnelle conserve son importance. Elle offre une première vision globale, oriente le diagnostic, et guide vers d’autres examens. Dans le domaine du patrimoine, elle joue ce même rôle fondamental.
Pouvez-vous nous rappeler le principe de la radiographie ?
E. R. : La radiographie est une technique d’imagerie fondée sur les rayons X, découverts en 1895 par Wilhelm Röntgen, physicien allemand travaillant à l’Université de Würzburg (Bavière). Elle consiste à produire, à partir d’un tube, un faisceau de rayons X qui traverse la matière en subissant une atténuation. Cette atténuation est décrite par la loi de Beer-Lambert. Il s’agit d’une décroissance exponentielle dépendant de l’épaisseur traversée, plus elle est grande, plus l’atténuation est forte, cette décroissance dépend également de la nature du matériau. Par exemple, un métal a un coefficient d’atténuation très élevé : en quelques dizaines de microns, il arrête presque totalement les rayons X. À l’inverse, l’air laisse passer les rayons X très facilement.
Voici le principe : un faisceau homogène traverse successivement le support, la préparation et la couche picturale. Chaque photon est atténué différemment selon les matériaux rencontrés, transformant le faisceau initialement homogène en un faisceau hétérogène. Cette hétérogénéité est ensuite enregistrée par les émulsions radiographiques ou les capteurs numériques.
Historiquement, sur film, plus l’énergie résiduelle est importante, plus l’émulsion devient noire ; à l’inverse, un matériau très absorbant, comme un clou, laisse très peu d’énergie au film, qui reste blanc. L’air apparaît donc noir, le métal blanc. La radio permet ainsi d’observer simultanément le support, la préparation et la couche picturale.
J’ai illustré cela avec la Belle Ferronnière, de Léonard de Vinci. On y voit les stries du bois de noyer, caractéristiques du support ; les stries transversales correspondant aux coups de pinceau de la préparation, destinée à régulariser la surface du support ; puis la couche picturale, reconnaissable par la forme du portrait et fortement influencée par la nature des pigments. Les carnations, en particulier, apparaissent très marquées en radiographie car elles contiennent un pigment utilisé depuis l’Antiquité jusqu’à la fin du XIXe ou le début XXe siècle : le blanc de plomb. Le plomb arrête fortement les rayons X, ce qui rend ces zones très lisibles.
C’est d’ailleurs parce que les peintres anciens utilisaient du blanc de plomb que la radiographie est si informative sur leurs œuvres. À l’inverse, les peintures acryliques contemporaines sont composées d’éléments organiques : elles se laissent traverser, ce qui rend la radiographie beaucoup moins performante.
Vous disiez qu’au moment de votre arrivée au laboratoire, on n’exploitait pas le plein potentiel de la radiographie, c’est-à-dire ?
E. R. : Ce qui m’a surprise, c’est que personne ne s’était réellement intéressé au bois. Pourtant, l’essence du panneau est essentielle, car elle constitue un véritable témoin de provenance. En Italie, les peintres utilisent généralement le peuplier ou le noyer (en Lombardie, notamment) tandis que les panneaux flamands sont réalisés en chêne. Ainsi, si on vous présente un tableau prétendument italien et que la radiographie révèle un support en chêne, on peut avoir de sérieux doutes quant à l’authenticité. Ces indices concernant les supports (bois, toile, papier) ne sont pas aussi spectaculaires que les repentirs.
Dans les années 1920–1930, la radiographie était perçue comme une « lanterne magique » : on faisait une radio et l’on découvrait trois personnages au lieu de deux, ou un bras levé au lieu d’un bras baissé. Ce caractère spectaculaire a beaucoup impressionné, et il continue d’impressionner : chaque fois que je vois une radio riche en informations cachées, il y a toujours ce « Waouh ! » Mais paradoxalement, cette fascination pour l’effet spectaculaire a plutôt freiné l’intérêt pour des signes plus modestes.
Par exemple, je peux identifier qu’un panneau a été confectionné à partir de noyer. Je peux aussi déterminer le type de préparation utilisé pour préparer les panneaux avant de les peindre : à l’époque de Léonard de Vinci, par exemple, on utilisait surtout des préparations à base de calcium alors que Léonard, lui, utilisait des préparations au blanc de plomb. Ce sont ce type de signes, plus discrets, sur lesquels j’ai passé du temps.
L’examen lui-même est simple à réaliser : l’équipement nécessaire est accessible, et on pourrait même faire une radiographie en ville, chez un radiologue. Mais ce que j’ai surtout transféré de la médecine vers le patrimoine, c’est une méthodologie, une manière d’aborder l’image de façon systématique. Les techniques, elles, sont différentes. J’ai dû réapprendre l’anatomie du tableau : ses couches, comment il est fabriqué, avec quels pigments, quelles compositions. Et ensuite, comme en médecine, voir des cas, accumuler de l’expérience. Cela a été une aventure passionnante.
Au-delà de la radiographie, utilisez-vous d’autres techniques d’imagerie ?
E. R. : La radiographie ne se suffit pas à elle-même. On la croise avec de nombreuses autres techniques d’imagerie, que j’ai dû apprendre en arrivant ici, car elles diffèrent totalement de celles du milieu médical. On ne fait pas d’IRM ni de scanner, mais on utilise des infrarouges qui permettent de pénétrer la couche picturale et de révéler le dessin préparatoire. L’ultraviolet, lui, renseigne surtout sur les matériaux en surface, comme le vernis, ou sur les retouches qui apparaissent comme des taches noires sur la fluorescence du vernis ancien.
La micro-fluorescence X consiste à exciter la matière picturale avec un rayonnement X faible. La matière réémet alors un rayonnement qui est enregistré sous forme de spectre, révélant les éléments présents : calcium, plomb, fer, cuivre, étain, strontium, argent, or, etc. Chaque point fournit la composition de tous les éléments présents. Depuis les années 2010, grâce à l’informatique, on peut faire ces mesures en déplacement continu, générant une « image cube », c’est-à-dire une cartographie complète du tableau où, en chaque point, on peut lire le spectre et isoler la présence d’un élément particulier, par exemple le mercure du vermillon.
Cette technique permet de cartographier différents pigments, comme le plomb, le cuivre ou l’étain, de manière très précise sur la couche picturale.
L’usage combiné de ces techniques a profondément amélioré l’étude fine des couches picturales, permettant d’exploiter au maximum les informations disponibles, tout en gardant la radiographie pour ses informations complémentaires.
Et toutes ces techniques, vous les avez appliquées pour étudier des tableaux de Léonard de Vinci ?
E. R. : Il faut savoir que les collections françaises possèdent cinq œuvres de Léonard de Vinci sur une quinzaine existantes dans le monde. Avoir accès à ce corpus a été une occasion exceptionnelle pour comparer sa manière de travailler au fil du temps. En radiographie, je le rappelle, l’opacité de l’image est proportionnelle à la quantité de matière présente : beaucoup de matière rend l’image opaque, peu de matière la rend transparente.
En comparant la Belle Ferronnière, la Joconde et Saint Jean-Baptiste, on observe une transparence croissante dans les radios : au fil du temps, Léonard utilise la préparation comme réflecteur de lumière, plaçant la matière avec une économie croissante mais précise pour créer des modulations subtiles. Cette information sur la quantité de matière est spécifique à la radio.
Concernant les liants (les matières qui servent à donner de la cohésion et une tenue dans le temps au dépôt de pigments sur un support), il faut savoir que jusqu’au XVe siècle, la peinture se faisait principalement à la tempera à l’œuf (on se servait de jaune d’œuf en guise de liant), liant rapide à sécher, qui obligeait à poser des coups de pinceau courts et qui produisait des couleurs opaques.
L’apparition de la peinture à l’huile a permis de poser des touches plus longues, de moduler la couleur et de créer des transparences impossibles avec la tempera. Elle est documentée dès le XIIIe siècle dans le nord de l’Europe, car dans ces régions la tempera avait tendance à moisir à cause de l’humidité.
En Italie, où le climat était plus clément, l’huile s’est imposée plus tardivement, offrant aux artistes de nouvelles possibilités expressives. Léonard de Vinci, autour de 1472-1473, figure parmi les premiers peintres florentins à utiliser l’huile, marquant ainsi un tournant dans la peinture italienne et la manière de travailler les couches et les effets de lumière.
À l’époque de Léonard, les peintres ne maîtrisaient pas encore très bien le liant et les siccatifs (substances qui jouent un rôle de catalyseur en accélérant le séchage). Ils risquaient soit d’en mettre trop, soit pas assez, et le séchage pouvait devenir problématique : trop rapide, cela provoquait des craquelures prématurées et trop lent, il fallait attendre longtemps avant de poser la couche suivante.
Les écrits de Léonard témoignent de cette inventivité constante : ses recettes de peinture montrent un véritable inventaire de techniques et d’astuces, qu’il mélangeait à des notes sur d’autres domaines. En consultant ses manuscrits pour le travail sur Léonard que nous avons effectué en 2019, on découvre à quel point ces documents sont dispersés : certaines pages contiennent beaucoup d’informations sur la peinture, d’autres seulement trois lignes sur une recette, mêlées à des calculs mathématiques, des études d’hydraulique ou des croquis divers.
Sur une même feuille, il pouvait noter une ébauche pour une Vierge à l’Enfant, un calcul algébrique, un projet hydraulique, et bien d’autres idées, ce qui donne l’impression qu’il avait cent idées à la minute qu’il couchait toutes en vrac.
Grâce à toutes ces lectures, vous êtes capable de reproduire la peinture utilisée par Léonard ?
E. R. : Je me suis particulièrement intéressée à un aspect très spécifique des peintures de Léonard, les grains de verre. On savait déjà que certains peintres, notamment au XVIe siècle, en ajoutaient dans leurs peintures, mais les publications existantes se contentaient de constater leur présence sans vraiment l’expliquer.
Cela m’a amené à me poser la question : à quoi servaient réellement ces grains de verre ? Pour y répondre, j’ai monté un projet de recherche visant à comprendre leur rôle, en testant trois hypothèses principales. La première était que les grains de verre pouvaient modifier la rhéologie de la peinture, c’est-à-dire la manière dont elle se comporte sous le pinceau. La deuxième supposait qu’ils favorisaient le séchage, ce qui était une problématique importante avec le nouveau liant à l’huile utilisé à l’époque. La troisième portait sur la transparence, car le verre est un matériau naturellement transparent et pourrait influencer l’effet visuel.
Les résultats ont montré que les grains de verre n’altèrent pas la texture de la peinture, ce qui est un avantage. Le peintre peut les incorporer sans modifier son geste ou son « écriture ». En revanche, ils favorisent un séchage doux, moins rapide et moins problématique que celui produit par d’autres siccatifs. Sur le plan de la transparence, les analyses optiques ont confirmé que l’ajout de verre fonctionne comme l’ajout d’huile, mais sans entraîner les complications de séchage : l’indice de réfraction du verre et de l’huile étant similaire, la peinture gagne en transparence tout en restant stable. Étant donné l’intérêt constant de Léonard pour la lumière et les effets optiques, je suis convaincue que cette transparence jouait un rôle central et constituait un argument important dans ses choix techniques.
L’Arcep publie la deuxième édition de son observatoire dédié à l’extinction des réseaux 2G et 3G. Malgré la baisse constatée au troisième trimestre 2025, 5,6 millions de cartes SIM restent actives sur ces technologies en France métropolitaine, alors que les opérateurs approchent des échéances de coupure.
À un an des premières échéances d’extinction annoncées par les opérateurs, l’Arcep affine son diagnostic sur la transition vers les technologies 4G et 5G. La deuxième édition de l’observatoire lancé en septembre 2025 confirme un recul du parc de cartes SIM encore limité aux réseaux 2G ou 3G/2G, mais le volume résiduel demeure significatif : 5,6 millions d’unités en service à fin septembre. Sur un trimestre, le retrait de 285 000 cartes, soit – 4,8 %, traduit une dynamique engagée mais insuffisante au regard du calendrier de fermeture des réseaux historiques.
L’analyse distingue clairement les usages. 2,6 millions de cartes SIM, représentant 47 % du total, sont insérées dans des terminaux destinés aux services voix, SMS ou internet mobile : 1,6 million en 2G et 1 million en 3G/2G. Les 3 millions restants, soit 53 %, relèvent d’équipements Machine to Machine (MtoM), un segment où la persistance des technologies anciennes demeure structurelle. Là encore, la répartition est contrastée : 1,1 million en 2G, 1,9 million en 3G/2G.
L’enjeu de préparation
La décroissance est plus nette lorsque l’on observe l’évolution du trimestre. Entre juin et septembre 2025, le parc 2G utilisé pour des services voix/SMS/data recule de 4 %, tandis que le segment MtoM en 2G enregistre une contraction supérieure à 10 %. Cette tendance reflète les premiers effets des actions de migration menées par Bouygues Telecom, Free Mobile, Orange et SFR, mais l’Autorité anticipe un mouvement plus marqué à mesure que les dates d’extinction se rapprochent.
L’Arcep insiste sur l’enjeu de préparation. Le remplacement des terminaux encore limités aux anciens standards constitue désormais un impératif industriel, notamment pour les acteurs dont les flottes MtoM reposent sur des équipements difficiles à renouveler rapidement. L’Autorité prévient qu’elle suivra de près les opérations engagées par les opérateurs afin d’éviter toute rupture de service au moment où les réseaux 2G, puis 3G, seront progressivement désactivés.
C’est le résultat de plusieurs années de campagne du gouvernement australien et de parents d’enfants victimes de harcèlement en ligne : l’entrée en vigueur d’une loi interdisant les réseaux sociaux aux moins de 16 ans. Des applications telles qu’Instagram, Snapchat, X, Facebook ou encore Reddit sont désormais soumises à l’obligation de bannir tous les utilisateurs de moins de 16 ans sous peine d’amendes. Si cette loi soulève de nombreuses questions sur son efficacité réelle et ses modalités de mise en œuvre, et si d’autres pays privilégient des mesures moins contraignantes, le texte n’en constitue pas moins une première mondiale et suscite un intérêt à l’international. Affaire à suivre…
Après des mois d’attente et de débats, la loi sur les réseaux sociaux en Australie est désormais en vigueur. Les Australiens de moins de 16 ans doivent désormais composer avec cette nouvelle réalité qui leur interdit d’avoir un compte sur certaines plates-formes de réseaux sociaux, notamment Instagram, TikTok et Facebook.
Seul le temps dira si cette expérience audacieuse, une première mondiale, sera couronnée de succès. En attendant, de nombreux pays envisagent déjà de suivre l’exemple de l’Australie, tandis que d’autres adoptent une approche différente pour tenter d’assurer la sécurité des jeunes en ligne.
La présidente de la Commission européenne, Ursula von der Leyen, a déclaré qu’elle avait étudié les restrictions australiennes et la manière dont elles traitent ce qu’elle a qualifié d’« algorithmes qui exploitent la vulnérabilité des enfants », laissant les parents impuissants face au « tsunami des big tech qui envahit leurs foyers ».
En octobre, la Nouvelle-Zélande a annoncé qu’elle allait introduire une législation similaire à celle de l’Australie, à la suite des travaux d’une commission parlementaire chargée d’examiner la meilleure façon de lutter contre les dommages causés par les réseaux sociaux. Le rapport de la commission sera publié début 2026.
Le Pakistan et l’Inde visent à réduire l’exposition des enfants à des contenus susceptibles de leur porter préjudice, en introduisant des règles exigeant l’accord parental et la vérification de l’âge pour accéder aux réseaux sociaux, ainsi que des exigences en matière de modération adressées aux plates-formes.
La Malaisie a annoncé qu’elle interdirait l’accès aux réseaux sociaux aux enfants de moins de 16 ans à partir de 2026. Cette mesure s’inscrit dans la continuité de l’obligation imposée à partir de janvier 2025 aux réseaux sociaux et aux plates-formes de messagerie comptant au moins huit millions d’utilisateurs d’obtenir une licence d’exploitation et de mettre en place des mesures de vérification de l’âge et de sécurité des contenus.
De son côté, la France envisage d’interdire les réseaux sociaux aux moins de 15 ans et d’imposer un couvre-feu de 22 h à 8 h pour l’utilisation des plates-formes aux 15-18 ans. Ces mesures font partie des recommandations formulées par une commission d’enquête française en septembre 2025, qui a également prescrit d’interdire les smartphones à l’école et d’instaurer un délit de « négligence numérique pour les parents qui ne protègent pas leurs enfants ».
En 2023, la France a promulgué une loi contraignant les plates-formes à obtenir l’accord des parents des enfants de moins de 15 ans pour que ces derniers puissent créer un compte sur les réseaux sociaux. Pour autant, cette mesure n’a pas encore été mise en application. C’est également le cas en Allemagne : dans ce pays, les enfants âgés de 13 à 16 ans ne peuvent accéder aux plates-formes qu’avec l’accord de leurs parents, mais dans les faits, aucun contrôle réel n’est exercé.
En Espagne, l’âge minimum pour créer un compte sur les réseaux sociaux passera de 14 ans actuellement à 16 ans. Les moins de 16 ans pourront tout de même créer un compte à la condition expresse d’avoir l’accord de leurs parents.
La Norvège a annoncé en juillet son intention de restreindre l’accès aux réseaux sociaux pour les moins de 15 ans. Le gouvernement a expliqué que la loi serait « conçue dans le respect des droits fondamentaux des enfants, notamment la liberté d’expression, l’accès à l’information et le droit d’association ».
En novembre, le Danemark a annoncé souhaiter « l’interdiction de l’accès aux réseaux sociaux à toute personne âgée de moins de 15 ans ». Cependant, contrairement à la législation australienne, les parents peuvent passer outre ces règles afin de permettre aux enfants âgés de 13 et 14 ans de conserver leur accès à ces plates-formes. Toutefois, aucune date de mise en œuvre n’a été fixée et l’adoption du texte par les législateurs devrait prendre plusieurs mois. On ignore la façon dont l’interdiction danoise sera appliquée. Mais le pays dispose d’un programme national d’identification numérique qui pourrait être utilisé à cette fin.
En juillet, le Danemark a été sélectionné pour participer à un programme pilote (avec la Grèce, la France, l’Espagne et l’Italie) visant à tester une application de vérification de l’âge qui pourrait être lancée dans toute l’Union européenne à l’intention des sites pour adultes et d’autres fournisseurs de services numériques.
La présidente de la Commission européenne, Ursula von der Leyen, étudie les restrictions imposées par l’Australie sur les réseaux sociaux. L’Union européenne pourrait suivre l’exemple de l’Australie.Wikimedia, CC BY
Des résistances
Pour autant, ce type de restrictions n’est pas appliqué partout dans le monde.
Par exemple, la Corée du Sud a décidé de ne pas adopter une interdiction des réseaux sociaux pour les enfants. Mais elle interdira l’utilisation des téléphones portables et autres appareils dans les salles de classe à partir de mars 2026.
Dans la ville de Toyoake (au sud-ouest de Tokyo, au Japon), une solution très différente a été proposée. Le maire de la ville, Masafumi Koki, a publié en octobre une ordonnance limitant l’utilisation des smartphones, tablettes et ordinateurs à deux heures par jour pour les personnes de tous âges.
Koki est informé des restrictions imposées par l’Australie en matière de réseaux sociaux. Mais comme il l’a expliqué :
« Si les adultes ne sont pas tenus de respecter les mêmes normes, les enfants n’accepteront pas les règles. »
Bien que l’ordonnance ait suscité des réactions négatives et ne soit pas pas contraignante, elle a incité 40 % des habitants à réfléchir à leur comportement, et 10 % d’entre eux ont réduit le temps passé sur leur smartphone.
Aux États-Unis, l’opposition aux restrictions imposées par l’Australie sur les réseaux sociaux a été extrêmement virulente et significative.
Les médias et les plateformes états-uniens ont exhorté le président Donald Trump à « réprimander » l’Australie au sujet de sa législation. Ils affirment que les entreprises états-uniennes sont injustement visées et ont déposé des plaintes officielles auprès du Bureau américain du commerce.
Le président Trump a déclaré qu’il s’opposerait à tout pays qui « attaquerait » les plates-formes états-uniennes. Les États-Unis ont récemment convoqué la commissaire australienne à la sécurité électronique Julie Inman-Grant pour témoigner devant le Congrès. Le représentant républicain Jim Jordan a affirmé que l’application de la loi australienne sur la sécurité en ligne « impose des obligations aux entreprises américaines et menace la liberté d’expression des citoyens américains », ce que Mme Inman-Grant a fermement nié.
Maintien de la vigilance mondiale
Alors que la plupart des pays semblent s’accorder sur les préoccupations liées au fonctionnement des algorithmes et aux contenus néfastes auxquels les enfants sont exposés sur les réseaux sociaux, une seule chose est claire : il n’existe pas de solution miracle pour remédier à ces problèmes.
Il n’existe pas de restrictions faisant consensus ni d’âge spécifique à partir duquel les législateurs s’accorderaient à dire que les enfants devraient avoir un accès illimité à ces plates-formes.
De nombreux pays en dehors de l’Australie donnent aux parents la possibilité d’autoriser l’accès à Internet s’ils estiment que cela est dans l’intérêt de leurs enfants. Et de nombreux pays réfléchissent à la meilleure façon d’appliquer les restrictions, s’ils mettent en place des règles similaires.
Alors que les experts soulignent les difficultés techniques liées à l’application des restrictions australiennes, et que les jeunes Australiens envisagent des solutions de contournement pour conserver leurs comptes ou trouver de nouvelles plates-formes à utiliser, d’autres pays continueront à observer et à planifier leurs prochaines actions.
Lisa M. Given, Professor of Information Sciences & Director, Social Change Enabling Impact Platform, RMIT University