Technomedia

Numérique · médias · sciences · intelligence artificielle

La France parmi les pays les mieux préparés à intégrer l’intelligence artificielle dans la finance

IA


Malgré la domination américaine et britannique, l’Hexagone s’impose dans le top 5 grâce à ses investissements, son cadre législatif et son potentiel académique.

Alors que les institutions financières et les cabinets comptables considèrent de plus en plus l’intelligence artificielle comme un levier majeur de transformation, le cabinet Archimedia Accounts publie une analyse comparative des pays les mieux préparés à intégrer l’IA dans le secteur financier. Si les États-Unis et le Royaume-Uni dominent le classement, la France parvient à se hisser au cinquième rang mondial, confirmant une trajectoire ascendante mais mesurée.

L’étude repose sur quatre piliers : la demande sur le marché du travail, l’offre académique en enseignement supérieur, les investissements privés en IA et l’adoption de cadres législatifs dédiés. Ces indicateurs offrent une cartographie de la capacité des grands centres financiers à absorber l’IA, non seulement comme outil technologique, mais aussi comme levier structurel de compétitivité.

Aux États-Unis, la dynamique est sans équivalent. Avec plus de 2 200 offres d’emploi dans la finance exigeant des compétences en IA, 23 universités classées parmi les meilleures mondiales en data science et plus de 109 milliards de dollars investis dans le secteur en 2024, le pays confirme sa stratégie d’hyper-investissement. Washington se distingue aussi par un arsenal législatif dense, avec 27 lois adoptées depuis 2016, illustrant une volonté de cadrer un domaine en expansion rapide.

classement

Le Royaume-Uni adopte une approche plus équilibrée. Avec 1 514 offres d’emploi recensées en 2025 et 11 universités classées parmi les références mondiales, il obtient le ratio le plus élevé de postes spécialisés rapportés à la population. Ses investissements (4,52 milliards de dollars) et ses dix lois adoptées en matière d’IA traduisent une stratégie cohérente, plaçant Londres dans une position de leadership européen.

Face à ces deux mastodontes, la France affiche une trajectoire plus prudente mais solide. Avec 422 offres d’emploi liées à l’IA dans la finance, 2,62 milliards de dollars d’investissements privés et neuf lois adoptées sur la période récente, l’Hexagone parvient à figurer dans le cercle restreint des cinq pays les mieux préparés. Trois universités françaises apparaissent dans le top 100 mondial, un signal encourageant pour la formation des futurs spécialistes. L’indice de développement numérique (0,98) souligne néanmoins un retard relatif par rapport aux champions mondiaux, mais traduit aussi une dynamique de progression.

La comparaison avec ses voisins et concurrents met en lumière les forces et limites de la France. L’Allemagne, malgré un volume d’offres d’emploi supérieur (933), ne bénéficie pas de la même reconnaissance académique et n’a pas encore transformé son effort législatif en avantage compétitif clair. L’Italie, plus proactive sur le plan politique avec dix lois adoptées, affiche une demande similaire (478 postes), mais reste moins avancée technologiquement. Quant au Canada, bien doté en infrastructures numériques et en investissements (2,89 milliards de dollars), son retard réglementaire l’empêche de rejoindre le peloton de tête.

L’Asie dessine un paysage contrasté. La Corée du Sud combine un excellent niveau de préparation numérique et une législation volontariste (13 lois), mais une demande encore faible en talents spécialisés. La Chine, elle, se distingue par un investissement massif (9,29 milliards de dollars) sans équivalent hors États-Unis, mais souffre d’un déficit législatif et d’un marché de l’emploi financier encore limité.

Dans ce concert mondial, la France se situe donc à la croisée des chemins. Ses indicateurs la placent dans une position de force relative, mais loin du modèle américain fondé sur la puissance d’investissement, et derrière la stratégie d’équilibre adoptée par le Royaume-Uni. Pour Archimedia Accounts, l’enjeu n’est pas seulement de rattraper le retard en matière de volume d’offres d’emploi ou de densité académique, mais de consolider un cadre législatif crédible et une dynamique d’investissement qui permette d’attirer durablement talents et capitaux.

Températures records : optimiser les data center sans épuiser les ressources naturelles

 

datacenter

La croissance fulgurante de l’intelligence artificielle accentue la pression sur les data centers, déjà pointés du doigt pour leur consommation massive d’eau et d’énergie. Face aux vagues de chaleur et aux restrictions en Europe, l’enjeu n’est plus d’agrandir les infrastructures mais de les optimiser : maximiser la performance par watt et la densité des racks pour concilier innovation et durabilité.

Par Jeff Wittich, Chief Product Officer chez Ampere

Avec l'explosion de la demande en IA, comment faire évoluer l'infrastructure informatique de manière durable sans épuiser les ressources en eau et en énergie ? Jeff Wittich, CPO chez Ampere Computing, suggère en premier lieu d'optimiser les performances par watt et la densité des racks dans l’infrastructure des centres de données existants.

L’Europe traverse un été hors norme. Les vagues de chaleur record et les sécheresses prolongées font pression sur les ressources disponibles en eau et en énergie. Cette situation contraint les gouvernements à adopter des mesures strictes, notamment en régulant sévèrement les data centers gourmands en ressources.

Des analyses récentes de l’UE ont sonné l'alarme : les data centers consomment des quantités excessives d’eau et d’énergie pour le refroidissement de leurs serveurs. La croissance des workloads d’IA ne fait qu’accroitre cette pression. La question n’est plus de savoir si la demande de puissance de calcul augmentera mais comment soutenir cette croissance sans aggraver la situation environnementale.

Une solution évidente consiste à renforcer la puissance de calcul même des data centers existants.

En optimisant l’efficacité de chaque watt d’électricité et la performance de chaque rack, il ne sera pas nécessaire de construire davantage de data centers, ce qui se traduit directement par une réduction des infrastructures, une baisse de la consommation électrique globale et une diminution des besoins en eau pour le refroidissement. La transition vers des infrastructures informatiques durables ne se limite pas à l'utilisation d'énergies plus propres ou à la conception de meilleurs systèmes de refroidissement. Elle implique également de réduire l'empreinte physique des systèmes informatiques eux-mêmes.

Pourtant, la réalité connaît une tendance inverse : l'essor de l'IA pousse les organisations à se regrouper et à déployer des infrastructures plus importantes, souvent équipées de matériel hautement spécialisé qui chauffe et consomme énormément d'énergie. Si les gains d’efficacité ne progressent pas, l’industrie sera condamnée à une expansion incontrôlée de ses infrastructures, chaque nouveau data center aggravant l’empreinte environnementale globale.

Cette crise est déjà une réalité : plusieurs régions européennes bloquent ou retardent les permis de construction de nouveaux data centers face aux pénuries énergétiques et à l’opposition des communautés locales. Plus tôt cette année à La Courneuve, certaines autorités locales chargées de l'environnement ont alerté sur la consommation en eau potable excessive des centres de données (près de 250.000 m³ par an) en période de sécheresse, suscitant des critiques et des inquiétudes quant à leur impact local et aux conflits d'utilisation. Dans ce contexte, l'efficacité des infrastructures ne constitue plus seulement un objectif technique, mais un enjeu déterminant pour les entreprises et les pouvoirs publics.

L'industrie doit désormais se concentrer sur l'optimisation des performances réelles par watt, non seulement au niveau des puces, mais également au niveau des racks et de l'ensemble des systèmes.

Ce niveau d'efficacité offre une grande flexibilité. Il permet aux fournisseurs cloud et IA d'évoluer sans modifier leur empreinte, de se déployer dans des environnements restreints et d'éviter de nouveaux conflits environnementaux et règlementaires.

Cette réalité impose une refonte radicale des architectures informatiques, où chaque décision technique doit désormais concilier deux impératifs : maximiser la performance par watt et intégrer en temps réel les innovations des processeurs les plus efficientes. Cela implique également de rééquilibrer les workloads et de concevoir des systèmes dont le débit est adapté à une consommation thermique et énergétique moindre. Une approche clé pour limiter la consommation d'eau et d'énergie, particulièrement cruciale dans les régions fortement impactées par le changement climatique. L’avenir de l’informatique durable repose sur l’optimisation intelligente des infrastructures actuelles plutôt que leur expansion aveugle.

"Bloquons tout" le 10 septembre : la mobilisation numérique affiche une intensité inédite

réseaux

À trois semaines du 10 septembre, l’appel à « tout bloquer » enflamme les réseaux sociaux. Avec plus de 338 000 tweets en un mois, soit un volume supérieur de 70 % à celui observé lors des débuts des Gilets jaunes, la mobilisation numérique affiche une intensité inédite. Entre hashtags anti-gouvernement, vidéos virales sur TikTok et soupçons d’astroturfing, l’analyse de Visibrain met en lumière une contestation plurielle dont la traduction dans la rue reste incertaine.

En quelques semaines, l’appel à « tout bloquer » le 10 septembre s’est imposé comme l’un des sujets dominants des réseaux sociaux en France. Selon l’analyse publiée par Visibrain, plateforme de veille spécialisée, plus de 338 000 tweets ont été recensés en un mois, soit une moyenne de 11 287 publications quotidiennes. Un volume supérieur de près de 70 % à celui des Gilets jaunes en 2018, soulignant la puissance de cette mobilisation numérique.

Une dynamique en plusieurs phases

La chronologie des publications révèle un démarrage fulgurant : 43 % des messages ont été diffusés dès les premiers jours. L’activité a ensuite marqué un repli, avant de repartir à la hausse après le 15 août, date de l’entrée en scène de La France insoumise, dont l’appel à descendre dans la rue a généré à lui seul 15 % du volume total observé. Cette séquence illustre le rôle déterminant des acteurs politiques dans l’amplification d’un mouvement initialement diffus de façon horizontale.

Les communautés qui portent ce mot d’ordre sont loin d’être homogènes. Visibrain identifie un éventail large : anti-système, partisans d’extrême droite, militants d’extrême gauche mais aussi la sphère médiatique. Cette diversité s’exprime dans les mots-clés utilisés. Aux côtés de hashtags hostiles au gouvernement (#gouvernementdetromperie, #macrondestitution, #macrondegage) figurent des références aux Gilets jaunes, ainsi qu’un mot d’ordre en nette progression, #bloquonstout, symbole de nouvelles formes d’organisation.

Faux comptes et astroturfing

Au-delà de l’engagement spontané, Visibrain met en lumière des pratiques d’astroturfing – l’utilisation de techniques de propagande manuelles ou automatisées à des fins publicitaires, politiques… Des profils suspects, parfois capables de publier plus de 1 000 tweets par jour, ont contribué à gonfler artificiellement l’impression de mobilisation. Comme le rappelle Guillaume Sylvestre, directeur digital intelligence de l’ADIT, l’astroturfing repose sur « l’idée de faire croire à un mouvement spontané, massif et légitime », alors même qu’il peut être orchestré par des militants rémunérés ou des réseaux de faux comptes. Cette stratégie fragilise la frontière entre contestation authentique et opération de communication politique.

Si X (ex-Twitter) concentre l’essentiel de l’activité, d’autres plateformes relaient le mouvement. Sur TikTok, les contenus liés au 10 septembre cumulent déjà plus de 6,2 millions de vues. On y observe un spectre large : vidéos de soutien, appels explicites à manifester, mais aussi critiques contre certaines formations politiques, accusées de récupération. Facebook participe également à cette circulation, contribuant à diffuser le mot d’ordre au-delà des cercles militants traditionnels.

Entre effervescence digitale et incertitudes réelles

Le constat dressé par Visibrain met en évidence une mobilisation en ligne sans précédent par son intensité. Mais la question demeure : cette effervescence numérique se traduira-t-elle dans la rue le 10 septembre ? L’histoire récente, des Gilets jaunes aux mobilisations contre la réforme des retraites, a montré que le passage du numérique au terrain dépend autant de la capacité des initiateurs à structurer un mouvement que de l’adhésion des citoyens hors ligne.

À ce stade, la mobilisation reste un objet digital puissant, révélateur d’un climat de défiance généralisée, mais encore incertain dans sa traduction concrète.

 

Trophées de la e-santé 2025 : les innovations médicales numériques à l’honneur en novembre à Castres

esante

La 19ᵉ édition des Trophées de la e-santé est lancée. Véritable tremplin pour les startups et projets innovants du numérique en santé, l’événement récompensera en novembre, à Castres, six solutions jugées les plus prometteuses pour transformer le soin et renforcer l’écosystème médical français.

La 19ᵉ édition des Trophées de la e-santé est officiellement lancée. Devenus un rendez-vous incontournable de l’Université de la e-santé, organisée à Castres-Mazamet, ces prix distingueront en novembre prochain les solutions numériques les plus prometteuses du secteur médical. Plus qu’une vitrine, ils constituent un véritable accélérateur pour les startups et projets qui façonnent la santé numérique de demain.

Depuis leur création, les Trophées ont récompensé plus d’une centaine d’initiatives. Certaines ont connu un développement spectaculaire après leur passage à Castres : OSO-AI, qui a levé 10 millions d’euros en 2022, SiView (5 M€ en 2021) ou Tilak Healthcare (10 M€ en 2018). Cette trajectoire confirme le rôle structurant d’une compétition devenue, au fil du temps, un radar à innovations.

Six prix attribués

L’édition 2025 maintient une architecture éprouvée : six prix seront attribués, dont quatre catégories thématiques (patients ; prévention et bien vieillir ; structures et professionnels de santé ; traitement et sécurisation des données) et deux distinctions spéciales, le Grand Prix du Jury et le Trophée des internautes. Les candidatures, ouvertes jusqu’au 25 septembre, devront porter sur des projets de R&D ou commercialisés depuis janvier 2023. Elles seront évaluées selon des critères combinant pertinence, valeur d’usage et solidité économique.

La finale se tiendra en deux temps : le 5 novembre, les porteurs de projets finalistes défendront leurs solutions lors de pitchs publics à l’école d’ingénieurs ISIS ; le lendemain, la remise des prix viendra clore l’Université de la e-santé. L’enjeu dépasse la reconnaissance symbolique.

Visibilité et la crédibilité pour les lauréats auprès de futurs partenaires

Pour les lauréats, la visibilité et la crédibilité acquises ouvrent l’accès à des partenariats hospitaliers, universitaires et financiers. L’édition 2024 avait confirmé cette dynamique, comme en témoignent GMT Science et Alia Santé, désormais mieux ancrées dans l’écosystème.

Soutenue par la Technopole de Castres-Mazamet et ses partenaires institutionnels, cette initiative illustre une ambition constante : faire du numérique en santé un moteur d’innovation territoriale et un levier de compétitivité nationale. En novembre, Castres redeviendra ainsi le lieu où se dessine, entre prospective et applications concrètes, une partie de l’avenir médical français.

Intelligence artificielle-PME : le combat inégal

 

PME

Par Arnaud Lefebvre, Directeur Commercial et Marketing chez ReeVo France

Un seuil critique a été franchi : les cybercriminels exploitent désormais l'IA avec une redoutable efficacité, exposant les PME à des attaques d'une complexité et d'une échelle sans précédent. Bien que la sensibilisation augmente – 58 % des PME prévoient d'augmenter leurs budgets de cybersécurité* – beaucoup restent vulnérables en raison de ressources limitées, d'une expertise insuffisante et de la dépendance à l'égard de défenses obsolètes. Pour survivre dans cet environnement à haut risque, les PME doivent adapter de manière proactive leurs stratégies de sécurité pour contrer les menaces induites par l'IA.

L’arme fatale des cybercriminels

Ampleur, vitesse, efficacité… L’IA révolutionne l’art de la cyberattaque. L'une des évolutions les plus inquiétantes est le phishing automatisé, où l'IA génère des messages hautement personnalisés et convaincants à un rythme sans précédent. Cette évolution a donné naissance à des plateformes de « phishing en tant que service » (phishing as a service), qui permettent même à des attaquants peu qualifiés de réaliser des escroqueries à grande échelle.

Une autre menace émergente est celle des escroqueries de type deepfake, où des médias synthétiques générés par l'IA – tels que des clones de voix ou des vidéos manipulées – se font passer pour des cadres ou des employés de confiance. Ces attaques de plus en plus convaincantes exploitent la confiance humaine en incitant le personnel à autoriser des transactions frauduleuses ou à divulguer des informations sensibles.

Le plus alarmant est peut-être la montée en puissance des malwares adaptatifs, qui s’appuient sur l'intelligence artificielle pour apprendre des mesures de sécurité et modifier leur comportement afin d'échapper à la détection. Contrairement aux malwares traditionnels, ces programmes peuvent rester dormants, analyser les défenses et frapper uniquement lorsqu'ils identifient une vulnérabilité.

Les PME sont particulièrement vulnérables à ces menaces liées à l'IA en raison de leurs budgets limités en matière de cybersécurité, de leur infrastructure plus faible et de leur dépendance à l'égard de fournisseurs tiers présentant des lacunes potentielles en matière de sécurité. En l'absence de mesures de protection appropriées, elles s'exposent non seulement à des pertes financières, mais aussi à une atteinte à leur réputation et à des perturbations opérationnelles.

Le kit de survie des PME

Pour se protéger contre les cybermenaces boostées à l'IA, les PME doivent adopter une stratégie de sécurité globale qui associe des technologies de pointe, la formation des employés et le soutien d'experts. La mise en œuvre de systèmes de défense eux-mêmes alimentés par l'IA représente la première ligne de protection critique. Les solutions de cybersécurité modernes exploitent le machine learning pour l'analyse comportementale et la détection des anomalies, ce qui permet aux entreprises d'identifier les activités suspectes avant qu'une brèche ne se produise. Ces systèmes intelligents apprennent en permanence à partir des modèles de réseau et s'adaptent aux nouvelles menaces en temps réel. En complément de ces mesures préventives, les outils de réponse automatisée aux incidents offrent des capacités de réaction rapide, permettant de contenir les menaces dès leur détection afin de minimiser les dommages.

Cependant, la technologie ne peut à elle seule garantir la sécurité. Les facteurs humains restent le maillon faible, d'où l'importance de la formation continue des employés. Des simulations régulières de phishing et des programmes de sensibilisation à l'ingénierie sociale aident le personnel à reconnaître les attaques sophistiquées, tandis que des protocoles de vérification clairs pour les opérations sensibles réduisent les risques liés aux escroqueries de type deepfake et aux tentatives d'usurpation d'identité.

Un dispositif de sécurité solide nécessite la mise en œuvre simultanée de plusieurs couches défensives. La protection des terminaux sécurise tous les appareils se connectant au réseau, l'authentification multifactorielle ajoute des étapes de vérification critiques au-delà des mots de passe, et l'architecture Zero Trust garantit des contrôles d'identité rigoureux pour chaque demande d'accès, quelle qu'en soit l'origine.

La préparation distingue les entreprises résilientes des entreprises vulnérables. L'élaboration et le test régulier de plans de réponse aux incidents permettent aux organisations de réagir rapidement en cas de crise, tandis que des stratégies complètes de continuité des activités permettent de maintenir les opérations en cas d'interruption. Des simulations de crise réalistes mettent en évidence les vulnérabilités avant que les attaquants ne puissent les exploiter.

Pour la plupart des PME, la gestion en interne de ces exigences complexes en matière de sécurité s'avère peu pratique. Le modèle de cybersécurité en tant que service offre une alternative stratégique, en donnant accès à une protection de niveau professionnel, à une surveillance des menaces 24h/24, 7j/7 et 365j/an, et à une réponse experte aux incidents, sans nécessiter d'équipes de sécurité internes. Cette solution fait passer la cybersécurité d'un investissement lourd à un coût maîtrisé, tout en s'adaptant aux menaces en constante évolution.

En combinant ces éléments technologiques, éducatifs et stratégiques, les PME peuvent mettre en place des défenses capables de résister aux cybermenaces, même celles renforcées par l'IA, tout en préservant la souplesse de l'entreprise. La solution ne réside pas dans un outil unique, mais dans un écosystème de sécurité synchronisé adapté au profil de risque et aux besoins opérationnels spécifiques de chaque organisation.

L'escalade des cybermenaces liées à l'IA exige une action immédiate de la part des PME. Il ne suffit pas d'augmenter les budgets de cybersécurité ; les entreprises doivent mettre en œuvre des défenses proactives et multicouches qui combinent des outils alimentés par l'IA, la sensibilisation des employés et le soutien d'experts. Les cyberattaques évoluent désormais à la vitesse de l'IA, la cybersécurité n'est donc plus facultative – c'est une nécessité stratégique pour la survie des PME. Celles qui ne s'adaptent pas s'exposent à de graves conséquences. Il est temps d'agir.

*Rapport « La cyber-résilience des PME européennes dans un monde à risques multiples », Harfang Lab, septembre 2024

Le top 10 des professions les plus exposées à l’intelligence artificielle

IA

En 2025, l’intelligence artificielle franchit un seuil inédit. Capable de rivaliser avec les meilleurs programmeurs, elle bouleverse déjà les organisations et place de nombreux métiers sous la menace de l’automatisation. Un rapport de Zety identifie les professions les plus exposées et avance des pistes de reconversion, dans un paysage où l’humain doit redéfinir sa valeur ajoutée.

L’année 2025 marque un tournant. OpenAI (qui a lancé ChatGPT) affirme que son intelligence artificielle (IA) atteint déjà le niveau du cinquantième meilleur programmeur mondial et devrait dépasser les humains d’ici la fin de l’année. Comme ce fut le cas dans les échecs, les machines évoluent désormais dans une sphère inaccessible au cerveau humain. Cette bascule technologique modifie en profondeur le marché du travail, en France comme ailleurs. L’IA ne se contente plus d’assister mais elle peut agir seule et initie des processus et transforme la nature des métiers.

Selon l’OCDE, 27 % des emplois sont menacés d’automatisation complète. En France, cela équivaut à plus de 4 millions de postes directement concernés, et près du double en profonde mutation. La question n’est donc plus de savoir si l’IA remplacera certains métiers, mais lesquels et à quelle vitesse. C’est ce à quoi s’est intéressé Zety, qui identifie dans un rapport les professions les plus exposées et avance des pistes de reconversion

Les secteurs en première ligne

Les emplois les plus fragiles sont ceux dominés par des tâches répétitives et standardisées. Dans les services administratifs, l’automatisation du traitement de courriels, du tri documentaire et de la saisie rend les secrétaires et opérateurs de back-office particulièrement vulnérables.

zety

Dans le transport et la logistique, les entrepôts robotisés et la perspective des véhicules autonomes menacent chauffeurs routiers, livreurs et magasiniers. Le commerce vit une mutation similaire : caisses automatiques, magasins sans personnel et assistants virtuels redessinent la distribution, fragilisant caissiers et vendeurs.

La banque et l’assurance suivent la même trajectoire. Les guichetiers et agents de back-office voient leurs tâches absorbées par des logiciels capables d’analyser un dossier client en quelques secondes. L’industrie enfin, où robots collaboratifs et vision par ordinateur remplacent ouvriers d’assemblage et contrôleurs visuels, connaît une réorganisation profonde. Même la santé n’est pas épargnée : radiologues, anatomopathologistes et secrétaires médicaux voient l’IA interpréter des images ou automatiser des examens de routine.

Le top 10 des professions les plus exposées

Le rapport de Zety, croisant les projections de France Stratégie, de l’OCDE, de l’INSEE et du Forum économique mondial, dresse une liste des dix professions les plus exposées à l’automatisation :

  1. Opérateurs de saisie et employés de back-office.
  2. Caissiers et hôtes de caisse.
  3. Employés administratifs et secrétaires.
  4. Guichetiers bancaires.
  5. Comptables et aides-comptables.
  6. Téléconseillers et standardistes.
  7. Ouvriers d’assemblage.
  8. Chauffeurs et livreurs.
  9. Rédacteurs et traducteurs.
  10. Graphistes et maquettistes.

Toutes partagent des caractéristiques communes : volume important de tâches standardisées, procédures claires, numérisables et peu dépendantes d’un jugement humain. Chatbots, RPA (automatisation robotisée), reconnaissance optique ou IA générative accélèrent cette substitution.

Les métiers qui résistent

À l’inverse, certains métiers conservent une solide résistance. Ils mobilisent créativité, empathie, discernement ou nécessitent une intervention physique dans des contextes variables. C’est le cas des professions du soin et de l’accompagnement, des artisans du bâtiment, des métiers du conseil et de la gestion humaine, des créateurs artistiques et des techniciens de maintenance. Dans ces domaines, l’IA agit comme un outil d’assistance mais ne peut remplacer la richesse des interactions humaines.

Cette distinction souligne une réalité : ce ne sont pas les métiers dans leur ensemble qui disparaissent, mais les tâches qui les composent. Là où les procédures sont claires et répétitives, l’automatisation progresse. Là où l’imprévu, la subjectivité ou l’expérience priment, l’humain reste incontournable.

Anticiper et rebondir

Rester immobile face à ces mutations serait risqué. Le rapport de Zety souligne l’importance de l’adaptation et de la reconversion. Les dispositifs existants – CPF, CEP, Projets de transition professionnelle – offrent des leviers pour se former. Les pistes sont multiples comme intégrer l’IA dans son métier, se spécialiser dans des fonctions humaines à forte valeur ajoutée (coordination, conseil, encadrement), ou explorer les secteurs porteurs que sont l’intelligence artificielle elle-même, la transition écologique, le médico-social ou la formation.

Les compétences relationnelles – communication, créativité, adaptabilité, esprit critique – deviennent centrales. L’IA gère la routine ; l’humain conserve ce qui échappe à la logique mécanique c’est-à-dire juger, ressentir, inventer.

Une transition à organiser

La transformation n’est toutefois pas qu’individuelle ; elle interpelle aussi pouvoirs publics et entreprises. Sans politique de formation et de reconversion ambitieuse, le risque social est majeur. L’accompagnement collectif est donc une condition indispensable pour transformer cette menace en opportunité.

Manipuler le climat ? De l’importance d’un débat de société sur la géo-ingénierie

climat


Par Xavier Landes, Sciences Po Lille

La géo-ingénierie fait débat : faut-il la déployer pour limiter l’ampleur du changement climatique ? Tout dépend de quelle géo-ingénierie on parle : les méthodes qui en relèvent sont nombreuses et sont loin d’avoir toutes les mêmes impacts et d’entraîner les mêmes risques. Or, en France, le débat est atone, pour ne pas dire inexistant.


Discutée dans le monde anglo-saxon depuis près de deux décennies, la géo-ingénierie peine à s’imposer dans la sphère francophone. Mais pour que ce débat existe, il faut d’abord que ses termes soient correctement définis et maîtrisés du grand public. De fait, les rares enquêtes d’opinion soulignent le manque de familiarité à l’égard du sujet.

Qu’est-ce que la géo-ingénierie ? Elle est définie par la Royal Society comme :

« La manipulation délibérée à grande échelle de l’environnement planétaire destinée à contrecarrer le changement climatique d’origine anthropique. »

À ce titre, elle comprend l’extraction du CO₂ ou carbon dioxide removal en anglais) et la gestion du rayonnement solaire (techniques de modification de la réflectivité terrestre ou albédo, ou solar radiation management en anglais). Sur la scène internationale, le sujet émerge peu à peu, en raison des réductions insuffisantes des émissions de gaz à effet de serre (« mitigation », également appelée atténuation en français) et des difficultés rencontrées par la diplomatie climatique lors des COP sur le climat.

Un débat prend donc forme quant à l’acceptabilité et à la place de ces technologies au sein de politiques du climat dites « hybrides » ou de « portfolio », combinant mitigation, adaptation et, potentiellement, géo-ingénierie.

Des géo-ingénieries au pluriel

Il faut insister sur la diversité des approches relevant de la géo-ingénierie et en préciser les différentes définitions de façon claire.

L’extraction du CO2 et la gestion du rayonnement solaire partagent grosso modo le même objectif : abaisser le forçage radiatif, c’est-à-dire la somme d’énergie conservée dans le système terrestre, mais elles le font différemment.

  • La première (extraction du CO2) s’attaque à l’origine du changement climatique, par la réduction des émissions ou des concentrations atmosphériques de CO2,

  • Tandis que la seconde (gestion du rayonnement solaire ) s’emploie à modérer un de ces effets (le réchauffement) au travers de la stimulation de la réflectivité terrestre (albédo). Dès lors, nombre d’effets allant au-delà du simple phénomène de réchauffement, comme l’acidification des océans, ne sont pas couverts par la gestion du rayonnement solaire.

Dans ces deux familles, toutes les méthodes ne se valent pas. De l’une à l’autre, les promesses, défis techniques, risques environnementaux et humains peuvent varier du tout au tout.

L’extraction du CO2 regroupe des interventions allant du reboisement jusqu’à la capture du CO2 dans l’air ambiant telle que mise en œuvre à petite échelle en Islande.

Elle inclut aussi la production de biochar (charbon biologique), la mise en place de pratiques agricoles limitant la perturbation des sols, la météorisation augmentée (enhanced weathering, en anglais, qui consiste à broyer des roches pour accélérer la capture du CO2 au travers de l’érosion) et la fertilisation des océans avec des nutriments comme le fer (ocean fertilization, qui permet de stimuler la croissance du phytoplancton et donc la photosynthèse menant à séquestrer le CO2).

Enfin, elle intègre la capture de CO2 depuis les installations industrielles (la capture et la séquestration du carbone, ou en anglais, carbon capture and sequestration, CCS), les centrales biomasse (la bioénergie avec capture et séquestration, ou en anglais, bioenergy with carbon capture and sequestration, BECCS) ou l’air ambiant (en anglais, direct air capture and sequestration, DACS).

Chaque technique présente des défis et promesses qui lui sont propres. Certaines sont bien maîtrisées, à l’instar de la reforestation et de l’afforestation, tandis que d’autres sont naissantes, comme la météorisation accélérée.

Certaines de ces technologies servent l’industrie et les énergies fossiles, à l’image de la capture et la séquestration du carbone qui permettent de maintenir en activité des installations utilisant des énergies fossiles, à l’instar des centrales thermiques recourant au charbon et au gaz naturel ou des cimenteries.

Celles-ci pourraient mener à un « enfermement » technique dans l’industrie carbone pour plusieurs décennies au moins. À l’inverse, d’autres interventions, telle la captation directe depuis l’air ambiant ou la fertilisation des océans, ne requièrent pas le maintien d’une économie carbonée.

De la même façon, la gestion du rayonnement solaire regroupe des techniques diverses. Celles-ci vont de l’éclaircissement des surfaces urbaines à la mise en orbite de miroirs spatiaux. Une méthode, en particulier, accapare les discussions : la dispersion d’aérosols dans la stratosphère (stratospheric aerosol injection en anglais).

Il s’agit d’injecter des microparticules dans la stratosphère, par exemple des sulfates, à une altitude habituellement comprise entre 15 km et 25 km. Le refroidissement pourrait être immédiat, mais avec des risques massifs. En effet, un arrêt brutal et non préparé d’une telle intervention pourrait causer un emballement thermique nommé choc d’interruption (termination shock).

En outre, l’émergence de climats régionaux inédits pourrait mettre en danger les populations et écosystèmes. Il est aussi question d’éclaircir les nuages de basse altitude situés au-dessus des océans en dispersant des gouttelettes d’eau depuis des bateaux (marine cloud brightening en anglais), d’amincir les cirrus de haute altitude ce qui permet de laisser plus de radiations terrestres s’échapper dans l’espace (cirrus cloud thinning) ou encore d’enduire de couleurs claires les surfaces urbaines afin de réduire les îlots de chaleur urbains (urban surface brigthening).

Malgré cette diversité, les débats publics, en particulier dans l’espace francophone, tendent à se concentrer sur la seule dispersion stratosphérique d’aérosols. Le risque serait que cette polarisation conduise au rejet de méthodes bénignes du fait de leur association avec des initiatives plus controversées.

Un débat entravé

Dans ce contexte, il est essentiel que les médias grand public promeuvent un débat de qualité, qui respectent les principes de justice procédurale d’inclusivité et de participation, à l’égard tant des citoyens que des experts. Le but est de représenter, de manière fidèle, la complexité et la diversité des méthodes relevant de la géo-ingénierie.

Dans la pratique, l’information en langue française sur la géo-ingénierie est limitée et incomplète. D’abord parce que le manque de maîtrise de l’anglais du public francophone limite l’accès aux travaux de recherche consacrés à la géo-ingénierie, majoritairement publiés en anglais.

Les discussions sur le sujet en France sont généralement dominées par un rejet indiscriminé de toute forme de géo-ingénierie, depuis le stade de la recherche, ce qui handicape la possibilité même d’un encadrement légal de la recherche.

En particulier, certains médias identifient la géo-ingénierie à un avatar du capitalisme, ce qui est, au mieux, réducteur. Le fait que certaines initiatives puissent se placer au service de tels intérêts ne fait aucun doute, que toute géo-ingénierie soit pensée et déployée dans ce but constitue une généralisation abusive.

Ce risque entre en résonance avec de potentiels effets de cadrage (c’est-à-dire, quand la problématisation même d’un sujet va influencer directement la réponse apportée). Les rares études à ce sujet révèlent que les perceptions des diverses méthodes de géo-ingénierie sont contaminées par la manière dont les répondants y sont exposés la première fois.

La tonalité positive ou négative de la description fournie par les enquêteurs influence l’acceptation ou le rejet par les répondants. Par exemple, percevoir une intervention comme « naturelle » ou non constitue ainsi un facteur clé d’acceptation. Il en est donc de même pour la couverture médiatique de ces technologies : celle-ci va influencer leur perception par le grand public.

Enfin, le risque est que les voix des experts français et internationaux peinent à se faire entendre : les entretiens et les articles donnant la parole à toutes les disciplines scientifiques impliquées dans la géo-ingénierie, en particulier en sciences du climat, sont encore trop rares.

La couverture de la géo-ingénierie dépend, comme pour d’autres technologies controversées nourrissant un débat de société avant elle, du cycle de l’actualité, la publication d’un livre sur le sujet – jusqu’à présent seulement une poignée –, une initiative au sein des Nations unies ou une expérience illégale.

De ce point de vue, les médias peuvent être pris dans des cycles courts d’information axés vers le sensationnel ou la prise de position éphémère. Les débats risquent donc de répéter un faux dilemme (pour ou contre la géo-ingénierie dans son ensemble, sans nuance sur le type de géo-ingénierie dont il est question), renforçant la polarisation apparente entre tenants d’une « techno solution » et opposants à une manipulation abominable du climat.

À nouveau, poser le débat en ces termes constitue une simplification abusive qui met en danger les politiques du climat. À l’heure actuelle, la couverture des différentes approches dé géo-ingénerie est biaisée, les risques des technologies de capture (directe et séquestration) du CO2 étant plus fréquemment soulignés que ceux inhérents à la capture du CO2 en mer (fertilisation des océans) et à la bioénergie avec capture du CO2 et séquestration (BECCS), notamment en matière de biodiversité.

Géo-ingénierie et crise de l’expertise

Depuis la crise sanitaire du Covid-19, les experts souffrent d’une méfiance accrue du grand public, qui amoindrit la légitimité des analyses scientifiques.

Ce travers participe à la longévité de toutes sortes de fantasmes, à l’image de la théorie complotiste des chemtrails (traînées blanches dans le ciel générées par les avions en vol, ndlr). Le phénomène commence à affecter de manière profonde les débats entourant la géo-ingénierie, notamment aux États-Unis.

Dès lors, juger, ou simplement suggérer, que les chercheurs en géo-ingénierie puissent être collectivement sous l’influence d’intérêts militaires ou économiques, comme c’est souvent le cas, sape tout échange informé. La figure de l’apprenti sorcier est, par exemple, convoquée de manière récurrente en référence aux chercheurs dont les travaux portent sur le sujet. Outre le fait de constituer une généralisation abusive, de tels jugements dégradent le débat public.

Il existe certes une filiation entre certains projets de recherche et les secteurs militaires ou celui des énergies fossiles. Mais les motivations diverses, souvent bienveillantes, de nombre de spécialistes sont souvent passées sous silence, par exemple lorsque la géo-ingénierie est considérée comme un simple instrument du capitalisme.

En résumé, la manière dont les gouvernements et les experts – tant en sciences naturelles que sociales – participent aux discussions publiques est cruciale.

Une double contrainte de fidélité aux données scientifiques (c’est-à-dire les éléments tangibles concernant les différentes méthodes) et de pondération dans les jugements portés sur les parties prenantes aux discussions doit guider les échanges.

La responsabilité de contribuer à un débat informé s’applique aussi aux médias, lesquels devraient favoriser le pluralisme afin d’éviter les phénomènes de consensus artificiel et de chambre d’écho. Les experts mis en avant doivent refléter la diversité des champs scientifiques et techniques impliqués, en sciences humaines et en sciences dures.

Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) lui-même, dans son 6ᵉ rapport d’évaluation, n’écarte pas le recours aux technologies d’extraction du CO2, même s’il reconnaît que cela ne saurait se substituer à une réduction des émissions.

En effet, il se pourrait que le déploiement de certaines techniques d’extraction du CO2 (captation et séquestration du CO2 dans des équipements industriels ou depuis l’air ambiant) soit nécessaire afin d’éviter le franchissement de points de bascule climatique, y compris dans le cas d’une réduction agressive et immédiate des émissions de gaz à effet de serre.

Dans le cas contraire, l’impact sur les politiques publiques et internationales pourrait se révéler désastreux. L’adoption de stratégies climatiques sous optimales pourrait alors imposer des dommages irréversibles aux plus vulnérables, aux écosystèmes ainsi qu’aux générations futures.

Il est tout aussi possible que, collectivement, nous refusions toute forme de géo-ingénierie. Dans ce cas, et en l’absence d’une mitigation suffisante, les effets du réchauffement risquent d’être brutaux.

Vers une dépossession du débat démocratique ?

Que la géo-ingénierie ne soit pas davantage discutée constitue, en soi, une première instance de dépossession.

La polarisation des débats par des positions hostiles à toute forme d’ingénierie du climat, souvent au terme de généralisations abusives, au détriment d’une pluralité de vues basée sur la diversité des travaux scientifiques représente une seconde forme de dépossession. Celle-ci est plus insidieuse puisque la distorsion et l’appauvrissement de questions complexes pourraient influencer de manière définitive l’opinion publique.

Le temps presse. Les techniques d’extraction du CO2 sont d’ores et déjà incorporées dans la plupart des scénarios qui respectent l’accord de Paris, notamment ceux du GIEC. Des villes comme New York ou Los Angeles pratiquent déjà l’éclaircissement des surfaces et un projet d’injection d’aérosols dans la stratosphère pourrait voir le jour d’ici une ou deux décennies selon le Programme des Nations-Unies pour l’environnement (PNUE). Un débat de société large et inclusif doit avoir lieu, dès à présent, mais pas n’importe comment.The Conversation

Xavier Landes, Professeur associé, éthique et philosophie politique (Stockholm School of Economics in Riga), professeur invité (Sciences Po Lille), Sciences Po Lille

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Nos GPS ont besoin de voir les trous noirs pour fonctionner, mais le wifi et les téléphones portables brouillent leur détection

Certains trous noirs servent de points de repère à la géodésie pour localiser précisément la Terre dans l’espace. ESA/Hubble/L. Calçada (ESO), CC BY
Par Lucia McCallum, University of Tasmania

La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple !


Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines.

Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence.

Pourquoi avons-nous besoin des trous noirs ?

Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite.

Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ».

Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes.

Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz.

Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites.

Le rôle important des ondes radio

En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps.

Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio.

Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie.

Des usages concurrents

Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées.

Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre.

Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires.

Que peut-on faire ?

Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence.

Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations.

Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes.

Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination.

La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio.The Conversation

Lucia McCallum, Senior Scientist in Geodesy, University of Tasmania

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Rajeunissement numérique : les stars hollywoodiennes à l’épreuve de leur propre mythe


Dans Indiana Jones et le cadran de la destinée, comme dans d’autres récents opus de Terminator ou de Tron, Hollywood semble faire la guerre au temps. Walt Disney Company
Par Jules Lasbleiz, Université Rennes 2

De Tron : l’héritage (2010) à Indiana Jones et le cadran de la destinée (2023), en passant par Terminator Genisys (2015), les franchises hollywoodiennes utilisent régulièrement les images de synthèse pour rajeunir des stars vieillissantes. Or, plus qu’un simple outil narratif ou attractionnel, le de-aging interroge également le statut de ces stars au crépuscule de leur carrière.


Le vieillissement inéluctable de la star hollywoodienne est une thématique qui, depuis les années 1950 et la désuétude des premières stars des années 1920-1930, intéresse le cinéma. Des films comme Boulevard du crépuscule (Billy Wilder, 1950) ou Une étoile est née (George Cukor, 1954) abordent, à ce titre, très frontalement, cette idée de dépérissement de la star dans une industrie ne voulant plus d’elle, et ce, en mettant justement en scène des vedettes vieillissantes voire des vedettes, qui, à ce moment de leur carrière, sont sur le déclin.

Si ces films ont pu traiter de la question de l’obsolescence de la star de façon métatextuelle, c’est-à-dire en représentant la star en tant que star au sein même de leur diégèse, d’autres ont pu le faire de manière plus sous-jacente, en mettant en parallèle l’âge des personnages représentés et celui de leurs interprètes.

Ainsi, depuis une quinzaine d’années, cette thématique du vieillissement des personnages/stars semble notamment s’incarner au sein d’un certain nombre de films issus de franchises développées initialement dans les années 1980-1990. Or, une partie de ces films a régulièrement recours à la technique dite de « de-aging » (rajeunissement par les images de synthèse) pour conférer à certains personnages iconiques une apparence juvénile – similaire à celle précédemment représentée au sein de la saga correspondante. Cette technique semble dès lors interroger le vieillissement de ces personnages, mais surtout de leurs interprètes, de manière tout à fait inédite.

« Je suis vieux, pas obsolète »

À l’image de certains héros vieillissants de westerns dits « crépusculaires » qui, comme leurs interprètes, reprennent du service pour accomplir une ultime mission qui viendra asseoir leur statut de légende, les icônes des franchises cinématographiques apparues à la fin du siècle dernier se sont vues, depuis quelque temps, réinvesties dans l’optique de réaffirmer leur importance culturelle dans un contexte contemporain. C’est en tout cas le projet porté par un film comme Terminator Genisys (Alan Taylor, 2015), dans lequel la star bodybuildée des années 1980-1990 Arnold Schwarzenegger réinterprète son personnage iconique de T-800, alors littéralement usé et rouillé par le temps, mais – et comme il ne cesse de le rappeler tout au long du film, n’est « pas obsolète » pour autant.

Plus que cela, le film donne même à voir une image de l’acteur embrassant pleinement sa vieillesse, en lui faisant notamment affronter (et surtout vaincre) une version rajeunie de lui-même, ayant l’apparence du T-800 du Terminator de 1984 réalisé par James Cameron. Ici, le rajeunissement numérique de la star lui permet d’assumer et affirmer son âge avec force – le Schwarzenegger de 2015 supplantant le Schwarzenegger de 1984. La fin du film tend d’ailleurs à vouloir démontrer une bonne fois pour toutes cette idée de vieillesse comme forme de modernité (plutôt que de décrépitude), en conférant au robot T-800 usé les capacités protéiformes d’un modèle T-1000 plus récent.

Le film Tron : l’héritage (Joseph Kosinski, 2010) repose sur des motifs narratif et discursif similaires à ceux de_ Terminator Genisys_. Durant son dernier acte, le long métrage fait par exemple s’affronter le personnage de Kevin Flynn, alors (ré)interprété par un Jeff Bridges d’une soixantaine d’années, et son clone virtuel, ayant l’apparence de l’acteur lorsqu’il incarnait le personnage pour la première fois en 1982 dans le film Tron (Steven Lisberger). L’intérêt de cette séquence réside dans le fait que le vieux Kevin Flynn triomphe de son double virtuel en l’absorbant pour ne (re)faire qu’un avec lui. Plus encore que la victoire de l’humain sur la machine, le personnage réaffirme ainsi l’idée selon laquelle le « corps réel » de la star serait unique et – il le souligne au cours de cette séquence – que sa perfection résiderait dans ses imperfections, signes du passage du temps.

Selon la professeure en études sur le genre Sally Chivers, cette vision positive de la vieillesse des personnages/stars – qui n’auraient rien à envier à leurs Moi d’antan – se serait particulièrement développée dans les films issus de franchises, sortis après les années 2000 et 2010.

On retrouve à nouveau cette idée dans Indiana Jones et le cadran de la destinée (James Mangold, 2023), au sein duquel Harrison Ford réincarne le célèbre archéologue et où, dans une séquence introductive d’une vingtaine de minutes, celui-ci est rajeuni numériquement afin que son apparence corresponde à celle que l’on retrouve dans les films de la franchise Indiana Jones réalisés durant les années 1980.

Le de-aging (rajeunissement par image de synthèse) en interview de Harrison Ford.

Le reste du film consiste à nous prouver que le personnage d’Indy – malgré son pessimisme sur la question – est, comme son interprète, encore capable d’assurer des missions pour le moins aventureuses, semblables à celles qu’il accomplissait dans sa jeunesse. De ce point de vue, le film pourrait presque servir d’illustration à la thèse énoncée par le sociologue Edgar Morin selon laquelle stars et personnages se contamineraient réciproquement.

Quoi qu’il en soit, le de-aging du début du film sert une fois de plus à renforcer, par une mise en parallèle avec le reste du récit, cette idée d’une vieillesse qui ne serait pas synonyme d’obsolescence.

Rajeunissement factice versus vieillesse assumée : les paradoxes d’un discours

Comme l’explique la professeure en études cinématographiques Philippa Gates, ce type de discours sur le « bien vieillir » des stars tend en réalité à faire croire au spectateur que « vieillir dépendrait davantage de choix personnels que de conditions matérielles et d’inégalités sociales ».

Son ambiguïté réside également – et logiquement – dans le fait d’utiliser une technique comme le de-aging pour tenter d’en développer la portée symbolique. Un paradoxe évident se dessine : étant donné le rajeunissement par le numérique de la star, sa vieillesse est-elle véritablement assumée ? D’autant plus que, malgré le discours porté par le film le mettant en scène, ce rajeunissement donne à voir une image fantasmée de la star.

Le de-aging est en effet – et de façon évidente – utilisé pour que la star vieillissante réponde à des critères de beauté et/ou de jeunisme qui autrefois pouvaient la caractériser. Comme dans la plupart des œuvres cinématographiques faisant usage des technologies numériques pour porter un discours – souvent critique – sur les nouvelles technologies (fictives ou réelles), une contradiction apparaît ainsi entre le fond (le discours sur le « bien vieillir ») et la forme (le recours au de-aging) des films.

Pour un historien du cinéma comme Richard Dyer, ce type de contradiction est à la base de ce qui caractérise la star. Celle-ci mène à la fois une existence réelle, soumise comme tout un chacun aux affres du temps, et artificielle, liée au monde de l’image, de la fiction. Qu’il soit assumé ou non, l’âge de la star serait donc en partie illusoire notamment parce que sa représentation est presque nécessairement standardisée.

Cette ambiguïté résulte également d’une mise en tension entre l’image « actuelle » de la star et celle de ses rôles passés. Ainsi, plutôt que d’opérer un changement radical dans la manière de représenter la star vieillissante, le de-aging permet en fait de réactualiser des enjeux thématiques anciens, similaires à ceux de certains films des années 1950, au sein desquels l’ancienne et la nouvelle stars s’opposent. Le rajeunissement numérique ne fait finalement que pousser ces enjeux au bout de leur logique (via, entre autres, une forme nouvelle de capitalisation de la nostalgie).

Mais au-delà de cela, n’y a-t-il pas également dans les films étudiés ici une volonté de faire coïncider cette technique avec le modèle narratif, et économique, des franchises, si présentes aujourd’hui, et auxquelles ces films sont rattachés ? Les logiques de variation (par l’utilisation de l’imagerie numérique en tant que telle) et de répétition (par l’utilisation de l’imagerie numérique afin de reproduire quelque chose du passé) du de-aging semblent en effet, à ce titre, bien proches de celles propres aux franchises cinématographiques.The Conversation

Jules Lasbleiz, Doctorant en études cinématographiques, Université Rennes 2

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

IA agentique : seules 2 % des entreprises sont prêtes face aux risques, selon Infosys

datacenter

Alors que l’IA agentique se déploie à grande vitesse, 86 % des entreprises redoutent une hausse des risques, mais seules 2 % atteignent les standards de l’IA responsable. Un retard qui expose à des pertes financières, des atteintes à la réputation et des défis réglementaires majeurs, selon une étude d’Infosys.

À l’heure où l’intelligence artificielle agentique s’installe dans les entreprises, la promesse d’efficacité et d’innovation se double d’un risque accru. Selon le dernier rapport de l’Infosys Knowledge Institute, 86 % des dirigeants anticipent une hausse des menaces, mais seules 2 % des organisations atteignent les standards d’excellence en matière d’IA responsable. Une fragilité qui, déjà, coûte cher : 95 % des entreprises ont connu un incident lié à l’IA au cours des deux dernières années, avec des pertes financières dans 77 % des cas et un impact réputationnel dans plus d’une sur deux.

Un décalage criant entre usage et encadrement

Basée sur une enquête menée auprès de plus de 1 500 cadres dirigeants dans six pays, l’étude met en lumière un paradoxe : si 78 % considèrent l’IA responsable comme un moteur de croissance, la majorité continue de la traiter comme une contrainte réglementaire. 

Les « leaders » identifiés par Infosys – à peine 2 % de l’échantillon – combinent gouvernance centralisée, explicabilité des modèles, gestion proactive des biais et plans de réponse aux incidents. Résultat : 39 % de pertes financières en moins lors d’incidents et une exposition réduite aux dommages réputationnels.

Des risques multiples et sous-estimés

L’IA mal encadrée n’expose pas seulement aux sanctions : elle peut générer des prévisions erronées, renforcer des discriminations ou compromettre la conformité réglementaire. L’essor de l’IA agentique, capable d’actions autonomes, accroît encore ces vulnérabilités. 86 % des décideurs familiers du sujet anticipent l’émergence de nouveaux risques et obligations de conformité.

Vers une stratégie proactive

Pour combler ce retard, Infosys préconise de s’inspirer des organisations matures, d’allier innovation produit et supervision centralisée, d’intégrer l’IA responsable dans des environnements sécurisés et de créer des bureaux dédiés à la gouvernance. Une vision partagée par Balakrishna D.R., responsable mondial de l’IA chez Infosys : « Exploiter pleinement l’IA suppose de bâtir une base solide et responsable, fondée sur la confiance et la gestion des risques ».

Alors que de nouvelles réglementations sont en gestation, 83 % des dirigeants estiment qu’elles renforceront l’innovation plutôt que de la freiner. L’enjeu est désormais de transformer cette conviction en pratiques concrètes, pour que la révolution agentique ne se traduise pas par une addition salée, mais par un véritable dividende technologique.

Procès Meta : le démantèlement des entreprises pourrait-il devenir une « nouvelle » sanction dissuasive ?

meta
Par Chloé Djamdji, Université Côte d’Azur et Patrice Reis, Université Côte d’Azur

Le numérique était censé tout « disrupter ». Mais il pourrait remettre en selle une pratique qu’on croyait disparue : le démantèlement de groupes pour rétablir une concurrence réelle et non faussée. Il faut suivre de près ce que décidera la Federal Trade Commission états-unienne dans l’affaire qui concerne le groupe Meta.


Le 15 avril 2025 s’est ouvert aux États-Unis, le procès Meta (FTC v. Meta Platforms, Inc.). Cette affaire fait suite à l’action en justice intentée par la Federal Trade Commission (FTC) à l’encontre de Meta. L’autorité reproche à l’entreprise d’avoir procédé aux acquisitions d’Instagram (2012) et de WhatsApp (2014), pour renforcer sa position dominante sur les réseaux sociaux, notamment en imposant des conditions inégales à l’égard des développeurs de logiciel. Ces comportements auraient, selon la FTC, pour conséquence, une expérience fortement dégradée pour les utilisateurs avec plus de publicités subies et une confidentialité réduite.

Depuis quelques années, la pratique des acquisitions prédatrices ou killers acquisitions– visant à éliminer une menace concurrentielle avant qu’elle n’émerge – est devenue une pratique courante, notamment pour les entreprises spécialisées dans le numérique comme en témoignerait ici le rachat par Meta d’Instagram et de WhatsApp au cœur de ce procès.

La pile de technologie publicitaire

Selon la FTC, l’objectif de ces rachats semble être dès le départ de chercher à éliminer toute concurrence sur le marché des réseaux sociaux. Cette pratique s’apparente à la stratégie dite de « pile de technologie publicitaire ». Cette dernière vise à renforcer la position dominante d’une entreprise sur plusieurs produits technologiques de publicité numérique par une série d’acquisitions prédatrices. Pour ces raisons, l’autorité a demandé une injonction visant à prévenir la réitération de ces types de pratiques ainsi que la cession d’Instagram et de WhatsApp.

En matière de contrôle des concentrations, les entreprises parties aux dites opérations acceptent souvent de procéder à une telle cession – totale ou partielle – d’actifs. Cette dernière opération consiste le plus souvent à vendre à des tiers des points de vente, des établissements, une division, une gamme de produits voire l’intégralité d’une filiale.

Dans le cadre des procédures de contrôle des concentrations par les autorités de la concurrence (FTC ou encore Commission européenne), la cession d’actifs permet à l’entreprise menant l’opération de concentration via une acquisition ou une fusion de proposer et ou de négocier des ventes d’actifs avec les autorités afin que son opération soit validée. La cession est donc dans ce cadre un instrument de nature structurel utilisé ici dans le cadre d’un contrôle a priori des opérations de concentrations garant de l’ordre public économique.

De la cession d’actifs à la scission de l’entreprise

Ce type de cession d’actifs doit néanmoins être distingué du démantèlement qui est susceptible aussi d’être utilisé par lesdites autorités. Le démantèlement correspond en la scission d’une entreprise en de multiples sociétés indépendantes mais il s’agit ici d’une sanction a posteriori.

Les cas historiques les plus emblématiques étant le démantèlement de la Standard Oil (en 1911) en 34 sociétés et d’ATT (1982) qui donna naissance à sept opérateurs téléphoniques régionaux aux USA, les célèbres « babys bells ». Ces deux affaires peuvent être considérées comme des cas d’école qui viennent interroger la pertinence du démantèlement en tant que solution adaptée à la protection de la concurrence.

Peut-on considérer le démantèlement comme une solution efficace ? La réponse semble a priori négative dans la mesure où le démantèlement dans ces affaires emblématiques s’est finalement avéré avec le temps peu opérant face aux stratégies de restructuration des entreprises. Ainsi, par exemple, le démantèlement de la Standard Oil s’est traduit au fil du temps par une recombinaison partielle des 34 sociétés se traduisant in fine par une des plus grandes fusions de l’histoire entre supermajors sur le marché pétrolier en 1999 entre EXXON (ex Standard Oil of California) et Mobil (ex Standard Oil of NY).

Une sanction à l’efficacité provisoire

Le démantèlement a certes permis de relancer temporairement la concurrence dans ce secteur, mais l’efficacité de la sanction disparaît plus ou moins rapidement au regard des stratégies de fusions-acquisitions que mettent en place les entreprises. Le démantèlement ne fut d’ailleurs guère utilisé en dehors de ces deux cas d’école. Il n’a jamais été utilisé en droit européen ni en droit français de la concurrence pour sanctionner des positions dominantes absolues ou quasi absolues comme celle de la Standard Oil en son temps. Les débats sur son éventuelle utilisation avaient quasiment disparu jusqu’à l’avènement de l’économie numérique.

L’économie numérique marquée par la vitesse des évolutions techniques et technologiques a pu laisser croire dans un premier temps que les monopoles ou les quasi-monopoles n’étaient qu’une histoire relevant de la vieille économie. Néanmoins, l’apparition et le développement des géants du numérique (GAFAM) combiné à une puissance financière et technologique sans égale et des stratégies d’acquisitions prédatrices des concurrents a permis à ces grands groupes de capter et de contrôler le développement des innovations disruptives. Les concurrents innovants au stade de start-up sont acquis avant même de pouvoir remettre en cause les positions dominantes des GAFAM.

Un renouveau pour le démantèlement

L’intérêt théorique et pratique pour le démantèlement connaît un renouveau en droit et en économie de la concurrence, la cession pouvant être considérée comme une menace crédible : en quelque sorte l’arme nucléaire du droit antitrust destinée à n’être utilisée qu’en dernier recours. Cette nouvelle forme de stratégie de la terreur suppose que la menace devrait suffire en principe à obtenir des entreprises concernées des engagements comportementaux et structurels devant remédier aux préoccupations de concurrence identifiées par les autorités de concurrence.

Arte 2025.

Le procès Meta incarne probablement cette volonté de gagner en crédibilité au même titre que l’article 18 du Digital Market Act (DMA) européen de 2022 prévoyant cette possibilité. Aux États-Unis, en l’absence de texte équivalent au DMA, le procès devant le tribunal de Washington constitue pour la FTC en invoquant le droit antitrust classique, le monopolisation ou l’abus de position dominante, de demander la vente partielle d’Instagram et de WhatsApp.

L’objectif est de rendre à ces filiales leur autonomie afin qu’elles puissent à nouveau concurrencer Meta sur le marché des réseaux sociaux. Ainsi, si finalement le tribunal suit le raisonnement de la FTC et que la cession se traduit par un démantèlement de Meta, cette mesure structurelle devient alors une menace crédible pour l’ensemble des GAFAM. Leur situation de position dominante serait alors menacée et les autorités et les tribunaux de la concurrence rétabliront la concurrence là où elle était absente ou quasi absente. Reste à savoir si l’histoire se répétera comme pour le pétrole ou les télécoms et si, à terme, les groupes finiront par se reconstituer…The Conversation

Chloé Djamdji, Doctorante en droit privé spécialisée en droit de la concurrence et droit du numérique, Université Côte d’Azur et Patrice Reis, Professeur des Universités de Droit privé et sciences criminelles, Université Côte d’Azur

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Ariane 6 place en orbite le satellite météorologique MetOp-SG-A1, atout stratégique pour la veille climatique européenne

ariane
Ariane 6 place en orbite le satellite météorologique MetOp-SG-A1 © ESA-CNES-Arianespace/S. Martin, 2025    


Le 12 août, Ariane 6 a réalisé depuis Kourou son troisième vol, plaçant en orbite héliosynchrone à 800 km le satellite MetOp-SG-A1 d’EUMETSAT. Premier exemplaire de la nouvelle génération d’observateurs météo européens, il promet des données inédites pour la prévision et le suivi climatique. Ce succès intervient alors qu’aux États-Unis, la Maison-Blanche envisage de mettre fin à deux missions de mesure du CO₂ en orbite, suscitant l’inquiétude des climatologues.


À 21 h 37, heure locale, le 12 août 2025, Ariane 6 a quitté le pas de tir d’Eumetsat au Centre spatial guyanais, emportant MetOp-SG-A1 vers une orbite héliosynchrone d’environ 800 kilomètres. Ce troisième vol du nouveau lanceur européen, et son deuxième succès commercial, marque une nouvelle étape dans la reconquête de l’autonomie d’accès à l’espace par l’Europe.

MetOp-SG-A1 inaugure la seconde génération de satellites météorologiques polaires du programme MetOp. Construit par Airbus Defence and Space pour EUMETSAT, sous maîtrise d’ouvrage de l’ESA, il s’inscrit dans une série de six engins qui assureront, jusqu’au milieu des années 2040, la continuité des données météo-climatiques. Ses instruments — six capteurs d’imagerie et de sondage atmosphérique dans le visible, l’infrarouge et les hyperfréquences — fourniront des observations plus précises que jamais sur les paramètres essentiels : température, humidité, aérosols, nuages et composition de l’air.

airbus
Le satellite MetOp-SG A1 : Optique video du CSG S Martin - Copyright 2025 ESA-CNES-ARIANESPACE


Parmi eux, IASI-NG, développé avec une forte contribution française et sous responsabilité technique du CNES, doublera la précision de son prédécesseur pour le profilage atmosphérique et la mesure de seize variables climatiques clés, dont les gaz à effet de serre. Sentinel-5, instrument du programme Copernicus, surveillera quant à lui les principaux polluants et l’ozone stratosphérique, complétant la veille environnementale globale.

Aux États-Unis, Trump demande à la NASA de désactiver deux satellites dédiés au climat

Ce progrès contraste avec les incertitudes qui pèsent outre-Atlantique : selon NPR, la Maison-Blanche a demandé à la NASA d’évaluer l’arrêt de deux missions « Orbiting Carbon Observatory » dédiées depuis plus d’une décennie à la mesure du CO₂ atmosphérique. L’une, lancée en 2014, est autonome ; l’autre est installée sur la Station spatiale internationale. Leur coût de fonctionnement est de seulement 15 millions de dollars par an. Leur disparition priverait la communauté scientifique de séries temporelles cruciales pour comprendre l’évolution du climat.

En renforçant la capacité européenne d’observation indépendante, MetOp-SG-A1 répond ainsi à un double enjeu : améliorer les prévisions météorologiques pour la sécurité des populations et préserver, face aux aléas politiques, un accès continu à des données fiables sur le système climatique mondial.