C’était il y a trente-cinq ans. Six hommes de six nationalités différentes réalisaient l’impensable : traverser l’Antarctique. Cette expédition hors normes, la Transantarctica, a été réalisée en sept mois du 25 juillet 1989 au 3 mars 1990 par l’Américain Will Steger, le Japonais Keizo Funatsu, le Britannique Geoff Somers, le Russe Viktor Boyarsky, le Chinois Dahe Qin, et le Français Jean-Louis Etienne. Le médecin tarnais, surnommé Papy Pôle, fut le premier homme à atteindre le pôle Nord en solitaire le 14 mai 1986 et eut l’idée de cette nouvelle expédition avec Will Steger.
Pendant sept mois, les explorateurs vont parcourir 6 300 km sur la plus grande diagonale du Continent blanc, tractés par trois attelages de douze chiens de traîneau. Les conditions sont dantesques – des vents jusqu’à 125 km/h, des températures descendant jusqu’à – 40 °C – mais tous tiennent bon.
Dans le contexte géopolitique particulier de la fin des années 80 où les tensions internationales s’exacerbent, notamment entre États-Unis et URSS, la Transantarctica démontre qu’une collaboration internationale est possible et, surtout, elle permet de sensibiliser et de mobiliser l’opinion publique autour du Traité sur l’Antarctique, signé en 1959 et qui arrivait à expiration. Le succès de la Transantarctica a conduit à la prolongation du moratoire sur l’Antarctique avec la signature du protocole de Madrid, le 4 octobre 1991. Entré en vigueur en 1998, il prolonge de 50 ans le moratoire : l’Antarctique est ainsi protégée de toute exploitation jusqu’en 2048.
Jean-Louis Etienne
Des solutions pour les générations futures
Trente-cinq ans plus tard, et alors que les conséquences du réchauffement climatique bouleversent les pôles, trois des six héros de la Transantarctica (Jean-Louis Etienne, Keizo Funatsu et Viktor Boyarsky) se sont retrouvés vendredi à la Maison de l’océan à Paris, pour faire un état des lieux des mondes polaires et pour lancer un appel afin de mettre en œuvre des solutions pour les générations futures.
La rencontre a permis de mettre en avant les programmes pédagogiques de Will Steger et Cathy Demoll, de Keizo Funatsu et Miyuki Sato, ainsi que ceux d’Elsa Peny Etienne et Jean-Louis Etienne. Les Français préparent activement leur prochaine expédition Polar Pod, du nom de l’incroyable navire vertical qui dérivera autour de l’Antarctique pour mieux comprendre l’importance des courants et du Continent blanc.
En 1989, Jean-Louis Etienne avait choisi comme devise pour la Transantarctica « L’Antarctique n’est pas un continent pour l’Homme, c’est un continent pour la Terre ». Trente-cinq ans plus tard, elle est plus que jamais d’actualité et doit tous nous mobiliser pour préserver les pôles, indispensables à la vie de l’humanité.
L’Homme se prépare à remarcher sur la Lune. Si elle a pris du retard sur le calendrier, la Nasa prévoit toujours une mission habitée autour de la Lune en 2025 avec Artemis 2, puis une mission habitée sur la Lune en 2026 avec Artemis 3, 54 ans après la dernière mission du programme Apollo – Apollo 17 qui s’est achevée le 19 décembre 1972.
Mais avant cela, les astronautes vont devoir suivre un entraînement spécifique, qui sera réalisé dans une toute nouvelle installation de simulation lunaire inaugurée mercredi à Cologne par l’Agence spatiale européenne (ESA) et le centre aérospatial allemand (DLR). Appelée Luna, cette nouvelle « Lune sur Terre » recrée les conditions particulières de la Lune pour préparer les astronautes, les scientifiques, les ingénieurs et les experts à vivre et à travailler à sa surface.
« L’ouverture de Luna marque une étape importante dans les efforts d’exploration spatiale de l’Europe. Cette installation unique, qui permet de reproduire les conditions lunaires, fait progresser notre compréhension de la Lune et nous prépare aux missions futures », a souligné Josef Aschbacher, directeur général de l’ESA. Luna a par ailleurs été conçue comme un hub ouvert et sera accessible aux agences spatiales, aux universités, aux chercheurs, à l’industrie spatiale, aux start-up du New Space et aux petites et moyennes entreprises du monde entier.
700 m2, 900 tonnes de grains de roches
Située à côté du Centre d’entraînement des astronautes européens, Luna comprend une zone de 700 mètres carrés qui reproduit la surface de la Lune à l’aide de 900 tonnes de grains et de roches volcaniques dérivés du basalte, traités pour créer un matériau connu sous le nom de « simulant de régolithe ». Une zone profonde au sol permettra de forer et d’échantillonner jusqu’à trois mètres sous la surface, ce qui permettra de mener des recherches sur le régolithe, y compris le sol lunaire gelé, a précisé l’ESA.
Pendant ce temps, un simulateur solaire imite les cycles du jour et de la nuit sur la Lune, y compris les conditions d’éclairage difficiles que l’on trouve dans les régions polaires lunaires, détaille l’ESA. Les salles de contrôle avancées sont reliées en temps réel aux centres de contrôle de mission en Allemagne et dans le monde entier. Et à l’avenir, l’installation analogique sera également connectée à la passerelle lunaire, voire à la Lune elle-même, pour des simulations de mission fluides.
L’ESA et l’agence allemande ont par ailleurs indiqué que des fonctionnalités supplémentaires seront bientôt mises en œuvre, telles qu’un système de déchargement de la gravité pour simuler la gravité lunaire – qui équivaut à un sixième de celle de la Terre – et une rampe réglable pour tester la mobilité sur les pentes lunaires. Les astronautes seront-ils tentés de sautiller comme Eugene Cernan, membre d’Apollo 7 filmé en chantant « Hippity Hoppity » sur la Lune ?
Si le premier équipage lunaire de quatre astronautes d’Artemis 3 sera vraisemblablement 100 % américain en 2026, la Nasa prévoit ensuite de lancer environ une mission par an, en y intégrant des astronautes appartenant aux agences partenaires, dont l’ESA. Josef Aschbacher avait ainsi déclaré en juillet 2023 que les missions Artemis 4 (2028) et Artemis 5 (2029) comprendront chacune un Européen. « Nous avons l’intention de faire atterrir un astronaute international sur la surface lunaire d’ici à la fin de la décennie », avait confirmé en décembre la vice-présidente Kamala Harris à l’occasion de la réunion annuelle du Conseil national de l’espace (NSC).
Thomas Pesquet, premier Français sur la Lune ?
Le premier européen pourrait-il être le Français Thomas Pesquet ? Ce dernier fait partie des sept astronautes de l’ESA qui ont été retenus pour s’entraîner en vue de cette aventure. « On est tous candidats et ce qui compte c’est d’y aller en tant qu’équipe », confiait au moment de sa sélection en mars 2023 Thomas Pesquet qui, avec deux missions à bord de la Station spatiale internationale (ISS) cumulant 396 jours et six sorties extra-véhiculaires, est l’un des plus chevronnés astronautes européens.
« Nous vivons une période historique pour les vols spatiaux habités, j’ai hâte de faire partie de l’aventure collective qui amènera les astronautes européens autour de la Lune et, à terme, sur sa surface », assure le Français, qui a essayé mercredi le scaphandre d’entraînement de Luna et qui semble très déterminé à décrocher la Lune.
(Article publié dans La Dépêche du Midi du dimanche 29 septembre 2024)
Par Arnaud Marquant, directeur des opérations chez KB Crawl SAS
C’est une bataille qui fait rage et dont on n’a pas forcément anticipé l’ampleur. Depuis plusieurs années, les fake news ont progressivement envahi notre espace informationnel, jusqu’à générer des effets majeurs sur les opinions publiques et nos dynamiques démocratiques. Avec une intelligence artificielle désormais en capacité de produire des photos et des vidéos ex nihilo, il semble que nous ayons franchi un nouveau palier.
Le poids des mots, le choc des fake news
Comment départager le vrai du faux ? Pendant longtemps, même si le trucage était possible, la photo et la vidéo ont tenu lieu de preuve, à telle enseigne qu’un slogan célèbre pouvait affirmer le concept publicitaire du « poids des mots et du choc des photos ». En 2024, si les photos peuvent toujours choquer, ce n’est pas forcément pour nous éclairer sur la réalité factuelle du monde dans lequel nous sommes plongés. Depuis le déploiement des intelligences artificielles génératives auprès du grand public, il est en effet possible de créer des images à partir d’une simple description. On ne compte ainsi plus, sur le marché, le nombre de générateurs d’images gratuits ou payants (Dall-E 3, Canva AI, Midjourney, Imagen by Google Cloud…).
La nouveauté : des moyens massifs de communication qui démultiplient les fake news
Certes, depuis l’essor des outils de communication au XIXe siècle, puis plus récemment avec le déploiement de la société de communication, des phénomènes comparables à ceux des fake news prolifèrent. Millénaires, les fausses nouvelles font échos aux manipulations de discours en tous genres, qu’ils soient politiques ou plus récemment publicitaires. En réalité, le vrai changement ne porte pas tant sur la dimension qualitative de ces fake news que sur sa dimension quantitative. Il y a toujours eu des personnes pour croire que la terre était plate ou que l’homme n'avait jamais marché sur la lune. La nouveauté vient des moyens massifs de propagation de ces fausses nouvelles, démultipliés par la puissance combinée des réseaux sociaux et des algorithmes. Il suffit ainsi que vous ayez cliqué une fois sur une fausse nouvelle pour qu’instantanément celle-ci vous revienne en boucle dans les jours suivants, recouvrant un grand nombre d’informations qui, elles, sont véritables. Ce matraquage, cette « narration de la répétition » forment plus qu’un écran de fumée entre le citoyen et l’information : ils finissent par ériger des murs opaques.
De tels effets pervers ont été analysés par de nombreux chercheurs, notamment ceux du CNRS. Ils renvoient très directement à la capacité collective que nous avons afin de poser un regard critique sur les informations qui nous parviennent. Dans le cas spécifique des images générées par l’IA, une chose est d’ores et déjà certaine : il n’est plus possible de prendre pour argent comptant la véracité d’une photo ou d’une vidéo, sauf à s’en remettre aux sources mêmes de ces éléments, dont l’éthique – notamment journalistique – doit tout à la fois être établie et irréprochable. Il s’agit également d’ériger en priorité l’éducation à l’esprit critique et aux médias, comme le suggère justement la première des 15 mesures affichée par la restitution récente des Etats généraux de l’information.a
L’IA aurait, aux dires de prestigieuses revues, le « potentiel pour révolutionner la recherche » en économie. Mais qu’en a-t-il été de précédentes innovations informatiques pareillement présentées ?
Pouvez-vous nommer un métier qui, aujourd’hui, ne pourrait pas être réalisé, au moins partiellement, par un robot ou une intelligence artificielle ? Il y a encore peu de temps, la recherche scientifique était un bon candidat. Plus aujourd’hui : dans différents domaines de recherche, les outils d’intelligence artificielle participent à l’écriture des contributions scientifiques, à la création d’hypothèses… des activités que l’on pensait réservées à l’esprit humain.
En sciences économiques, le prestigieux Journal of Economic Literature prévient que les outils comme ChatGPT « ont le potentiel pour révolutionner la recherche ». Si cela paraît évident, encore faut-il souligner l’association du terme potentiel avec une rhétorique de la révolution – car entre les attentes et la réalité se dressent de nombreux obstacles.
Le travail de recherche que nous avons récemment coordonné propose sept « histoires » montrant que les « révolutions informatiques » en sciences économiques se heurtent parfois à des limites techniques inattendues, suscitant la déception – autant au début de l’informatique qu’à l’époque des big data. De même, les outils ne tombent pas du ciel ; ils sont acceptés (ou rejetés), adaptés, disséminés en fonction des stratégies et des choix de recherche, des normes et des valeurs des chercheurs. Ainsi, les « révolutions informatiques » ont pour protagonistes plutôt les chercheurs et leurs institutions que les outils informatiques. D’ailleurs, pour s’approprier ces outils, les économistes ont dû recourir au travail d’autres figures professionnelles (et, en particulier, des programmatrices). Ce besoin a d’ailleurs souvent amené à créer de nouveaux lieux de recherche, à la frontière entre universités et entreprises privées.
Prévisions économiques et premiers ordinateurs : la déception
Au début des années 1950, les économistes du National Bureau of Economic Research (NBER) placent beaucoup d’espoirs dans les premiers ordinateurs électroniques. Depuis le début du XXe siècle, ce think tank new-yorkais avait développé une tradition de collecte de données statistiques, permettant de décrire l’évolution cyclique de l’économie. L’analyse des données était réalisée par un « ordinateur humain », faisant des calculs à la main ou avec l’aide d’une machine à calculer mécanique. En moyenne, il faut une semaine de travail à temps plein à un ordinateur humain pour analyser dix ans de données d’une seule série statistique, établir le nombre de cycles et leur temporalité.
Extraits d’analyses de séries statistiques de 1937 au NBER.Wesley Mitchell et Arthur Burns. Timing at Reference Troughs. Box 51, Manuscript of Bulletin on Cyclical Timing, Arthur F. Burns Papers, Eisenhower Presidential Library
Cette lenteur brime l’ambition du NBER de produire des prévisions économiques tous les mois. Les ordinateurs électroniques pourraient résoudre ce problème – une série statistique serait traitée en quelques minutes ! Mais il n’en sera rien, comme le raconte l’historienne Laetitia Lenel, chercheuse à l’université Humboldt de Berlin : la programmation nécessaire pour utiliser les ordinateurs requiert plus de temps que le calcul à la main ! Plus problématique encore, l’ordinateur ne produit pas de résultats clé en main : ils doivent être réinterprétés par les économistes. L’ordinateur s’avère finalement une déception : il rajoute plus de travail qu’il n’en enlève.
Utiliser un ordinateur : plus facile à dire qu’à faire
Dans les années 1950, rares sont d’ailleurs les économistes qui touchent aux ordinateurs. Cela soulève des questions d’organisation du travail. Chung-Tang Cheng, chercheur à l’université de Taipei, traite de ce thème dans son histoire du Département d’économie appliquée (DAE) de l’Université de Cambridge. Il met en particulier en évidence le rôle des femmes – un thème abordé aussi par le best-seller Les Figures de l’ombre et son adaptation cinématographique.
Au DAE, jusqu’à la moitié des années 1940, la « salle des ordinateurs » joue un rôle fondamental : on y retrouve huit à dix femmes effectuant, avec crayon, papier et calculateur mécanique, les calculs nécessaires au travail des économistes.
En 1946, l’économiste américain Guy Orcutt arrive à Cambridge, avec, dans ses bagages, une machine de son invention : un calculateur analogique, capable de réaliser en quelques minutes les calculs qui nécessitent des jours de calcul à la main. La machine d’Orcutt préfigure le remplacement des ordinateurs humains, qui s’achèvera au début des années 1950, lorsque le DEA aura accès au premier ordinateur électronique du Royaume-Uni, le EDSAC, pour Electronic Delay Storage Automatic Calculator.
Même avec le EDSAC, les économistes ne sont toutefois pas « autonomes » dans leur travail avec l’ordinateur. Ils dépendent maintenant des programmeurs. Une nouvelle figure deviendra incontournable au DAE : Lucy Slater, qui, pendant vingt ans, s’occupe de programmer la majorité des travaux des économistes du département. Lorsque le directeur du DAE, Richard Stone, recevra le prix Nobel d’économie en 1984, il confiera, en privé, qu’il aurait dû le partager avec Lucy Slater.
Ordinateurs, économistes et milieux des affaires : un nouveau business
Dans les années 1970, les économistes restent des usagers indirects des ordinateurs, dépendant d’autres professionnels, comme l’illustre le cas de Data Resources Inc. (DRI), une grande entreprise de conseil économique fondée en 1969 à Boston par l’économiste Otto Eckstein.
Nous sommes à l’époque des mainframe computers. DRI dispose de trois de ces « méga » ordinateurs, trois Burroughs 5500.
À DRI, les économistes sont occupés à collecter et analyser des données, à produire des modèles mathématiques et à construire des prévisions. Pedro Duarte (Institut INSPER de Sao Paolo) et Francesco Sergi (Université Paris Est Créteil) documentent comment tout cela se passe loin de l’ordinateur, situé, lui, au sous-sol de l’entreprise et confié à d’autres figures professionnelles. On retrouve des ingénieurs électroniques, affairés au quotidien à entretenir le matériel à coups de fer à souder, des opérateurs informatiques, qui supervisent le fonctionnement du programme et qui s’occupent, tous les soirs, d’effectuer une sauvegarde sur bande magnétique de toutes les données de la journée, et enfin des ingénieurs software (de nouveau, essentiellement des femmes) qui essaient de mettre en place les solutions informatiques adaptées aux besoins des économistes.
Est-ce qu’un bon algorithme suffit à « révolutionner » la recherche en sciences économiques ?
L’histoire du logiciel Dynare montre qu’un « bon » algorithme est nécessaire pour soutenir un programme de recherche. Néanmoins, sa diffusion s’explique par d’autres facteurs.
En 1972, l’économiste américain Robert Lucas propose un nouveau cadre théorique pour la macroéconomie mais qui peine à être opérant. Il faudra attendre 1990 et le travail d’un économiste du Cepremap, Jean-Pierre Laffargue, pour l’élaboration d’un algorithme permettant de résoudre plus facilement des modèles macroéconomiques inspirés des principes de Lucas. Pourtant, le plus gros problème reste celui de la « portabilité » de cet algorithme, c’est-à-dire de sa capacité à circuler, à être saisi et utilisé par d’autres économistes.
Un nouveau venu au laboratoire, Michel Juillard, offre son aide. Juillard se lancera dans la création de Dynare, un logiciel qui permet d’écrire les modèles très simplement, « comme sur papier », dans un fichier texte. Dynare se charge ensuite « du reste ». La combinaison de deux facteurs, un algorithme adressant un problème de tractabilité mathématique, et un morceau de logiciel très « user-friendly », explique le succès de Dynare (aujourd’hui un des logiciels les plus utilisés en sciences économiques) et donc participe du succès de la macroéconomie inspirée des principes proposés par Lucas.
Et pour l’économie expérimentale ?
Les expériences, en sciences économiques, prennent leur envol grâce à la création de laboratoires d’économie expérimentale centrés autour des ordinateurs.
Dans les années 1980, les économistes en charge des tout premiers laboratoires essaieront plusieurs types d’agencements et d’interface informatique : Vernon Smith, à l’Université de l’Arizona, se reposera initialement sur l’usage partagé d’ordinateurs centraux ; Charles Plott, à Caltech (Californie) commencera, quelques années plus tard, directement sur des PC IBM, connectés en Ethernet. L’essor de l’ordinateur personnel fera pencher la balance du côté de la deuxième solution et il sera déterminant pour l’essor de la méthode expérimentale en économie, comme le montre Andrej Svorenčik, chercheur à l’université de Pennsylvanie.
Le recours à l’informatique fait plus que tout simplement « booster » la quantité d’expériences menées dans ces laboratoires ; elle transforme aussi le type d’expériences. Les ordinateurs facilitent notamment l’interaction entre les sujets de l’expérience et, donc, la mise en place d’expériences imitant les interactions de marché. Plus besoin de communiquer aux participants de l’expérience des instructions à l’oral, ou par des feuilles imprimées, et nul besoin non plus de faire circuler, au moyen de petits billets, les informations relatives au comportement des autres participants : tout se passe maintenant via l’écran de l’ordinateur, qui devient la seule interface par laquelle le sujet de l’expérience communique. En particulier, les designs expérimentaux du type « enchère » vont devenir très populaires.
Plus de données, est-ce toujours mieux ?
Comme les trois dernières années d’inflation nous l’ont rappelé, la mesure de l’évolution des prix est un enjeu politique essentiel. Pour mesurer cette évolution, l’idéal est de pouvoir accéder à tous les prix de toutes les marchandises en temps réel. Au début des années 1990, avec la généralisation des code-barres, et avec l’informatisation des caisses enregistreuses, il devient en principe possible d’atteindre cet idéal. Julien Gradoz de l’Université de Lille explique comment cette possibilité peine cependant à s’imposer.
Le premier problème lié à la mobilisation des données de caisse est l’accessibilité de l’infrastructure nécessaire au stockage et au traitement d’une telle masse de données. Même les instituts nationaux de statistiques ne sont aujourd’hui toujours pas équipés pour gérer le volume des données de caisse infiniment supérieur aux données de prix traditionnellement collectées par enquête.
Deuxièmement, certaines opérations de traitement des données nécessitent l’intervention d’un jugement humain. C’est le cas, par exemple, de la classification de chaque produit dans une catégorie plus large (« alimentaires », « habillement »). Si les données de caisse contiennent, certes, l’indication de la nature spécifique de chaque produit, cataloguer chacune de ces observations dans une nomenclature s’avère une tâche qui relève de l’humain.
Enfin, la nature des données de caisse pose un problème sur l’accessibilité, la protection et la confidentialité des données. Non seulement pour le consommateur (les données de caisses peuvent associer les achats avec, par exemple, une carte fidélité), mais surtout pour les entreprises privées, pour lesquels la valeur stratégique de ces données est très forte.
Les « tech economists » : l’économiste du XXIᵉ siècle ?
Et aujourd’hui ? Des économistes chez Facebook, chez Amazon, chez Google et Microsoft ? Oui ! Depuis les années 2000, les entreprises de la tech recrutent en masse parmi cette profession. Le phénomène a pris une telle ampleur qu’un label est apparu : les « tech economists ». Ceux-ci se spécialisent, explique Edward Nik-Khah (chercheur du Roanoke College) dans l’analyse et la conception des mécanismes d’enchère et des comportements de marché : comment concevoir des règles (« market design ») qui permettent, par exemple, une circulation optimale et transparente de l’information.
Ces idées trouvent, depuis les années 2000, une application naturelle notamment dans le secteur des plates-formes, que ce soit pour adjuger un canapé sur eBay ou pour fixer le prix d’un encart publicitaire sur Google. Pour les économistes, en retour, la mise en place de ces dispositifs est un terrain de collecte de données et d’expérimentation grandeur nature qui leur permet de nourrir, en retour, leur recherche.
On retrouve une continuité entre cet épisode et d’autres plus anciens, en particulier le cas DRI : dans les deux cas, l’informatique fait bouger la frontière entre la recherche (universitaire, publique) et le monde des affaires. Avec une contrepartie : les sujets de recherche et les données pour les aborder sont conditionnés par l’agenda des entreprises de la tech…
L’IA est appelée à devenir un moteur de l’économie mondiale : les entreprises et les pays qui la contrôleront en tireront un soft power considérable.
Débridée par le lancement tonitruant de ChatGPT en novembre 2022, l’intelligence artificielle (IA) est au centre d’une formidable lutte de pouvoir. Ses promesses en matière de productivité et d’emploi aiguisent les appétits commerciaux et géopolitiques : cette technologie se profile déjà comme un redoutable amplificateur des stratégies numériques et des positions de force qui en découlent.
À ce compte-là, elle deviendrait de facto une sorte de système d’exploitation de l’économie tout entière, intermédiant toutes les interactions, et bientôt indispensable du transport à la santé en passant par la finance et l’industrie. Si tel est le cas, les entreprises qui contrôleront la technologie auront tout pouvoir sur l’économie et leurs pays de tutelle en tireront un soft power considérable, sans compter ses applications fondamentales dans les domaines de la cybersécurité, de la défense et de la surveillance de masse.
Qui contrôle l’IA ?
C’est que l’IA ne se limite pas aux activités économiques. Comme le rappelle Nathalie Smuha, juriste et philosophe à l’Université de Leuven (KUL), le pouvoir des algorithmes d’IA s’étend à la manière et à l’ordre dans lequel l’information nous est présentée, à la manière dont les contenus sont filtrés sur les réseaux sociaux, aux données qui servent à entraîner les modèles et au contrôle de toutes sortes d’activités. On touche ici à des choses aussi sensibles que la liberté d’expression, les fake news, la vie privée ou les droits d’auteur. L’influence de l’IA sur l’espace public et le dialogue social est majeure et celles et ceux qui la contrôlent ont déjà acquis un pouvoir analogue à celui d’un législateur.
Or, cette technologie qui envahit le monde est aux mains de quelques entreprises américaines. Derrière les grands modèles de langage qui sous-tendent la déferlante de l’IA générative, on retrouve les suspects habituels : Microsoft s’est rapproché d’OpenAI, concepteur de ChatGPT, jusqu’à prendre possession de 49 % de son capital et faire de Microsoft Azure son fournisseur cloud exclusif ; Amazon aussi, qui investit lourdement dans Anthropic, tout comme Google d’ailleurs, qui s’appuie aussi sur sa filiale DeepMind pour doper son modèle Gemini. Meta prétend jouer la carte du logiciel libre en ouvrant son modèle Llama. Au grand damne de Microsoft, Apple a également passé un accord avec OpenAI.
Pour expliquer cette concentration des modèles commerciaux, celle des talents ne suffit pas. Pour entraîner et faire tourner l’IA – surtout générative –, il faut des données toujours plus nombreuses et une puissance de calcul colossale. Or, ces éléments sont aux mains des quatre mêmes géants numériques. Même le Français Mistral AI, que l’on croyait fer de lance de la souveraineté européenne, s’est acoquiné avec Microsoft, cédant aux chants de sa sirène Azure et externalisant ses ressources informatiques. Le coût de la puissance de calcul nécessaire à l’IA générative pousse inexorablement les entreprises d’IA petites et grandes dans les bras des géants du cloud.
Il faut dire que ces derniers ne ménagent pas leurs efforts. Microsoft prévoit d’investir à elle seule plus de 50 milliards de dollars par an à partir de 2024 dans ses infrastructures de centres de données à travers le monde pour permettre de faire tourner les applications d’IA. À ce rythme-là, en quelques années, Amazon et Microsoft investiraient chacune dans leurs infrastructures propres l’équivalent de tout le programme Apollo. Il n’y probablement pas de précédent à une telle débauche d’investissements d’infrastructure.
Une grande partie de ces montants colossaux profite à Nvidia, l’entreprise américaine qui conçoit les processeurs nécessaires à l’entraînement des modèles. Vendue autour de 40 000 euros l’unité, la puce H100 représente la Ferrari que tout le monde s’arrache. Enfin, pas tout le monde. Les ventes de Nvidia sont très concentrées sur deux régions : Asie et États-Unis représentent plus de 90 % des ventes, et une poignée de clients, 4 ou 5 entreprises, représentent plus de la moitié de son chiffre d’affaires. Celui-ci connaît une croissance vertigineuse depuis quelques années.
Où est l’Europe ?
Qui s’étonnera que toutes les entreprises nommées soient américaines ? Les géants de la tech s’emploient sans relâche à creuser des douves dignes de la Fosse des Mariannes tout autour de leur écosystème, dont l’IA est appelée à devenir le réacteur principal. Cette ambition autour de l’IA, en Chine comme aux États-Unis, précipite des torrents d’argent.
Les géants chinois Alibaba, Tencent et Baidu par exemple ont investi 7 milliards de dollars rien que sur la première moitié de 2024, essentiellement dans les processeurs et l’infrastructure nécessaires à l’entraînement de grands modèles de langage. Des montants certes plus modestes que les géants américains, mais rappelons que des sanctions édictées par Washington interdisent aux entreprises chinoises d’acheter les puces les plus performantes (et onéreuses) de Nvidia. De plus, forte des gigantesques volumes de données provenant de son système de contrôle social, la Chine est particulièrement bien armée dans la course au développement de l’IA.
La réaction de l’Europe n’est pas à la hauteur des enjeux. Malgré ses 43 milliards d’euros (dont seuls 3 représentent en réalité de nouveaux moyens), le Chips Act, approuvé en 2023 pour doper l’autonomie européenne dans les semi-conducteurs, fait pâle figure.
Du CHIPS and Science Act à l’Inflation Reduction Act, l’administration Biden a, elle, déjà libéré 76 milliards de dollars d’argent public, auxquels sont venus s’ajouter 231 milliards d’investissements privés, soit plus de 300 milliards de dollars pour financer recherche, production et formation dans ce même domaine. On ne parle ici encore que des puces, et souvenons-nous que celles qui animent l’IA sont majoritairement conçues par Nvidia en Amérique et produites par TSMC à Taïwan.
Que reste-t-il à l’Europe, sinon la régulation ? Cela tombe bien, Sam Altman, le directeur général d’OpenAI, et ses confrères de Microsoft, IBM et Google appellent justement à réguler l’IA de toute urgence.
La méthode est connue : d’abord brandir la menace d’un péril imminent pour l’humanité (en raison de leur propre innovation, soit dit en passant), ensuite supplier pour qu’on régule, puis influencer la réglementation la plus favorable possible. Comme le législateur « n’a pas la moindre idée de ce qu’il fait » (dixit le sénateur américain Ted Cruz), celui-ci n’a d’autre choix que s’en remettre aux experts… de l’industrie. La capture règlementaire n’est jamais bien loin.
D’ailleurs, le lobbying des géants américains a rarement été si intense qu’au long de la rédaction de l’IA Act européen. Dans quel but ? Celui, par exemple, d’éviter à tout prix que les modèles génériques comme ChatGPT fussent considérés par défaut comme des applications à haut risque et d’en faire porter la responsabilité sur les utilisateurs. Ou, mieux encore, pointer le logiciel libre comme la pire source de risque incontrôlé et militer pour qu’il fût déclaré intrinsèquement suspect. En définitive, l’IA Act prend certes quelques précautions pour éviter d’entraver le logiciel libre, mais soumet celui-ci à des obligations en matière d’audit qui pourraient s’avérer impraticables à terme. À travers sa règlementation innovante, l’Europe n’est-elle pas en train d’attacher aux pieds de son industrie, un lourd boulet bleu et jaune ? La Chine en tout cas ne s’embarrasse pas de tant de précautions quand il s’agit par exemple de déployer la voiture autonome.
Pendant ce temps les velléités réglementaires fleurissent aux quatre coins du monde. Dès novembre 2023, le Royaume-Uni avait accueilli le premier sommet mondial sur la sécurité de l’IA, à Bletchley Park. Entourés d’Elon Musk et Sam Altman, Chine et États-Unis s’étaient engagés avec l’UE à coopérer pour encadrer cette technologie aux possibilités effrayantes.
En parallèle, le G7 avait déjà lancé son processus d’Hiroshima sur l’IA générative tandis que la Chine entamait son initiative mondiale de gouvernance de l’IA dans le cadre de sa stratégie « Belt and Road ». Sur le grand échiquier mondial, l’IA et ses infrastructures sont devenues les nouveaux pions clés et chacun tâche d’imposer ses propres règles à cette nouvelle version du jeu.
Les approches divergent fortement. À travers l’IA Act, l’Europe a opté pour un cadre régulatoire global et transversal fondé sur le niveau de risque posé par l’IA. L’objectif principal est de préserver les droits fondamentaux des citoyens européens. La Chine a choisi de soumettre tous les algorithmes au contrôle de l’État et de les mettre au service des objectifs fixés par le gouvernement, contrôle social en tête. Pékin compte du reste sur « Belt and Road » pour exporter ses technologies de surveillance et de villes intelligentes autant que possible.
À l’instar du RGPD, peut-être l’IA Act européen s’imposera-t-il comme une sorte de standard international, mais il est périlleux de jurer de quoi que ce soit face à une technologie qui repousse toujours plus vite et loin les limites du possible. Surtout, dans la grande course à l’IA, l’Europe devrait résolument aspirer à mieux qu’au rôle d’arbitre.
Pour influencer le futur, il vaut mieux être acteur de la technologie. Et pour cela, l’Europe va devoir poser des choix. Il ne paraît pas réaliste de rattraper les deux autres grands blocs dans le gigantisme des infrastructures. Pour récupérer un peu de souveraineté, il lui faudra donc opter pour des approches moins gourmandes en calcul, en données et en énergie. C’est d’ailleurs la voie suivie par le Français Mistral AI et l’Allemand Aleph Alpha.
L’heure pour l’Europe est à la formation, à la mutualisation des infrastructures et des efforts, et à la libération de l’innovation et du plein potentiel de nos cerveaux, présents et futurs, pour créer les modèles et les applications de l’IA en phase avec sa vision du futur et ses valeurs.
Nous proposons cet article dans le cadre du Forum mondial Normandie pour la Paix organisé par la Région Normandie les 26 et 27 septembre 2024 et dont The Conversation France est partenaire. Pour en savoir plus, visiter le site du Forum mondial Normandie pour la Paix.
Par Zakaria Hajiri, Regional Vice President, EMEA South, chez Ping Identity
Une étude récente a révélé que plus de 70 % des institutions financières ont subi des pertes dépassant 500 000 dollars en 2022, en raison d'activités frauduleuses. Parmi les cibles les plus vulnérables, on trouve les sociétés fintech et les banques régionales. Dans ce contexte, le secteur financier doit non seulement faire face à une réglementation de plus en plus stricte, mais aussi renforcer ses mécanismes de sécurité pour prévenir les fraudes.
La fraude bancaire désigne toute activité illégale visant à voler de l'argent ou des biens à une institution financière ou à ses clients. Avec l’avènement des services bancaires numériques, les criminels ont développé des méthodes plus complexes et plus difficiles à détecter. La transformation numérique du secteur bancaire, bien qu’elle ait offert une commodité sans précédent aux utilisateurs, a également élargi la surface d'attaque pour les fraudeurs. Pour se protéger efficacement, il est crucial de comprendre la diversité des fraudes existantes et d’anticiper les stratégies des criminels, tels que :
Prise de contrôle de compte (ATO) : Account Takeover (ATO), est une des menaces les plus sérieuses auxquelles les institutions financières sont confrontées. Un fraudeur accède au compte d’un client en obtenant ses identifiants de connexion par divers moyens, tels que le phishing ou l'achat de données volées sur le dark web.
Attaques par hameçonnage (Phishing) : Les attaques par hameçonnage ou communément appelé le phishing, cela à tromper les utilisateurs en leur faisant croire qu'ils communiquent avec une institution officielle. Les fraudeurs envoient des emails, SMS ou appels téléphoniques frauduleux qui imitent ceux des banques, dans le but de voler des informations sensibles, telles que des identifiants ou des numéros de carte.
Bourrage de données d'identification : Le « credential stuffing » est une technique utilisée par les cybercriminels qui ont acheté des identifiants volés en ligne. Ils testent ces identifiants sur différents sites jusqu'à obtenir une correspondance valide. La grande quantité de données testées permet aux fraudeurs de compromettre un nombre important de comptes.
Détournement de session : Le détournement de session se produit au milieu du parcours de l'utilisateur, plutôt qu'à l'étape de la connexion. Le pirate utilise des cookies de session volés pour reprendre la session existante d'un client. Les données volées sont généralement obtenues à l'aide d'extensions de navigateur de tiers, d'appareils infectés par des logiciels malveillants ou de réseaux WiFi publics.
Ingénierie sociale : L’ingénierie sociale consiste à manipuler psychologiquement des personnes pour qu’elles révèlent des informations confidentielles. Les fraudeurs peuvent, par exemple, se faire passer pour autruie et demander des informations sous prétexte d’urgence.
Pulvérisation de mots de passe : Dans cette méthode, les criminels tentent d’accéder aux comptes en associant un grand nombre de noms d'utilisateur à des mots de passe courants. En utilisant des robots pour automatiser le processus, ils augmentent leurs chances de trouver la bonne combinaison et de s’introduire dans les comptes bancaires des utilisateurs.
Fraude aux nouveaux comptes : La fraude aux nouveaux comptes se produit lorsque des criminels ouvrent des comptes bancaires sous une identité volée ou fictive. La réglementation relative à la connaissance du client (KYC) est cruciale pour prévenir ce type de fraude, en vérifiant l'identité réelle des personnes qui ouvrent de nouveaux comptes.
Documents frauduleux : Les faux documents, comme de fausses pièces d’identité ou de faux relevés bancaires, sont souvent utilisés pour commettre des fraudes au prêt ou à l'ouverture de comptes.
Fraude aux chèques : Bien que les chèques soient moins utilisés de nos jours, la fraude aux chèques persiste. Les criminels créent des chèques contrefaits ou modifient des chèques volés pour retirer de l'argent des comptes bancaires. Le « lavage de chèque », consiste à effacer et à modifier les informations sur un chèque volé.
Blanchiment d'argent : Le blanchiment d’argent est un processus complexe par lequel les criminels dissimulent l'origine de fonds obtenus illégalement, souvent via des comptes bancaires.
Paiements push autorisés (PPA) : Les paiements push autorisés sont des transactions où la victime, souvent trompée par un fraudeur se faisant passer pour une entreprise légitime, effectue un paiement difficilement réversible. Ces fraudes sont souvent liées à des arnaques commerciales.
Fraude au virement bancaire : Les escroqueries aux virements électroniques sont parmi les plus dangereuses, car les transferts d'argent sont rapides et difficiles à annuler. Les fraudeurs se font souvent passer pour des autorités ou des membres de la famille en détresse pour prendre par les sentiments leurs victimes.
La fraude bancaire, dans toutes ses formes, constitue une menace sérieuse pour la stabilité financière et la confiance des clients. Face à l’ingéniosité des criminels, il est crucial pour les institutions financières d’adopter des pratiques de sécurité rigoureuses et proactives. La mise en place de stratégies telles que la vérification d'identité, l'éducation des utilisateurs et des employés, ainsi que l'utilisation d'outils de surveillance en temps réel, peut grandement réduire l’impact de la fraude sur les banques et leurs clients.
Grand chantier voulu par Emmanuel Macron, les États généraux de l’information ont mobilisé 22 assemblées citoyennes, 174 auditions, des dizaines de contributions écrites, et ce, pendant 9 mois de travaux. Leurs préconisations ont été remises au président de la République, jeudi 12 septembre. Répondent-elles à « l’urgence démocratique », alors que le journalisme et le droit à l’information sont menacés ? Entretien avec le chercheur Alexis Lévrier.
Comment avez-vous reçu les conclusions de ces États généraux de l’information voulus par Emmanuel Macron ?
Il s’agit d’une immense déception. Concernant les médias, la seule promesse de campagne du candidat Macron, c’était ces États généraux de l’information (EGI). Ils ont été lancés d’une manière très solennelle, puis de nombreux intervenants de qualité ont participé aux groupes de travail. Le rapport pointe justement une urgence démocratique à protéger et à développer le droit à l’information. Or les solutions proposées ne sont pas à la hauteur. L’extrême droite est aux portes du pouvoir et elle a des projets très précis pour les médias : faire taire l’audiovisuel public et s’en prendre au contre-pouvoir journalistique. Regardons ce qu’a fait l’extrême droite en Hongrie, dans l’Amérique de Trump, en Italie avec Meloni. La France est sur le point de basculer. Il fallait des solutions fortes pour réguler les médias, renforcer l’audiovisuel public, lutter contre la concentration des groupes, rendre du pouvoir aux journalistes face à leurs actionnaires. Là, malheureusement, on a le sentiment que la recherche du consensus, la volonté de ne pas déplaire au pouvoir politique ont conduit à des propositions en demi-teinte.
Relevez-vous tout de même des préconisations positives ?
Les propositions qui portent sur l’éducation aux médias – même si c’est peu original – sont bonnes. Il faut bien sûr accroître cette éducation à l’école, à l’université ou dans les entreprises. Je salue également la proposition de créer un statut juridique de « société à mission d’information » qui implique une participation des lecteurs ou abonnés, de même qu’un ratio important de journalistes formés dans des écoles reconnues et titulaires de cartes de presse. Il y a des idées pour mieux défendre les modèles économiques de la presse, pour améliorer la protection du secret des sources, pour renforcer l’indépendance des rédactions, pour généraliser les comités d’éthique. Mais en l’état, l’ensemble reste vague et peu contraignant pour les actionnaires…
Que pensez-vous des propositions concernant les plates-formes et les GAFAM ?
Il est question ici (c’est la proposition n°8) d’une contribution obligatoire des plates-formes numériques sur la publicité digitale, c’est une bonne chose. C’est l’une des grandes raisons de la crise des médias aujourd’hui : le passage au numérique n’a pas bien pris en compte la question de la viabilité économique. La gratuité des médias fut une erreur terrible au début de l’ère d’Internet et désormais, les ressources publicitaires sont captées par les fournisseurs de services au détriment de ceux qui produisent les contenus. L’idée d’une contribution obligatoire est donc positive, mais le pouvoir politique aura-t-il réellement la volonté de la mettre en place, c’est la question.
Que pensez-vous des réponses apportées face à l’offensive de Vincent Bolloré et autres magnats des médias ?
C’est là que le bât blesse : le rapport ne touche pas au pouvoir des actionnaires. Or le principal problème en France, c’est la concentration des médias aux mains de milliardaires qui ont un projet directement politique. Contrairement à ce qu’affirme Bruno Patino, il n’y a pas vraiment de « polarisation » des médias. Ce terme est en tout cas peu satisfaisant, car il ne rend pas compte de la profonde dissymétrie qui caractérise notre paysage médiatique : il n’y a pas de Bolloré de gauche, mais plutôt un nouveau milliardaire (Pierre-Edouard Stérin) qui rêve de construire un second empire médiatique au service d’une même croisade religieuse et raciste. Ces deux milliardaires sont explicitement au service du Rassemblement national et plus généralement de l’extrême droite. Et un autre magnat des médias, Daniel Kretinsky, était prêt à céder Marianne à Stérin pour le laisser construire cet empire, en dépit de l’opposition farouche de la rédaction.
Le rapport des États généraux ne prend pas la mesure de ce phénomène : l’espace informationnel penche aujourd’hui de plus en plus en faveur de ce camp. De manière plus générale, les oligarques respectent de moins en moins le travail des journalistes. L’offensive de Bolloré agit de ce point de vue comme un révélateur, et produit un effet d’entraînement : les autres grands actionnaires savent désormais que l’on peut trahir l’identité éditoriale d’un titre de presse et vider une rédaction de sa substance sans rencontrer de véritable résistance. Selon toute vraisemblance, les propositions de ce rapport ne permettront pas de rééquilibrer ce rapport de force.
Mais il y a bien une proposition pour lutter contre la concentration des médias…
La proposition numéro neuf est en effet positive dans son intention : celle d’assurer le pluralisme des médias et de limiter leur concentration. Il s’agirait de prendre en compte le « reach » mesurant la capacité de chaque empire médiatique à atteindre de manière globale les lecteurs, auditeurs et spectateurs. On déterminerait ainsi un seuil unique et plurimédia qu’un groupe de presse ne pourrait dépasser. Cette idée est intéressante et part d’un constat pertinent : nos dispositifs anti-concentration datent de 1986 et sont totalement obsolètes en raison de l’évolution du paysage médiatique et notamment d’un basculement massif vers le numérique.
Reste à savoir quelle traduction concrète pourrait en être faite par le pouvoir politique. On peut là encore être dubitatif car le rapport prend explicitement l’exemple du système allemand. Or, en Allemagne, ce seuil est fixé à 30 %. Si le même seuil est appliqué en France, la mesure sera inopérante puisqu’aucun groupe n’atteint pour l’instant un tel seuil dans notre pays. Cela n’empêche pas le groupe Bolloré, grâce à la complémentarité de ses médias, de peser sur l’opinion publique comme aucun autre empire ne l’avait fait avant lui dans l’histoire récente.
Le « droit d’agrément » des journalistes sur les nominations des directeurs de rédaction par les actionnaires fait polémique. Quel est l’enjeu ?
C’est le point essentiel, et celui qui me rend le plus sceptique. On peut même parler de reddition à propos de la version finale de ce rapport, qui a fait le choix d’écarter les propositions permettant de renforcer le pouvoir des rédactions face aux actionnaires. Il faut se rappeler que lorsque Bolloré a choisi d’imposer Geoffroy Lejeune comme directeur de la rédaction du JDD, une proposition de loi transpartisane a vu le jour : elle avait pour but de protéger les rédactions en leur donnant un droit d’agrément ou un droit de veto leur permettant de s’opposer à la nomination d’un directeur de la rédaction choisi par l’actionnaire.
Plusieurs députés de la majorité présidentielle étaient initialement signataires de cette proposition, mais ils ont finalement choisi de lui faire échec en renvoyant à plus tard, au moment de la restitution des États généraux de l’information. Ce droit d’agrément aurait dû être dans les conclusions des EGI or il n’y est pas ! Les groupes de travail l’ont proposé, mais il a été écarté par le comité de pilotage. Ce qu’il en reste, c’est que l’actionnaire sera simplement tenu d’informer la rédaction de son intention pour désigner un nouveau directeur de la rédaction. C’est d’une immense hypocrisie !
On sait bien que la crise des médias français est liée au fait que certains actionnaires ne respectent plus le travail des rédactions, les manipulent et se débarrassent des récalcitrants. C’est ce que fait Vincent Bolloré chaque fois qu’il reprend un média pour mettre à la place des militants d’extrême droite. C’est là qu’on attendait le rapport, mais visiblement, ceux qui l’ont piloté ont préféré ne pas déplaire aux actionnaires.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Bruno Patino, Président d’Arte, a justement piloté ces États généraux de l’information. Quel rôle a-t-il joué ?
Je rappelle que Christophe Deloire avait d’abord été nommé délégué général des États généraux de l’information. Ce choix m’avait rendu extrêmement enthousiaste parce que l’on connaissait le combat de RSF pour réguler les médias et pour défendre la liberté d’expression. Lui avait osé affronter le groupe Bolloré.
Il en a payé le prix, avec des attaques ad hominem d’une très grande brutalité. Malheureusement son décès prématuré nous a privés de sa voix, de son engagement et de sa force d’incarnation. Bruno Patino, lui, a été nommé en janvier en tant que président du comité de pilotage. Ce que l’on constate, c’est que ses prises de position sont très prudentes. En l’écoutant, on peut avoir le sentiment qu’il a souhaité ménager les grands propriétaires de médias, quels qu’ils soient.
Bruno Patino sur France Inter le 13 septembre 2024.
Peut-on soupçonner le pouvoir politique d’avoir exercé des pressions ?
J’ignore s’il y a eu des pressions, et il ne m’appartient pas de le dire. Mais nous sommes dans un système – celui de la Ve République – où le devenir des médias dépend étroitement du bon vouloir du pouvoir politique, et notamment du pouvoir présidentiel. Cette influence avait été perceptible au moment des États généraux de la presse écrite lancés par Nicolas Sarkozy en 2008. On voit mal pourquoi il en aurait été autrement cette fois-ci, d’autant qu’Emmanuel Macron a toujours assumé une conception du pouvoir très verticale, ce qui transparaît en permanence dans son attitude vis-à-vis des médias.
Au-delà du rapport lui-même, que dire de la relation entre le pouvoir politique et Vincent Bolloré ?
Emmanuel Macron nous avait promis de grandes choses pour la liberté des journalistes. On pouvait avoir des espoirs réels au moment du lancement des États généraux : la crise du JDD avait conduit de nombreux responsables politiques et toute la profession journalistique à une prise de conscience. Nous avions en outre à l’époque une ministre de la Culture, Rima Abdul Malak, déterminée à mieux réguler les médias et à défendre la presse. Elle a eu le courage d’affronter Bolloré, ce qui lui a valu une campagne de presse indigne de la part de ce groupe.
Mais elle a été remplacée au cours des États généraux de l’information, et on a également senti la dynamique changer à ce moment-là. Le premier geste de sa remplaçante, Rachida Dati, fut d’aller dans les médias de Bolloré, le JDD et CNews. Cette dernière y a expliqué que le problème de pluralisme ne se trouvait pas du côté des médias de Bolloré mais au sein de l’audiovisuel public ! Notons que Michel Barnier, premier ministre, a lui-même donné sa première grande interview de presse au JDD. Aujourd’hui, on a le sentiment que le pouvoir a renoncé à réguler les médias et à s’opposer à Vincent Bolloré.
Propos recueillis par David Bornstein
Alexis Lévrier, Historien de la presse, maître de conférences Université Reims Champagne Ardenne, chercheur associé au GRIPIC, Sorbonne Université
La récente nomination de Michel Barnier au sein du gouvernement français marque un changement de cap significatif, notamment en ce qui concerne la stratégie numérique de la France et de l’Europe. Fort d'une carrière politique riche, tant au niveau national qu’européen, le nouveau Premier ministre est une figure respectée pour son expertise dans des domaines cruciaux tels que les négociations commerciales et la régulation. Cependant, c'est son influence potentielle sur les questions numériques qui suscite aujourd'hui un espoir particulier.
Une expertise européenne au service du numérique
Michel Barnier est avant tout un Européen convaincu, qui a joué un rôle clé dans des dossiers d’envergure, notamment comme négociateur en chef du Brexit pour l'Union européenne. Cette expérience le place en position idéale pour aborder les problématiques numériques avec une vision transnationale. Dans un monde de plus en plus interconnecté, où les frontières traditionnelles s’effacent devant la montée des géants de la tech, sa compréhension fine des enjeux globaux sera précieuse.
La régulation des grandes entreprises du numérique, un chantier déjà amorcé par l'Union européenne avec des initiatives telles que le Règlement général sur la protection des données (RGPD) et le Digital Services Act (DSA), pourrait connaître une impulsion majeure sous son impulsion. Barnier a toujours plaidé pour un encadrement strict des multinationales de la technologie, et sa nomination pourrait renforcer la posture de la France dans la lutte contre les monopoles numériques et la protection des citoyens face à l'exploitation de leurs données personnelles.
Un coup d'accélérateur pour la souveraineté numérique
La question de la souveraineté numérique, l’un des grands chantiers du gouvernement actuel, pourrait aussi trouver en Barnier un allié stratégique. En effet, la crise du Covid-19 et les récentes tensions géopolitiques ont révélé les vulnérabilités européennes en matière de technologies critiques, notamment vis-à-vis des infrastructures cloud et des réseaux 5G, dominés par des acteurs américains et chinois. Le défi est donc de taille : développer des solutions européennes souveraines pour garantir l'indépendance technologique de la France et de l'Europe.
Michel Barnier, avec son expérience des négociations commerciales internationales, pourrait jouer un rôle déterminant dans l'élaboration d'une stratégie industrielle ambitieuse pour renforcer l'écosystème numérique européen. Sa connaissance des rouages européens sera un atout pour faciliter la coordination des États membres sur des projets comme Gaia-X, l’initiative européenne visant à créer un cloud souverain. Ce projet, qui reste pour l’instant embryonnaire, pourrait bénéficier de son soutien pour atteindre la maturité et offrir une véritable alternative aux géants américains et chinois.
Un élan vers une transformation numérique inclusive
Au-delà de la régulation et de la souveraineté, Michel Barnier pourrait aussi s'engager en faveur d'une transformation numérique plus inclusive. La fracture numérique reste un problème majeur en France, avec de nombreuses zones rurales ou défavorisées encore en retard en termes de connectivité et d’accès aux outils numériques. La transition numérique doit être une opportunité pour tous, et non un facteur d’exclusion.
Dans ce contexte, Barnier pourrait soutenir des initiatives pour accélérer le déploiement de la fibre optique et des infrastructures 5G dans les zones moins bien desservies, tout en veillant à ce que les citoyens et les petites entreprises puissent profiter des outils digitaux dans leur quotidien. L’enjeu est non seulement d’étendre la couverture numérique, mais aussi de fournir les compétences nécessaires à chacun pour s’adapter à cette nouvelle ère.
Une vision prospective pour la France numérique
La nomination de Michel Barnier au gouvernement envoie un signal clair : la France entend jouer un rôle de premier plan dans la régulation et le développement des technologies numériques. Son parcours et son expérience européenne seront des atouts pour faire avancer les dossiers complexes, qu’il s’agisse de la protection des données, de la régulation des plateformes ou de la promotion de l’innovation numérique.
Avec Barnier, le gouvernement dispose désormais d’un interlocuteur capable de renforcer l'alignement entre les priorités françaises et les grandes orientations européennes en matière de numérique. Son arrivée pourrait être un véritable levier pour faire progresser une vision numérique souveraine, inclusive et durable, face aux défis mondiaux de demain.
Cette nomination est donc à surveiller de près, car elle pourrait marquer le début d'une nouvelle ère pour la France numérique, une ère où la transformation digitale serait enfin en phase avec les ambitions économiques et sociales de notre pays.
Et maintenant ?
Michel Barnier, avec sa stature internationale et son expérience de terrain, est bien plus qu'une figure politique. Son rôle au sein du gouvernement pourrait bien catalyser la stratégie numérique française, en la plaçant à la croisée des enjeux de régulation, de souveraineté technologique et d’inclusion sociale. Reste à voir quelles mesures concrètes seront prises dans les prochains mois, mais son arrivée est sans aucun doute porteuse d’espoir pour un numérique plus maîtrisé, plus éthique et plus juste.
Quel avenir pour Atos, ex-fleuron français de l’informatique ? Entre annonces, rebondissements et échéances, c’est la question qui anime nombre de débats économiques et politiques. La gestion de l’activité d’infogérance d’Atos est une vraie source d’enseignement dans la compréhension de la faillite actuelle. Tirons-en les leçons pour prendre, pour nos entreprises, des directions stratégiques porteuses et pérennes.
Acquérir sans vraiment intégrer : l’erreur première d’Atos
Atos a construit sa croissance sur une stratégie d’acquisition massive. Le sujet n’est pas ici de savoir si les rachats étaient ou non pertinents, mais bien de questionner l’intégration des différentes structures au fur et à mesure des fusions. N’oublions pas qu’une réorganisation consomme environ 25% des ressources en temps et en énergie des équipes. Ces dix dernières années, il y a eu au sein d’Atos une réorganisation par an, imputant considérablement la valeur ajoutée des différents métiers. En outre, les multiples changements de direction ont déstabilisé l’entreprise.
La division d’infogérance d’Atos a été victime de cette stratégie. Trop surchargé en coûts financiers, il n’a pas pu investir dans son cœur de métier et dans le développement d’offres clés (comme le cloud) qui l’auraient positionné sur l’avenir de son secteur. Les résultats opérationnels n’ont pas été au rendez-vous, dégradant à la fois l’image et la compétitivité de cette activité d’Atos. Plutôt que de concentrer les énergies sur la réorganisation, il aurait fallu traiter les problèmes de fond, et développer l’infogérance d’infrastructures IT comme un modèle industriel propre, afin de rester agile sur un marché en mouvement perpétuel.
L’adaptabilité du modèle industriel : un impératif absolu
Le secteur de la technologie étant en perpétuelle évolution, il est essentiel de s’adapter continuellement, et de trouver le juste équilibre entre maintien d’un cap stratégique et repositionnements réguliers. Les transformations structurelles des entreprises de l’infogérance doivent se décider et se traiter à l’horizon de leurs contrats, donc au moins cinq ans.
Accepter de transformer son modèle pour rester compétitif, c’est être capable à la fois de comprendre l’évolution de la demande du marché, et d’adapter son « delivery », soit l’ensemble des étapes et processus permettant la bonne réalisation d’une mission (études, planning, reporting, budget…).
De nombreuses erreurs de positionnement sont en effet la résultante d’une vision court terme guidée par le rendement immédiat. Certains fonds et banques d’affaires ont ainsi tendance à privilégier des opérations de fusion ou d’acquisition qui ne correspondent ni au rythme industriel ni à la réalité de terrain.
Le marché de l’IT est riche d’exemples d’entreprises ayant bien négocié ce tournant stratégique. Prenons le cas des éditeurs de logiciels. Il y a 10 ans, ils vendaient des licences. Aujourd’hui, ils sont tous fournisseurs de SaaS.
Intelligence artificielle : le nouveau virage technologique à ne pas manquer
S’il y a bien un sujet qu’il est impératif de considérer avec attention, c’est celui de l’intelligence artificielle. Cette dernière représente une nouvelle forme de disruption qui révolutionne le rapport aux services professionnels.
Une partie des acteurs ont déjà amorcé des changements stratégiques pour intégrer l’assistance des algorithmes dans l’ensemble de leurs services informatiques. Les métiers du développement, de l’infogérance et de la cybersécurité, doivent être à la pointe de l’innovation. Rester alerte et réactif est essentiel.
Les erreurs de positionnement commises par Atos sur le marché du cloud ne doivent pas se reproduire avec l’intelligence artificielle. Intégration lors des fusions-acquisitions, agilité et adaptabilité, opportunités liées à l’IA… tirons les enseignements de l’expérience Atos : il en va de la compétitivité et de la pérennité de nos grandes entreprises françaises.
Vos données vous appartiennent. Du moins, c’est ce que prévoit la loi européenne sur la régulation des données (RGPD). D’une part, elle limite la collecte de vos données par les entreprises privées à ce que vous avez consenti. D’une autre, elle vous permet de demander l’effacement total des informations vous concernant des serveurs de cet acteur : il s’agit du droit à l’oubli. C’est ce second volet qui nous intéresse ici, et son applicabilité dans le monde moderne. Si supprimer quelques lignes d’une base de données n’a rien de compliqué, la tâche devient nettement plus périlleuse quand l’intelligence artificielle (IA) entre en jeu.
En effet, des modèles d’IA de plus en plus complexes, fondés sur des réseaux de neurones artificiels, sont déjà déployés par de nombreux acteurs privés. Ces modèles ont besoin d’apprendre à partir d’un maximum de données pour être performants. Ainsi, la présence d’informations vous concernant dans les serveurs d’une entreprise implique souvent son utilisation pour l’entraînement de ses modèles d’IA. Dès lors, l’oubli de vos données passe de la simple suppression d’une ligne dans un tableau à une opération complexe s’approchant plus de la neurochirurgie appliquée à des « cerveaux » artificiels. Alors, comment réussir à faire oublier une information précise à un réseau de neurones artificiel ?
Oublier les données : des enjeux d’éthique et de vie privée
L’application au cas de la protection des données est importante, mais l’enjeu de l’oubli machine, également appelé désapprentissage, ne s’arrête pas là. L’utilisation d’informations protégées pour l’entraînement de réseaux de neurones artificiels est encore une zone grise aux yeux de la loi. Plusieurs cas de ce type sont en train d’être traités par la justice dans différents pays et ils pourraient marquer un précédent important pour le futur de la législation de l’intelligence artificielle.
Exemple notable : dans certains cas de figure, ChatGPT est capable de réciter des paragraphes entiers d’articles du New York Times, sans pour autant citer sa source. Le quotidien américain a donc porté plainte contre OpenAI, la société développant ChatGPT, et l’issu du procès pourrait bien orienter la jurisprudence future dans le domaine. Toutefois, l’oubli machine ne se limite pas à l’utilisation des données personnelles ou commerciales. En effet, la tendance mondiale depuis quelques années est à l’entraînement de modèles de plus en plus imposants, notamment dans le domaine du traitement du langage où les progrès faits sont impressionnants. Il devient donc de plus en plus compliqué de contrôler la légitimité des données utilisées pour entraîner des IA.
Si GPT-3, le modèle d’OpenAI de 2020, avait appris d’un corpus représentant 2 400 années de lecture continue pour un humain moyen, ce chiffre n’a fait qu’augmenter, rendant la vérification manuelle impossible. Qu’il s’agisse d’affirmations fausses, de contenus racistes ou sexistes, ou bien de coordonnées personnelles d’individus, il y a fort à parier que certains se glissent malencontreusement dans les données d’entraînement et donc dans les connaissances d’un tel modèle. L’absence actuelle de méthodes d’oubli efficaces signifie alors qu’en cas d’infiltration de données non voulues, il n’y aura pas de réelle solution pour effacer cette information outre le réentraînement, dont le coût se chiffre en dizaines de millions d’euros et en centaines de tonnes de CO2.
Comment les neurones artificiels apprennent-ils ?
Pour comprendre la difficulté liée à la suppression d’informations dans un réseau de neurones, il est utile d’avoir une idée de comment un tel réseau « apprend ». Prenons un réseau de neurones chargé de différencier des images de chiens et de chats. L’ensemble des images labellisées (c’est-à-dire avec une légende « chien » ou « chat ») utilisé par le réseau de neurones pour apprendre est appelé « jeu d’entraînement ».
Le réseau est initialisé aléatoirement : on crée des neurones artificiels, organisés en couches, et connectés entre eux. La force de ces connexions, appelée « poids », est l’équivalent des connexions neuronales d’un cerveau réel. Ces poids permettent de caractériser la façon dont l’entrée (l’image de chien ou de chat) est traitée, transformée et envoyée entre les différents neurones du « cerveau » artificiel, pour que ressorte finalement un score entre 0 et 1. Un score de 0 (ou de 1) correspond à la certitude absolue que l’image est un chat (ou un chien), et un score de 0,5 correspond à une incertitude totale entre les deux. Des outils ludiques permettent de se représenter le fonctionnement d’un réseau de neurones).
Pendant la phase dite « d’apprentissage », des images du jeu d’entraînement sont montrées au réseau de neurones, qui prédit un label pour chacune d’entre elles. On donne ensuite au réseau le vrai label qui était attendu. Le modèle peut alors calculer l’erreur qu’il a faite. C’est là que la magie va opérer. À partir de la seule information de l’erreur commise, le réseau va mettre à jour l’ensemble de ses poids pour tenter de la corriger. Cette modification utilise des règles de calcul simples à l’échelle d’un neurone, mais incompréhensible pour l’humain à l’échelle du réseau entier.
Où se trouvent les données, une fois le modèle entraîné ?
C’est de là que vient un paradoxe, souvent difficile à comprendre pour les non-initiés : même si l’humain a conçu de A à Z ces architectures d’intelligence artificielle, le système qui en résulte n’est pas totalement compréhensible par son créateur. Certains groupes de neurones sont relativement bien compris par les chercheurs. Toutefois, le rôle précis de chacun des neurones est mal connu et également sujet à interprétation. Il est donc ardu de répondre à une question du type « trouvez l’ensemble des neurones servant à identifier la queue du chien », d’autant que les neurones sont fortement connectés entre eux et que réduire un neurone à une seule fonctionnalité est généralement impossible.
La question posée lorsque l’on cherche à faire du désapprentissage est encore plus difficile : comment chacun des neurones du réseau aurait-il été impacté si on n’avait jamais traité l’image de chat n° 45872 ? Il ne s’agit pas alors d’altérer la capacité du réseau à reconnaître les chats – cette image peut très bien apporter peu d’informations – ni de supprimer l’image de la base de données puisque ce qu’en a appris le réseau est stocké, comme pour un cerveau humain, dans les poids liant les neurones. Il faut alors tâcher d’identifier les connexions neuronales (poids) qui ont le plus appris de cette image en particulier, et modifier leur intensité dans le but de détruire l’information associée à la donnée dont on veut simuler l’oubli.
Différentes pistes vers le désapprentissage
Trois critères principaux assurent un désapprentissage efficace. D’abord, l’oubli doit se faire assez rapidement, sinon il est plus simple de réentraîner le modèle entièrement. Ensuite, les performances du réseau sur les données restantes (non oubliées) doivent rester bonnes. Enfin, l’oubli de l’information doit être assuré par la procédure. Ce dernier point est le plus délicat étant donné qu’il consiste en la vérification de l’absence d’une information. Quantifier mathématiquement les capacités d’oubli de la méthode est donc crucial.
Parmi les méthodes envisagées dans la littérature, beaucoup se reposent sur une phase d’apprentissage sur les données restantes. Ce réentraînement permet au réseau de mettre à jour ses poids pour se spécialiser uniquement sur ces données. Le but est « d’écraser » au fur et à mesure l’information des données à oublier, comme le fait par exemple le cerveau humain pour une langue non pratiquée.
D’autres méthodes essaient d’utiliser les données à oublier pour inverser le processus d’apprentissage. Si cette idée peut sembler très intuitive, nous n’avons à ce jour aucune garantie mathématique sur la quantification de l’oubli qu’elle permet. De plus, son instabilité peut parfois mener à une dégradation globale des performances du modèle.
Enfin, certains misent sur une modification du processus d’entraînement pour faciliter l’oubli futur de données. En fournissant petit à petit les données d’entraînement au réseau, l’oubli peut se faire par un simple retour en arrière jusqu’à un point où le réseau n’a pas vu la donnée à oublier. Il est suivi d’une phase de réentraînement sur les données restantes. La limite de ce type d’approche est l’existence nécessaire de « premières données » vues par le modèle, ce qui forcerait celui-ci à être réinitialisé entièrement en cas de demande d’oubli. On ne peut en effet pas « ôter » l’effet de ces premières données sur le modèle : isoler exactement l’impact d’une donnée est aussi cher que d’entraîner un modèle de A à Z.
Un déploiement encore balbutiant
Le domaine de l’oubli machine est vaste et comporte de nombreux défis. Bien qu’aucune méthode ne soit encore parfaite, des progrès significatifs sont à attendre dans les prochaines années du fait de la demande croissante pour ce type de solutions. Bien que le domaine du désapprentissage soit encore jeune et qu’aucune application industrielle n’ait été rendue publique, certaines entreprises comme Google ou JPMorgan Chase s’intéressent de près au sujet.
L’oubli machine pose un défi complexe mais essentiel à l’ère de l’intelligence artificielle et de la protection des données personnelles. Bien que la réglementation comme le RGPD vise à garantir les droits des individus, sa mise en œuvre dans les réseaux de neurones est difficile. Les approches actuelles montrent des progrès, mais nous sommes encore à l’avant-garde de cette problématique. L’investissement de grandes entreprises suggère un avenir pérenne pour le domaine, offrant des méthodes plus robustes pour assurer le désapprentissage et renforcer la confiance des utilisateurs dans les systèmes d’IA.
Martin Van Waerebeke, Doctorant en (dés)apprentissage machine, Inria et Marco Lorenzi, Chercheur (analyse données de santé, imagerie medicale, apprentissage automatique, modelisation), Inria