Où en est l’intelligence artificielle, notamment générative,d’un point de vue économique et financier ? Le recul des valeurs boursières l’été dernier a posé la question. Si certains modèles économiques sont plus fragiles qu’on ne le pensait, les fondamentaux restent solides. Le développement pourrait être ralenti. Pas stoppé.
La trêve estivale a été mouvementée sur les marchés financiers, et plus particulièrement pour les valeurs liées à l’intelligence artificielle (IA) qui ont connu un mouvement correctif d’une ampleur inédite. Les « Cinq Magnifiques » (Nvidia, Microsoft, Amazon, Alphabet, Apple) abandonnaient ainsi entre 15 % et 19 % de leur valeur. La fièvre estivale retombée, quels enseignements pouvons-nous en tirer ? Avons-nous assisté à une simple correction technique momentanée – comme le suggère la remontée du Nasdaq sur les derniers mois – ou aux prémices d’un dégonflement de la bulle de l’IA ?
200 milliards de dollars
La bataille de l’IA se joue d’abord sur les marchés financiers. La course à l’armement pour se constituer un portefeuille d’actifs stratégiques, modèles fondamentaux, infrastructures de calcul et de stockage, et même désormais des centrales nucléaires pour alimenter les data centers, requiert des investissements colossaux. Cette année, ce sont plus de 200 milliards de dollars qui auront été investis par les seuls GAFAM dans l’IA, et déjà se murmure un potentiel investissement de Nvidia dans xAI qui valoriserait à 75 milliards de dollars la firme d’Elon Musk spécialisée dans l’IA. C’est une accélération de plus de 45 % par rapport à 2023, qui était déjà une année record.
Pourtant, ces investissements massifs s’inscrivent dans un contexte macro-économique empreint d’incertitudes (tensions géopolitiques, pression sur les ressources, ralentissement de la croissance mondiale…) qui peut inciter les investisseurs à réaliser des plus-values en allégeant leur encours sur les valeurs technologiques qui ont flambé d’une part, et à se reporter sur des valeurs moins volatiles, plus lisibles, et finalement, moins risquées d’autre part. Mais, plus que le contexte macro-économique, c’est la question de l’existence même d’une bulle autour de l’IA qu’il convient de poser. Car, tandis que le temps passe et que les premiers retours d’expérience remontent, de premières inquiétudes se font jour quant au potentiel de marché réel des solutions d’IA, notamment dans le domaine des IA génératives.
Gains de productivité décevants
Premier motif d’inquiétude : la hausse de productivité promise qui se fait dangereusement attendre. En 2023, Goldman Sachs anticipait des gains de productivité de 9,2 % et une contribution de 6,1 points à la croissance américaine pour la prochaine décennie ! Or, ces prévisions ont été récemment contestées par Daron Acemoglu, le très écouté économiste du MIT spécialiste de l’innovation, dont les derniers travaux de modélisation font état d’un potentiel de gains de productivité de 0,56 % et d’une contribution à la croissance limitée à 1 point. Une véritable douche froide.
Contrairement aux promesses commerciales des promoteurs de l’IA, l’universitaire estime que, pour la prochaine décennie, seulement 19,9 % des tâches en entreprise sont exposées à l’IA, dont seulement 4,6 % sont automatisables de façon rentable. Et s’il est tout à fait possible d’opposer à Daron Acemoglu les incertitudes concernant les évolutions techniques à venir de l’IA ou l’absence de prise en compte des effets de rebond résultant de la réallocation des ressources productives libérées par l’automatisation permise par l’IA, pour l’heure, la démonstration indubitable des gains de productivité pour les entreprises, hors tâches bien définies, se fait encore attendre.
Or, sans cette démonstration, il est difficile pour une entreprise, qui plus est dans le contexte macro-économique dépeint en amont, de souscrire aux offres des promoteurs de l’IA. Face aux montants colossaux investis, la question de la solidité économique et de la robustesse des business models des promoteurs de l’IA pourrait rapidement se poser. Mais si pour les GAFAM aux ressources diversifiées et abondantes, le pari devrait rester globalement viable, pour les start-up ou les entreprises spécialisées, l’avenir pourrait s’assombrir relativement rapidement si le rythme des investissements venait à ralentir. C’est en tout cas ce que semble penser le PDG de Baidu lorsqu’il prophétise que 99 % des entreprises de l’IA sont vouées à la disparition.
Vers l’effondrement des modèles ?
Deuxième motif d’inquiétude : l’effondrement des modèles d’IA, et plus particulièrement, des larges modèles de langage sur lesquels s’appuient les IA génératives. Plusieurs travaux récents estiment que les IA arrivent à un point d’inflexion au-delà duquel elles auront du mal à progresser. La raison ? Les outils existants auraient fini de tirer tout le suc des données existantes dont la production annuelle est elle aussi limitée !
Les IA génératives ont, en effet, besoin de nouvelles données pour progresser. Là s’ouvre un débat d’experts. Pour certains chercheurs, les IA pourraient d’elles-mêmes créer des données dites « synthétiques » par la combinaison originale d’anciennes données, et utiliseraient ces données synthétiques comme autant de nouveaux intrants pour poursuivre leur entraînement. Une telle démarche est vertigineuse, mais solide pour ses soutiens. A l’opposé, des chercheurs critiquent cette méthodologie qui rendra le résultat des IA encore moins maîtrisable, car reposant sur un pool de données parfois de mauvaise qualité, recombinées sans intervention humaine, pour des résultats parfois très éloignés de ceux escomptés. Pour le dire autrement, les IA ingurgiteraient un poison qu’elles auraient elles-mêmes créé. Le débat n’est pas encore tranché, mais on mesure à quel point il pourrait définir une limite à l’idée d’une croissance irrésistible des IA génératives.
Un problème d’énergie
D’autant que génératives ou pas, une autre limite à la croissance exponentielle des IA se présente : la limite énergétique et matérielle. Nous l’avons mentionné en amont : face à l’explosion des coûts énergétiques imputables à l’entraînement des IA, certaines grandes entreprises de la tech investissent dans des unités de production d’énergie nucléaire ! Ce constat vient heurter l’image d’Épinal d’un numérique désincarné, dans les nuages, immatériel.
Le numérique repose sur des infrastructures bien physiques (réseaux, data centers, terminaux) qui sont gourmandes en énergie, en métaux et même en eau (0,5 litre pour 50 requêtes GPT-3 selon cette étude) ! Et tandis que l’empreinte environnementale de nos usages numériques, et notamment de l’IA, est de plus en plus questionnée, la capacité des fournisseurs à suivre le rythme, tant sur le plan des volumes que de la puissance, interroge également.
Le spectre des freins réglementaires
Le troisième motif d’inquiétude naît d’un contexte où, de part et d’autre de l’Atlantique, les autorités de la concurrence et de la régulation haussent le ton face aux géants du numérique. Ainsi, la question de la capacité des entreprises à se mettre en conformité avec le DSA, le RGPD et bientôt l’IA Act, va se poser avec acuité. Par exemple, il est demandé aux entreprises de l’IA d’adopter une démarche d’éthique by design, et d’éclairer les autorités sur la façon dont les algorithmes sont pensés, entraînés et opèrent concrètement.
Si l’objectif est incontestablement louable, il est peu réaliste à l’heure où Sam Altman, le patron d’Open AI (à l’origine de ChatGPT) admet lui-même qu’il ne sait pas précisément comment ChatGPT transforme de l’info brute en info nouvelle. Ce problème vient s’ajouter à ceux déjà identifiés de violation potentielle de droits d’auteur ou de désinformation pouvant être à l’origine de poursuites pour diffamation. Dès lors, du point de vue des investisseurs, le risque juridique entourant les spécialistes de l’IA peut apparaître comme élevé si on émet l’hypothèse que les autorités feront appliquer les textes tels qu’ils sont écrits aujourd’hui.
Ce risque juridique se trouve renforcé alors que les autorités de concurrence s’inquiètent déjà de la concentration de pouvoir de marché entre les mains d’un nombre resserré d’acteurs déjà bien identifiés qui, du fait de leurs prises de contrôle (par des opérations de croissance externe ou des prises de participation tous azimuts, comme ici avec Alphabet) de certains maillons clés de la chaîne de valeur, et leur intégration verticale déjà bien avancée (comme ici avec Microsoft), paraissent déjà bien peu contestables. Or, si de tels risques juridiques ne devraient pas freiner les velléités d’expansion des leaders de l’IA, la prise de conscience des positions concurrentielles déjà bien assises de ces acteurs sur les nœuds de valeur de l’IA pourrait détourner les investisseurs des petites entreprises et autres challengers de l’IA, jugés moins intéressants à moyen terme.
Des menaces à nuancer
Ces différents motifs d’inquiétude accréditent le scénario d’un reflux de l’investissement dans l’IA. Cela étant, il convient de nuancer les conséquences d’une telle menace.
Tout d’abord, notre scénario concerne essentiellement les entreprises engagées dans la course au gigantisme (ou hyperscalling comme on dit outre-Atlantique) et aux modèles propriétaires. Or, d’une part, les initiatives en open-source se multiplient, prennent des parts de marché et, ce faisant, érodent le potentiel de rentabilité des grands modèles propriétaires. D’autre part, rien n’interdit de penser que pour certains marchés applicatifs, l’avenir ne soit pas aux « plus gros », mais à des modèles plus spécialisés, plus frugaux, et finalement moins voraces en données et en énergie. Il peut y avoir un « second marché » à fort potentiel pour ces solutions.
Ensuite, il convient de souligner que si l’IA générative, jusqu’ici le fer de lance de l’industrie, pouvait montrer quelques signes d’essoufflement, il n’en est rien pour les valeurs spécialisées dans les domaines applicatifs à fort potentiel : santé, cybersécurité, conduite autonome, industrie 4.0… Autre avantage : les entreprises de ces secteurs auront peut-être moins de difficultés à justifier leur empreinte environnementale au regard des solutions pratiques qu’elles apporteront.
Enfin, la bulle financière autour de l’IA va peut-être se dégonfler, mais un éclatement semble hautement improbable. Individuellement, les investisseurs peuvent avoir transitoirement intérêt à alléger le poids de l’IA en portefeuille pour réaliser des plus-values et affronter la phase de contraction économique actuelle. Mais, ils savent également que les secteurs offrant pareilles perspectives à l’horizon de 10 à 20 ans ne sont pas si nombreux. Il en va de même collectivement. L’IA est un château de cartes qui pourrait atteindre une valeur de 1000 milliards de dollars en 2027. Un tel montant lie solidairement l’ensemble des investisseurs dans une « communauté de destin », notamment les plus importants qui font office de « price makers ». Et personne n’a intérêt à faire s’écrouler un tel château sans compromettre ses propres espérances de gain. Malgré les nuages estivaux, rien n’annonce un nouvel hiver de l’IA, bien au contraire.![]()
Julien Pillot, Enseignant-Chercheur en Economie, INSEEC Grande École
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
