Accéder au contenu principal

Les entreprises ne sont pas prêtes à réussir le déploiement de l’IA générative

Une nouvelle étude commandée par Alteryx , la plateforme d'IA pour l'analyse d'entreprise en France, révèle que les organisations ne sont pas prêtes à tirer parti de l'IA générative en raison de leurs données. Le rapport " Data Stack Evolution : Legacy Challenges and AI Opportunities", qui a interrogé 3 100 leaders mondiaux de l'informatique, a mis en évidence des obstacles qui empêchent le déploiement réussi de l'IA générative, notamment la gestion des piles de données, la stratégie technologique et les cultures d'entreprise. Un manque de confiance envers les piles de données L’étude souligne un décalage important entre la confiance que les responsables informatiques mondiaux accordent à leurs données et la réalité de leurs piles de données. En France, alors que 43% des répondants qualifient la maturité de leurs données comme étant "bonne" ou "avancée" et que 68% ont confiance dans leurs données, un cinquième a tout de même évo

Apprentissage profond et consommation énergétique : la partie immergée de l’IA-ceberg

 

ia

Par Denis Trystram, Université Grenoble Alpes (UGA); Romain Couillet, Université Grenoble Alpes (UGA) et Thierry Ménissier, Université Grenoble Alpes (UGA)

Depuis une dizaine d’années, l’essor considérable du monde numérique et en particulier de l’intelligence artificielle a eu des effets spectaculaires dans quelques domaines scientifiques, tels que la vision par ordinateur (pour la détection automatique d’objets, de visages) ou le traitement du langage naturel (traduction automatique, filtres antispam, suggestions de réponses automatiques).

Aujourd’hui, on imagine ce développement capable de bouleverser tous les autres champs de la société. On nous promet un avenir radieux fait de bien-être et de confort améliorés par la santé digitale, les véhicules autonomes, les interfaces humains-machines sophistiquées, les robots pour l’aide à domicile, ou encore les visites virtuelles de tous les musées du monde portant toute la culture humaine à portée de clics.

En tête de proue de cet essor se trouve l’apprentissage profond (ou deep learning en anglais), ces fameux « réseaux de neurones artificiels » qui se sont vite diffusés. Cependant, le coût énergétique de cet outil technique est peu connu des utilisateurs alors qu’il est particulièrement préoccupant.

Au-delà des questions de performances, de rapidité ou de passage à l’échelle qui intéressent les ingénieurs en quête de toujours plus de prouesses technologiques, c’est d’un point de vue environnemental, et en particulier sur le plan des émissions de gaz à effet de serre que la question inquiète.

Une consommation énergétique impressionnante

Concrètement, la consommation énergétique d’une seule exécution d’entraînement (en général il en faut plusieurs pour obtenir un résultat abouti) des réseaux de neurones artificiels les plus récents, dédiés au traitement naturel du langage, dépasse le million de kilowatts-heures dépensés au bout de plus d’un mois de calculs sur des machines équipées de quelque 10 000 processeurs, parmi les plus puissantes actuelles.

Côté porte-monnaie, la facture électrique excède les 100 000 euros et pour la planète plus de 500 tonnes d’émissions de CO2, soit une empreinte carbone équivalente à 500 vols aller-retour Paris-New York. En comparaison, le cerveau humain consomme en un mois environ 12 kWh, soit cent mille fois moins, pour des tâches bien plus complexes que la traduction en langage naturel.

Contrairement à dix ans plus tôt, il est d’ailleurs aujourd’hui devenu inenvisageable d’entraîner un réseau de neurones comme celui que l’on vient d’évoquer sur notre ordinateur de bureau (cela prendrait théoriquement 405 ans). En clair, l’intelligence artificielle est une réelle révolution numérique, mais une révolution qui coûte extrêmement cher.

Quelques facteurs d’énergie utilisés pour l’entraînement de plusieurs réseaux de neurones modernes (ici pour le traitement du langage). Nombre d’années équivalent-GPU (bleu), facture électrique en MWh (pour information, 1MWh équivaut environ à 100 heures) en rouge, et tonnage équivalent en CO₂ (pour information, 1TeqCO2 équivaut à 1 A/R Paris-New York), en jaune. Le simple coût d’entraînement d’un réseau de neurones sur une application ciblée est 250 fois supérieur au maximum annuel autorisé à chaque Européen (2TeqCO2) pour atteindre l’équilibre carbone en 2050. Patterson & al., Carbon emissions and large neural network training
Quantité de calculs exigés par les réseaux de neurones : du perceptron de Rosenblatt aux derniers réseaux profonds. Le taux de croissance de l’IA est supérieur au taux de croissance moyen des autres biens industriels et services, pourtant déjà trop élevé pour éviter l’effondrement écologique (voir figure suivante). Open AI

Un danger pour l’équilibre planétaire ?

Il n’est en fait pas surprenant que des solutions « d’intelligence informatique » soient bien moins énergétiquement efficaces que trois milliards d’années d’évolution biologique. Ce qui choque avant tout, c’est que la consommation absolue atteint des seuils indécents, à une époque où le poids du dérèglement climatique exige de la société des hommes un vif effort de sobriété énergétique.

Bien sûr, « une fois entraîné » l’algorithme sera réutilisé des millions de fois par nos téléphones ou nos voitures à un coût comparativement négligeable. Mais le développement de l’intelligence artificielle s’est accompagné du déploiement fulgurant et toujours croissant de clusters de calculs dédiés à l’apprentissage et d’infrastructures réseau aujourd’hui dissimulés dans la nébuleuse du cloud mondial.

Cette virtualisation du calcul loin de l’ordinateur de bureau de l’ingénieur moderne induit au passage cette nouvelle illusion d’un caractère « inoffensif » de l’intelligence artificielle. En réalité, la fabrication et l’usage de ce cloud – qui n’est nullement immatériel – engendrent des centaines de tonnes de CO2 additionnelles (cycle d’extraction de métaux, transformation, transport, usage).

Cette fuite en avant sur le décompte des émissions de CO2 ne saurait d’ailleurs être complète si l’on oublie d’évoquer le problème des déchets électroniques majoritairement non recyclables. Ils devraient être traités à la fin de vie de ces matériels mais ne le sont en réalité qu’à hauteur de 17 % (un smartphone contient plus de 50 métaux devenus impossibles à désolidariser).

Un contexte qui invite à la sobriété

Il est désormais acquis rapports du GIEC à l’appui, que le volume des rejets de CO2 dans l’atmosphère et la dégradation de la biosphère induits par les activités humaines des cinquante dernières années menace la stabilité du système Terre.

Dans le scénario où l’humanité conserverait sa trajectoire actuelle, les études envisagent un effondrement de la société et de la vie sur Terre entre 2025 et 2050. Pour nombre d’auteurs, la seule réponse viable est d’engager notre civilisation dans une diminution drastique (5 % à 7 % par an pendant 30 ans) de la production de biens et services puisés directement ou indirectement à la planète – minerais, eau, vivant – et dans une refonte de la symbolique de « croissance ».

Ceci pose naturellement la question de ce qui doit être supprimé ou réduit de la pression industrielle qui pèse sur la planète ainsi que des stratégies socialement acceptables pour atteindre ces objectifs.

Le modèle « World3 » dans le scénario « business as usual ». Construites en 1972, ces prédictions sont encore correctes en 2021. Il prévoit un effondrement de la population induit, par l’augmentation d’une pollution devenue impossible à endiguer et qui, par manque de ressources, domine la production de biens et services puis la production alimentaire (elle-même affectée fortement par la pollution et l’érosion des sols). Le manque d’équipement et les famines font alors basculer la mortalité et effondrent la population. Meadows, D., Meadows, D., Randers, J., & Behrens III, W. W. (2012). Les limites de la croissance. Rue de l’échiquier, Paris, 1, CC BY-NC-ND

Dans le cas de l’intelligence artificielle et de l’apprentissage profond, la réflexion à mener est la suivante.

Gadget ou besoin indispensable ?

L’intelligence artificielle s’est propagée au point de toucher des domaines traditionnels qui reposent pourtant sur des modèles mathématiques solides (finance, sismologie, biologie, etc.). Dans un monde fortement contraint par des limites énergétiques et en proie à une pollution galopante, la question se pose de la plus-value réelle des innovations pour ces nouveaux venus.

Mais le gros de la dépense des applications du numérique et de l’intelligence artificielle se trouve hors des laboratoires de recherche : il se concentre dans les usages technologiques dédiés aux loisirs et aux appareils de confort, que notre civilisation invente tous les jours et qui passent trop vite du statut de gadgets à celui de besoins supposés indispensables. Devant le constat de l’état du monde, n’est-il pas évident, sinon un devoir moral, dans cette nécessaire croissance symbolique où primerait la protection de la nature et du vivant, de commencer par renoncer à la plupart de ces gadgets et de focaliser nos efforts sur des pratiques plus vertueuses ?

On ouvre de fait une réflexion sur les compromis. Comparer la pertinence d’outils ayant produit des progrès sociaux n’est pas facile, d’autant qu’elle intègre des paramètres non techniques (d’ordre social, éthique ou psychologique). Une fois les outils vertueux identifiés, ils devront d’ailleurs nourrir une éthique attentive aux nouveaux impératifs, tâche pour laquelle il est déjà possible de s’appuyer sur les pionniers de l’éthique environnementale.

L’intelligence artificielle moderne fait-elle alors partie de ces outils vertueux ?

La difficile émergence de la « low tech »

Dans l’anticipation d’une énergie plus rare, les technologies dont l’étude elle-même est onéreuse deviennent non soutenables. Dans le cadre de l’intelligence artificielle, on peut anticiper un point prochain de bascule où les coûts de la recherche en intelligence artificielle prendront le pas sur les gains de performance, aussi conséquents soient-ils, apportés par les réseaux de neurones.

Ce constat sonne-t-il pour autant le glas de l’intelligence artificielle ? Pas forcément. Mais peut-être faut-il l’aborder avec un regard neuf. Un exemple éloquent dans ce sens est celui du travail du Dr d’Acremont en Tanzanie qui démontre sur le terrain l’intérêt, en matière de résilience et de performance, d’une technologie « low-tech » (qui n’utilise même plus d’ordinateur), cependant initialement construite sur un modèle d’intelligence artificielle « high-tech ».

Comme l’illustre parfaitement le Dr d’Acremont, tout l’enjeu repose ici sur notre capacité à extraire de ces brillantes machines une interprétabilité suffisante pour parvenir à exploiter leurs résultats tout en se passant au final de la machine elle-même. Et ce, dans le but de se préparer au moment où, tôt ou tard, il faudra peut-être abandonner définitivement l’outil.

Elles ne font pas la une des journaux mais on voit déjà émerger des démarches sobres et efficaces d’intelligence artificielle, qui entrent globalement dans le mouvement vertueux vers une économie symbiotique (cette économie radicalement nouvelle qui s’appuie sur la résilience et la génération « gratuite » de ressources par la nature) et un outillage low-tech.

En dépit d’une réelle sensibilité à l’éthique manifestée par les concepteurs de l’intelligence artificielle, ces idées restent difficilement valorisables dans les conférences académiques ou les grands appels à projets. Il est en particulier délicat aujourd’hui pour un jeune chercheur ou ingénieur d’envisager positivement l’avenir en se soustrayant à l’appel de l’apprentissage profond.

Ce constat est d’autant plus alarmant que ces jeunes talents sont érigés en sauveurs d’une planète que leur travail au quotidien œuvre à dégrader. Cette dissonance cognitive forte provoque de nouvelles maladies de civilisation que sont l’écoanxiété et la solastalgie.

En définitive, s’il est admis que la finalité de la recherche en intelligence artificielle, au même titre que toute autre forme de recherche, est d’améliorer les connaissances afin de contribuer au progrès et de maximiser le bien-être collectif, il est regrettable que nous mettions délibérément en péril la survie de l’humanité et annihilions l’engagement de nos jeunes talents alors que des alternatives plus vertueuses et moins coûteuses sont à portée de main.The Conversation

Denis Trystram, Professeur des universités en informatique, Université Grenoble Alpes (UGA); Romain Couillet, Professeur des universités, spécialisé en mathématiques appliquées et intelligence artificielle, Université Grenoble Alpes (UGA) et Thierry Ménissier, Professeur de philosophie politique, Université Grenoble Alpes (UGA)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé