Accéder au contenu principal

L’ADN synthétique, une révolution à venir pour le stockage de données

Par Patrick Dufour, Directeur Stratégie et alliances Le PEPR (programme et équipement prioritaire de recherche) exploratoire MoleculArXiv, piloté par le CNRS, développe de nouveaux dispositifs de stockage de données sur ADN. Son aboutissement marquera une sensationnelle innovation, répondant à de multiples points de blocage déjà pressants. Ce programme et équipement prioritaire de recherche est certainement un des plus importants à soutenir à ce jour. Une perspective prometteuse Personne n’est passé à côté des travaux de recherche scientifique sur les possibilités qu’offre l’ADN synthétique en matière de stockage de l’information. Le CNRS publie ses avancées régulièrement et il y a de quoi chanter tel le coq au petit matin si l’on en juge par les progrès manifestes des chercheurs en la matière. Il sera passionnant de suivre les résultats des très prochaines applications concrètes. Des partenariats avec des instituts français comme l’INA, la BNF ou des institutions européennes permettro

Apprentissage profond et consommation énergétique : la partie immergée de l’IA-ceberg

 

ia

Par Denis Trystram, Université Grenoble Alpes (UGA); Romain Couillet, Université Grenoble Alpes (UGA) et Thierry Ménissier, Université Grenoble Alpes (UGA)

Depuis une dizaine d’années, l’essor considérable du monde numérique et en particulier de l’intelligence artificielle a eu des effets spectaculaires dans quelques domaines scientifiques, tels que la vision par ordinateur (pour la détection automatique d’objets, de visages) ou le traitement du langage naturel (traduction automatique, filtres antispam, suggestions de réponses automatiques).

Aujourd’hui, on imagine ce développement capable de bouleverser tous les autres champs de la société. On nous promet un avenir radieux fait de bien-être et de confort améliorés par la santé digitale, les véhicules autonomes, les interfaces humains-machines sophistiquées, les robots pour l’aide à domicile, ou encore les visites virtuelles de tous les musées du monde portant toute la culture humaine à portée de clics.

En tête de proue de cet essor se trouve l’apprentissage profond (ou deep learning en anglais), ces fameux « réseaux de neurones artificiels » qui se sont vite diffusés. Cependant, le coût énergétique de cet outil technique est peu connu des utilisateurs alors qu’il est particulièrement préoccupant.

Au-delà des questions de performances, de rapidité ou de passage à l’échelle qui intéressent les ingénieurs en quête de toujours plus de prouesses technologiques, c’est d’un point de vue environnemental, et en particulier sur le plan des émissions de gaz à effet de serre que la question inquiète.

Une consommation énergétique impressionnante

Concrètement, la consommation énergétique d’une seule exécution d’entraînement (en général il en faut plusieurs pour obtenir un résultat abouti) des réseaux de neurones artificiels les plus récents, dédiés au traitement naturel du langage, dépasse le million de kilowatts-heures dépensés au bout de plus d’un mois de calculs sur des machines équipées de quelque 10 000 processeurs, parmi les plus puissantes actuelles.

Côté porte-monnaie, la facture électrique excède les 100 000 euros et pour la planète plus de 500 tonnes d’émissions de CO2, soit une empreinte carbone équivalente à 500 vols aller-retour Paris-New York. En comparaison, le cerveau humain consomme en un mois environ 12 kWh, soit cent mille fois moins, pour des tâches bien plus complexes que la traduction en langage naturel.

Contrairement à dix ans plus tôt, il est d’ailleurs aujourd’hui devenu inenvisageable d’entraîner un réseau de neurones comme celui que l’on vient d’évoquer sur notre ordinateur de bureau (cela prendrait théoriquement 405 ans). En clair, l’intelligence artificielle est une réelle révolution numérique, mais une révolution qui coûte extrêmement cher.

Quelques facteurs d’énergie utilisés pour l’entraînement de plusieurs réseaux de neurones modernes (ici pour le traitement du langage). Nombre d’années équivalent-GPU (bleu), facture électrique en MWh (pour information, 1MWh équivaut environ à 100 heures) en rouge, et tonnage équivalent en CO₂ (pour information, 1TeqCO2 équivaut à 1 A/R Paris-New York), en jaune. Le simple coût d’entraînement d’un réseau de neurones sur une application ciblée est 250 fois supérieur au maximum annuel autorisé à chaque Européen (2TeqCO2) pour atteindre l’équilibre carbone en 2050. Patterson & al., Carbon emissions and large neural network training
Quantité de calculs exigés par les réseaux de neurones : du perceptron de Rosenblatt aux derniers réseaux profonds. Le taux de croissance de l’IA est supérieur au taux de croissance moyen des autres biens industriels et services, pourtant déjà trop élevé pour éviter l’effondrement écologique (voir figure suivante). Open AI

Un danger pour l’équilibre planétaire ?

Il n’est en fait pas surprenant que des solutions « d’intelligence informatique » soient bien moins énergétiquement efficaces que trois milliards d’années d’évolution biologique. Ce qui choque avant tout, c’est que la consommation absolue atteint des seuils indécents, à une époque où le poids du dérèglement climatique exige de la société des hommes un vif effort de sobriété énergétique.

Bien sûr, « une fois entraîné » l’algorithme sera réutilisé des millions de fois par nos téléphones ou nos voitures à un coût comparativement négligeable. Mais le développement de l’intelligence artificielle s’est accompagné du déploiement fulgurant et toujours croissant de clusters de calculs dédiés à l’apprentissage et d’infrastructures réseau aujourd’hui dissimulés dans la nébuleuse du cloud mondial.

Cette virtualisation du calcul loin de l’ordinateur de bureau de l’ingénieur moderne induit au passage cette nouvelle illusion d’un caractère « inoffensif » de l’intelligence artificielle. En réalité, la fabrication et l’usage de ce cloud – qui n’est nullement immatériel – engendrent des centaines de tonnes de CO2 additionnelles (cycle d’extraction de métaux, transformation, transport, usage).

Cette fuite en avant sur le décompte des émissions de CO2 ne saurait d’ailleurs être complète si l’on oublie d’évoquer le problème des déchets électroniques majoritairement non recyclables. Ils devraient être traités à la fin de vie de ces matériels mais ne le sont en réalité qu’à hauteur de 17 % (un smartphone contient plus de 50 métaux devenus impossibles à désolidariser).

Un contexte qui invite à la sobriété

Il est désormais acquis rapports du GIEC à l’appui, que le volume des rejets de CO2 dans l’atmosphère et la dégradation de la biosphère induits par les activités humaines des cinquante dernières années menace la stabilité du système Terre.

Dans le scénario où l’humanité conserverait sa trajectoire actuelle, les études envisagent un effondrement de la société et de la vie sur Terre entre 2025 et 2050. Pour nombre d’auteurs, la seule réponse viable est d’engager notre civilisation dans une diminution drastique (5 % à 7 % par an pendant 30 ans) de la production de biens et services puisés directement ou indirectement à la planète – minerais, eau, vivant – et dans une refonte de la symbolique de « croissance ».

Ceci pose naturellement la question de ce qui doit être supprimé ou réduit de la pression industrielle qui pèse sur la planète ainsi que des stratégies socialement acceptables pour atteindre ces objectifs.

Le modèle « World3 » dans le scénario « business as usual ». Construites en 1972, ces prédictions sont encore correctes en 2021. Il prévoit un effondrement de la population induit, par l’augmentation d’une pollution devenue impossible à endiguer et qui, par manque de ressources, domine la production de biens et services puis la production alimentaire (elle-même affectée fortement par la pollution et l’érosion des sols). Le manque d’équipement et les famines font alors basculer la mortalité et effondrent la population. Meadows, D., Meadows, D., Randers, J., & Behrens III, W. W. (2012). Les limites de la croissance. Rue de l’échiquier, Paris, 1, CC BY-NC-ND

Dans le cas de l’intelligence artificielle et de l’apprentissage profond, la réflexion à mener est la suivante.

Gadget ou besoin indispensable ?

L’intelligence artificielle s’est propagée au point de toucher des domaines traditionnels qui reposent pourtant sur des modèles mathématiques solides (finance, sismologie, biologie, etc.). Dans un monde fortement contraint par des limites énergétiques et en proie à une pollution galopante, la question se pose de la plus-value réelle des innovations pour ces nouveaux venus.

Mais le gros de la dépense des applications du numérique et de l’intelligence artificielle se trouve hors des laboratoires de recherche : il se concentre dans les usages technologiques dédiés aux loisirs et aux appareils de confort, que notre civilisation invente tous les jours et qui passent trop vite du statut de gadgets à celui de besoins supposés indispensables. Devant le constat de l’état du monde, n’est-il pas évident, sinon un devoir moral, dans cette nécessaire croissance symbolique où primerait la protection de la nature et du vivant, de commencer par renoncer à la plupart de ces gadgets et de focaliser nos efforts sur des pratiques plus vertueuses ?

On ouvre de fait une réflexion sur les compromis. Comparer la pertinence d’outils ayant produit des progrès sociaux n’est pas facile, d’autant qu’elle intègre des paramètres non techniques (d’ordre social, éthique ou psychologique). Une fois les outils vertueux identifiés, ils devront d’ailleurs nourrir une éthique attentive aux nouveaux impératifs, tâche pour laquelle il est déjà possible de s’appuyer sur les pionniers de l’éthique environnementale.

L’intelligence artificielle moderne fait-elle alors partie de ces outils vertueux ?

La difficile émergence de la « low tech »

Dans l’anticipation d’une énergie plus rare, les technologies dont l’étude elle-même est onéreuse deviennent non soutenables. Dans le cadre de l’intelligence artificielle, on peut anticiper un point prochain de bascule où les coûts de la recherche en intelligence artificielle prendront le pas sur les gains de performance, aussi conséquents soient-ils, apportés par les réseaux de neurones.

Ce constat sonne-t-il pour autant le glas de l’intelligence artificielle ? Pas forcément. Mais peut-être faut-il l’aborder avec un regard neuf. Un exemple éloquent dans ce sens est celui du travail du Dr d’Acremont en Tanzanie qui démontre sur le terrain l’intérêt, en matière de résilience et de performance, d’une technologie « low-tech » (qui n’utilise même plus d’ordinateur), cependant initialement construite sur un modèle d’intelligence artificielle « high-tech ».

Comme l’illustre parfaitement le Dr d’Acremont, tout l’enjeu repose ici sur notre capacité à extraire de ces brillantes machines une interprétabilité suffisante pour parvenir à exploiter leurs résultats tout en se passant au final de la machine elle-même. Et ce, dans le but de se préparer au moment où, tôt ou tard, il faudra peut-être abandonner définitivement l’outil.

Elles ne font pas la une des journaux mais on voit déjà émerger des démarches sobres et efficaces d’intelligence artificielle, qui entrent globalement dans le mouvement vertueux vers une économie symbiotique (cette économie radicalement nouvelle qui s’appuie sur la résilience et la génération « gratuite » de ressources par la nature) et un outillage low-tech.

En dépit d’une réelle sensibilité à l’éthique manifestée par les concepteurs de l’intelligence artificielle, ces idées restent difficilement valorisables dans les conférences académiques ou les grands appels à projets. Il est en particulier délicat aujourd’hui pour un jeune chercheur ou ingénieur d’envisager positivement l’avenir en se soustrayant à l’appel de l’apprentissage profond.

Ce constat est d’autant plus alarmant que ces jeunes talents sont érigés en sauveurs d’une planète que leur travail au quotidien œuvre à dégrader. Cette dissonance cognitive forte provoque de nouvelles maladies de civilisation que sont l’écoanxiété et la solastalgie.

En définitive, s’il est admis que la finalité de la recherche en intelligence artificielle, au même titre que toute autre forme de recherche, est d’améliorer les connaissances afin de contribuer au progrès et de maximiser le bien-être collectif, il est regrettable que nous mettions délibérément en péril la survie de l’humanité et annihilions l’engagement de nos jeunes talents alors que des alternatives plus vertueuses et moins coûteuses sont à portée de main.The Conversation

Denis Trystram, Professeur des universités en informatique, Université Grenoble Alpes (UGA); Romain Couillet, Professeur des universités, spécialisé en mathématiques appliquées et intelligence artificielle, Université Grenoble Alpes (UGA) et Thierry Ménissier, Professeur de philosophie politique, Université Grenoble Alpes (UGA)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Univers parallèles et mondes virtuels : la guerre des métavers est commencée

  Une partie de poker dans le métavers (capture d'écran de la vidéo “Le métavers et comment nous allons le construire ensemble” sur YouTube) Par  Oihab Allal-Chérif , Neoma Business School Le 17 octobre 2021, Mark Zuckerberg a lancé les hostilités de manière assez théâtrale, comme s’il défiait ses concurrents d’en faire autant. Afin de concrétiser son rêve d’enfant, le métavers, il a décidé de mettre en œuvre des moyens colossaux : 10 000 ingénieurs hautement qualifiés seront recrutés en Europe dans les 5 prochaines années. Cette annonce a été faite quelques jours avant celle du changement de nom du groupe Facebook en Meta , le 28 octobre, démontrant ainsi l’engagement total du fournisseur de réseaux sociaux dans la transition vers le métavers. Le 22 juillet 2021, dans une interview à The Verge , le créateur de Facebook racontait : « Je pense à certains de ces trucs depuis le collège quand je commençais tout juste à coder. […] J’écrivais du code

Sans Sauvegarde, pas de cyber-résilience

Par Alexandra Lemarigny, directrice commercial Europe du Sud Opentext Security Solutions Les études diverses sur les habitudes de sauvegarde des entreprises et leurs collaborateurs sont sans équivoque : très majoritairement, elles ne s’attardent vraiment sur ces questions de sauvegarde ou de récupération qu’en cas d’incidents. Pourtant la sauvegarde est l’élément majeur des dispositifs de cyber-résilience, à savoir la capacité à rester opérationnel, même face aux cyberattaques et à la perte de données. La sauvegarde n’est pas suffisamment considérée Dans les faits, force est de constater que la sauvegarde n’est pas envisagée dans son entièreté par les entreprises qui n’ont pas eu à subir d’accidents et il est fréquent qu’elles ne sauvegardent pas les éléments les plus pertinents. A titre d’exemples une entreprise peut ne sauvegarder qu’un ou deux serveurs, ou un élément qu’elle a identifié comme critique quelques années auparavant. Certaines ne tiennent pas compte de l’évolution de leu

Implants cérébraux : la délicate question de la responsabilité juridique des interfaces homme-machine

Dans le film Transcendance , de Wally Pfister, sorti en 2014, le héros mourant transfère son esprit dans un ordinateur quantique. Wally Pfister, 2014 Par  Elise Roumeau , Université Clermont Auvergne (UCA) Depuis quelques années, Elon Musk ne cesse de faire des annonces relatives à des avancées technologiques. Voitures autonomes , voyages interplanétaires , interface homme-machine , achat du réseau social Twitter… rien ne semble arrêter l’homme d’affaires. Aucun obstacle technique, géographique, physiologique ne lui semble infranchissable. Pourtant, ses projets pourraient, à court terme, poser de véritables difficultés du point de vue juridique. La recherche d’une fusion entre le cerveau et l’intelligence artificielle Avec Neuralink, l’un des objectifs visés par Elon Musk est de créer une interface entre l’humain et la machine . À plus ou moins court terme, le projet porte sur le développement d’implants cérébraux pour pallier des troubles neur

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor

Sondage : quatre Français sur dix craignent le vol d'identité

Selon un sondage représentatif commandé par le fournisseur de messagerie GMX , de nombreux internautes français sont préoccupés (31%), voire très inquiets (9%), d'être victimes d'un vol d'identité. La majorité craint que des inconnus puissent faire des achats (52%) avec leur argent. Dans le cas d'une usurpation d'identité, les criminels accèdent aux comptes en ligne et agissent au nom de leurs victimes. De nombreuses personnes interrogées craignent que des inconnus signent des contrats en leur nom (37 %), que des escrocs utilisent l'identité volée pour ouvrir de nouveaux comptes (36 %) et que des informations les plus privées tombent entre des mains étrangères ou soient rendues publiques (28 %). Besoin de rattrapage en matière de sécurité des mots de passe Il est urgent de rattraper le retard en matière d'utilisation de mots de passe sûrs selon GMX : 34 % des utilisateurs d'Internet en France utilisent dans leurs mots de passe des informations personnell