Accéder au contenu principal

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Par  Laurence Corroy , Université de Lorraine Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles. Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques. Dans le cadre de l’étude Sexteens , menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries on...

Quand les IA se goinfrent de nos ressources énergétiques : comment faire face à la crise de l’énergie

 

centrale
La centrale de Three Mile Island aux États-Unis, siège d’un accident nucléaire en 1979, va reprendre du service pour alimenter en électricité les centres de données de Microsoft. Ici en 2019. Constellation Energy, Wikipedia, CC BY-SA
Par Thomas Le Goff, Télécom Paris – Institut Mines-Télécom

L’intelligence artificielle se développe plus rapidement que les énergies renouvelables. Alors, tandis que l’on demande aux particuliers de baisser le chauffage, les GAFAM relancent le nucléaire. L’Agence internationale de l’énergie convoque un congrès mondial sur l’intelligence artificielle et l’énergie les 4 et 5 décembre 2024.


La centrale nucléaire américaine « Three Mile Island » est tristement célèbre pour avoir été le théâtre de l’un des plus terribles accidents nucléaires de l’histoire en 1979, et elle va bientôt reprendre du service pour alimenter les systèmes d’intelligence artificielle (IA) de Microsoft. Cette annonce, faite en septembre 2024 et qui concerne un réacteur indépendant de celui ayant causé l’accident de 1979, s’inscrit dans une tendance plus globale d’investissements massifs des géants du numérique dans l’énergie nucléaire.

Ainsi, Google a également annoncé la signature d’un accord avec la start-up Kairos Energy, spécialisée dans la construction de petits réacteurs nucléaires modulaires (dits « SMR »), pour financer son développement et réserver une partie de sa capacité de production à l’horizon 2030. Amazon, suivant le mouvement, a conclu un partenariat similaire avec la start-up X-energy.

La raison de ces investissements est simple : le développement exponentiel de l’IA générative demande d’importantes capacités de calcul, localisées dans des centres de données particulièrement énergivores.

Les études les plus récentes montrent que l’IA représente entre 10 et 20 % de l’électricité consommée par l’ensemble des centres de données dans le monde, laquelle augmente de 20 à 40 % chaque année d’après l’Agence Internationale de l’Énergie (AIE). Dans certains pays, comme l’Irlande, la consommation liée aux centres de données a même dépassé la quantité d’électricité consommée par les ménages.

La démesure de ces chiffres interroge, qui plus est dans un contexte où l’urgence climatique est dans tous les esprits et alors qu’on demande aux citoyens de limiter leur chauffage à 19 °C, cette course à la capacité de calcul est-elle vraiment soutenable et souhaitable ? Doit-on réellement chercher par tout moyen à construire de nouvelles capacités de production d’électricité pour suivre le rythme de développement des centres de données ?

Les solutions à cette crise ne sont pas évidentes tant il y a d’intérêts divergents et de facteurs à prendre en considération. Pourtant, des pistes pour limiter la consommation énergétique de l’IA et l’explosion du nombre de centres de données, telles que la fiscalité ou la régulation, commencent à émerger dans les discussions internationales.

Pourquoi l’IA a-t-elle besoin de tant d’énergie ?

Chaque fois que nous posons une question à notre système d’IA générative préféré, la demande est envoyée par Internet pour être traitée dans un centre de données qui peut être situé dans différentes régions du monde. Ce dernier consomme de l’électricité pour alimenter les composants informatiques qu’il héberge et son système de refroidissement, sans compter l’énergie requise pour construire le centre et les composants électroniques eux-mêmes.

Ces dernières années, les principaux modèles d’IA ont gagné en complexité et requièrent des capacités de calcul toujours plus importantes pour fonctionner, de 4 à 5 fois plus chaque année depuis 2010 d’après les études les plus récentes. En parallèle, le nombre d’utilisateurs ne cesse d’augmenter, avec plus de 200 millions d’utilisateurs chaque semaine rien que sur ChatGPT.

Ces tendances expliquent pourquoi les fournisseurs d’IA ont besoin de plus en plus d’énergie, investissent massivement dans les énergies renouvelables pour alimenter leurs systèmes et projettent la construction de nouvelles infrastructures partout dans le monde.

Pourquoi la multiplication des centres de données est un problème pour la planète ?

L’accélération de la demande en capacités de calcul liée à la mode de l’IA générative s’accompagne d’importants effets négatifs sur l’environnement.

D’abord, la production de l’électricité consommée par les centres de données génère des émissions de gaz à effet de serre suivant la source utilisée. Ces émissions représentent déjà 1 à 3 % des émissions globales d’après l’AIE et risquent d’augmenter si le nombre de centres augmente.

Ensuite, les centres de données étant particulièrement énergivores, ils peuvent affecter la stabilité du réseau à l’échelle locale. Dans un réseau électrique, la quantité d’électricité produite doit toujours être égale à la quantité d’électricité consommée sinon c’est le black-out (la panne). Ajouter des infrastructures consommant beaucoup d’électricité dans des zones géographiques où l’équilibre production-consommation est déjà fragile aggrave le risque de black-out, notamment lorsque le mix énergétique repose en grande partie sur des énergies renouvelables, par nature intermittentes.

Enfin, le rythme de développement de l’IA dépasse complètement celui des capacités de production d’électricité à partir d’énergies renouvelables comme les panneaux photovoltaïques ou les éoliennes. Pour répondre à leurs besoins, les géants du numérique vont vraisemblablement avoir recours à des sources d’énergie carbonées comme le charbon ou le gaz, disponibles plus rapidement. Cela les conduit à s’éloigner de façon catastrophique de leurs objectifs de neutralité carbone, Microsoft ayant affiché une augmentation de 29 % de ses émissions par rapport à 2020 et Google de 48 % par rapport à 2019. En parallèle, ils communiquent intensément sur leurs investissements dans les énergies renouvelables afin de faire oublier leur mauvaise performance environnementale.

Quelles solutions pour faire face à la crise de l’énergie de l’IA ?

La solution n’est pas forcément d’interdire la construction de nouveaux centres de données, et ce pour trois raisons.

En effet, les nouveaux centres de données construits par les géants du numérique sont globalement plus efficients que les anciennes infrastructures. La construction de nouveaux centres répond également à d’autres enjeux puisqu’ils contribuent au développement économique des territoires (en créant des emplois et de l’activité à l’échelle locale) mais aussi à l’établissement d’une puissance de calcul souveraine (par exemple en Europe), moins sujette aux potentiels effets de différends géopolitiques à l’échelle internationale.

De plus, à moins d’un moratoire global sur la construction de nouvelles infrastructures, interdire localement des projets d’implantation ne conduira qu’à leur délocalisation, potentiellement dans des pays où le mix énergétique est encore plus carboné, ce qui n’est pas souhaitable d’un point de vue écologique…

Comment mieux réguler l’impact environnemental du numérique ? Source : Telecom Paris.

L’urgence d’une réflexion internationale sur la régulation des centres de données

À l’image de la directive européenne sur l’efficacité énergétique et du code de conduite européen applicables aux centres de données, il est essentiel de s’assurer que chaque nouveau projet utilise les meilleures technologies disponibles en termes d’efficacité énergétique, mais aussi pour éviter que la consommation ne croisse à cause de l’effet rebond, et soit alimentée par une électricité bas carbone. Plus les standards seront harmonisés au niveau mondial, moins le risque de délocalisation vers des pays aux normes plus souples, mais potentiellement moins vertueuses d’un point de vue environnemental, sera important.

Une régulation du nombre de centres de données à l’échelle mondiale pourrait aussi être envisagée, via une organisation mondiale, sur le modèle de l’Union Internationale des Télécommunications, qui gère l’attribution des fréquences radioélectriques.

Une réflexion sur la fiscalité des opérateurs de centres de données s’avère également nécessaire afin de déterminer si elle peut être utilisée pour favoriser l’approvisionnement en énergie verte et l’adoption de pratiques plus durables, via des abattements fiscaux ou l’établissement d’une taxe spécifique pour les opérateurs les moins vertueux. Par exemple, la piste a été évoquée dans la mission d’information du Sénat sur l’empreinte environnementale du numérique en 2020, qui a conduit au conditionnement d’une taxe réduite pour les datacenters respectant des critères de performance énergétique, uniquement en France.

Enfin, il est aussi possible d’agir du côté des usages de l’IA. La sensibilisation du public aux enjeux environnementaux de l’IA permettrait d’orienter les usages vers une utilisation plus vertueuse de la technologie en limitant les usages récréatifs par exemple.

Bien souvent, dans les débats sur l’empreinte environnementale de l’IA, il est évoqué la nécessité de mettre en balance les externalités négatives liées à son développement, telles que celles mentionnées dans cet article, avec les potentiels effets positifs que l’IA peut apporter dans différents secteurs, notamment économiques (création de richesse) ou environnementaux (réduction des émissions via une optimisation de l’efficacité énergétique d’autres activités).

Si l’argument est séduisant et semble rationnel, d’hypothétiques effets positifs sur le long terme ne peuvent justifier un développement déraisonné de l’IA à court terme, causant des dommages irréversibles à l’environnement et risquant de compromettre notre capacité à léguer aux générations futures un environnement sain.The Conversation

Thomas Le Goff, Maître de conférences en droit et régulation du numérique, Télécom Paris – Institut Mines-Télécom

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...