Technomedia

Numérique · médias · sciences · intelligence artificielle

La projection immersive, une tendance incontournable

projection


Par Par Chad Kunimoto, Directrice du Développement Commercial Mondial, Expériences Immersives & Divertissement chez Panasonic Connect


L'industrie du jeu a généré 180 milliards de dollars de revenus en 2021, dépassant ainsi les recettes combinées du cinéma et de la musique. À présent, alors que les studios de jeu étendent leurs univers vers les divertissements à thème, la demande des consommateurs pour des expériences interactives n'a jamais été aussi évidente. Le public recherche un niveau d'engagement dans ses expériences qui paraissait inimaginable il y a une décennie à peine.

Vers de nouvelles expériences

L'interactivité est omniprésente : Vente au détail, Art, Edutainment, Musées, Location Based Entertainment, Performances Live... ; elle transporte les gens et les plonge dans le moment présent. Concepteurs d'attractions et technologies collaborent étroitement pour donner vie aux visions créatives audacieuses.

La projection immersive, combinée à des capteurs et des logiciels novateurs, crée des mondes dynamiques qui prennent vie au contact des visiteurs. De plus en plus, ils peuvent eux-mêmes ajouter des couches de réalité augmentée (AR) à travers leurs propres dispositifs, déclenchant des interactions par le biais de technologies telles que le NFC, l'infrarouge ou le GPS. Les projecteurs, autrefois en toile de fond, émergent désormais en tant que pièces maîtresses de ces expériences multisensorielles.

Changer la donne : la projection en temps réel avec suivi

L'évolution de la technologie de projection sur des objets en mouvement ouvre de nouvelles perspectives. La recherche continue a conduit à des modèles à 240 Hz et à un kit de développement logiciel (SDK) pour la projection en temps réel avec suivi (Tracking Projection Mapping). Désormais, les contenus digitaux et les mouvements analogiques fusionnent de concert et sans décalage, offrant une expérience inédite.

Le logiciel convertit la position de l'objet en mouvement, capturée par une caméra infrarouge, en coordonnées XY pour le projecteur avec moins de 5 ms de latence. Avec 240 mises à jour par seconde, le contenu suit harmonieusement l'objet sans flou.

Ce système permet aux artistes d'interagir spontanément, brisant les barrières des programmes préétablis. Les visiteurs eux-mêmes s'immergent dans des environnements similaires à la réalité virtuelle, sans nécessiter d'équipement spécial. L'installation demeure simple et nécessite peu de calibrage.

Le pouvoir d’une projection immersive

La projection laser offre des mondes réalistes, interactifs et captivants. Des attractions telles que l'Illuminarium à Las Vegas ou l'ACMI en Australie démontrent le pouvoir de la projection 4K et de l'interaction multisensorielle.

L'approche digitale transforme également les expériences éducatives. Par exemple, le Snowy Hydro Discovery Centre utilise la projection pour explorer la thématique de captage d'eau, tandis que les objectifs à ultra-courte focale permettent une interaction sans ombre, même dans des espaces restreints.

La projection joue un rôle essentiel dans la création d'expériences réalistes et immersives, que ce soit dans les simulations sportives, les spectacles live ou les attractions à thème. Les possibilités sont illimitées, l'innovation guidant l'avenir des divertissements interactifs.

En conclusion, la technologie de projection offre des opportunités incroyables pour captiver et engager les visiteurs d’une manière inédite. En combinant contenu digital et mouvements réels, elle transforme les espaces vides en mondes vivants et fascinants. Le futur de l'interaction immersive est entre nos mains, ouvrant la voie à de nouvelles formes de divertissement et d'apprentissage.

DSA : un jalon dans la construction du cadre normatif européen pour notre vie numérique

 

DSA

Par Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies Fondateur et dirigeant du cabinet Constantin Pavléas Avocats, professeur et coordinateur du programme "Droit du Numérique & Propriété Intellectuelle" et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD).


On se rappellera sans nul doute la date du 25 août 2023 comme un jalon dans la construction du cadre normatif européen pour notre vie numérique.

Quatre mois après la publication par la Commission européenne de la liste des Très Grandes Plateformes et Très Grands Moteurs de Recherche (les « TGP/TMR »), qui comptent plus de 45 millions d’abonnés actifs par mois, soit 10% de la population européenne)[1], le règlement européen s’applique désormais à ces géants technologiques désignés.

Ainsi, depuis le 25 août, les TGP/TMR doivent se conformer aux règles uniformes de modération, et notamment de lutte contre la désinformation, les contenus haineux et autres contenus illicites. Ils sont astreints à des obligations accrus de transparence et,doivent présenter des rapports annuels sur les risques systémiques suscités par l’utilisation de leur plateforme.

Le 17 février 2024, le DSA s’appliquera à toutes les plateformes numériques s’adressant à l’internaute européen, quelle que soit leur taille.

Avec le DSA, l’Union européenne, premier marché mondial du numérique, fixe des règles du jeu dans l’espace numérique, qui sont uniformes pour les 27 Etats-membres, avec l’ambition affichée d’influer, bien au-delà des frontières de l’Union, sur les réponses à apporter aux défis essentiels que sont la démocratie et la souveraineté numériques dans le monde.

À elles seules, deux des dispositions du règlement traduisent l’ambition du texte. D’une part, la possibilité est donnée à la Commission européenne d’accéder, sous certaines conditions, non seulement aux données mais aussi aux algorithmes[2], qui constituent véritablement le moteur des plateformes.

D’autre part, son vaste champ d’application géographique : à l’instar du Règlement général sur la protection des données à caractère personnel, le DSA a une portée extra-territoriale. Il s’applique à tous les services d’intermédiation fournis aux internautes ayant leur lieu d’établissement ou de résidence dans l’Union, et cela quel que soit le lieu d’établissement du prestataire lui-même.

Ainsi, sur les 19 TGP/TMR, 17 sont non européens.

Le DSA a ainsi vocation à propager les valeurs européennes à l’ensemble de la planète et devenir, on peut l’espérer, un modèle à suivre pour les législateurs d’autres pays.

Le DSA est sans conteste un instrument juridique d’envergure planétaire qui reflète les valeurs européennes, notamment le respect des droits de l'homme, la liberté, la démocratie, l'égalité et l'État de droit. Le nouveau règlement prend la mesure des enjeux démocratiques, économiques et sociétaux posés par l’ère numérique dans laquelle nous sommes rentrés.

En termes de lutte contre la désinformation, il sera particulièrement mis à l’épreuve avec les calendriers électoraux dans l’Union européenne, et notamment les prochaines élections européennes de 2024.

Cependant, à l’heure du défi climatique et du réchauffement de notre planète qui menace l’humanité et le vivant dans son ensemble, nous pouvons regretter que les enjeux climatiques n'aient pas été pris en compte dans les risques systémiques devant être analysés, rapportés et remédiés par les TGP/TMR.

Nous verrons également à l’usage si le DSA sera un outil efficace pour encadrer tous les risques systémiques induits par la vie numérique sur les plateformes, notamment ceux liés à l’entrée annoncée dans l’ère des métavers et de l’intelligence artificielle générative (type Chat GPT et autres).

Enfin, le succès du DSA sera fonction des moyens mis en œuvre pour le faire appliquer, que ce soit au niveau de la Commission européenne, des Etats avec les Coordinateurs des Services numériques, et les signaleurs de confiance.

Espace : derrière l’échec de la mission russe Luna-25, la course mondiale vers la Lune

lune


La Russie a raté son retour sur la Lune. La sonde Luna-25, la première à être lancée par Moscou vers notre satellite depuis 1976, a percuté le sol lunaire à la suite d’un incident survenu samedi lors d’une manœuvre préalable à son alunissage. Un échec qui intervient au moment même où le président russe Vladimir Poutine avait promis de poursuivre le programme spatial russe malgré les problèmes de financement, les scandales de corruption et l’isolement russe du fait du conflit en Ukraine.

La mission Luna-25 – qui devait prélever et analyser des échantillons du sol – était destinée à donner un nouvel élan au secteur spatial russe mais elle était annoncée comme « risquée » de l’aveu même du patron de Roscosmos, Iouri Borissov. Face à Vladimir Poutine en juin, ce dernier avait déclaré que « la probabilité de réussite de telles missions est estimée à environ 70 % ».

Si Luna-25 avait été placée avec succès en orbite lunaire mercredi, après avoir décollé dans la nuit du 10 au 11 août de l’Extrême-Orient russe, elle n’aura pas été au terme de son voyage. Un échec technologique et aussi géopolitique pour Vladimir Poutine. Car la Russie, avec laquelle l’agence spatiale européenne a coupé les ponts, entend bien garder sa place dans l’espace.

Multiplication des missions lunaires depuis 1994

Une place de plus en plus disputée par les nouvelles sociétés du « new space », comme Space X d’Elon Musk ou Blue Origin de Jeff Bezos, et les nations spatiales émergentes (Chine, Inde, Émirats…) qui veulent, elles aussi, prouver leur avancée technologique face aux nations historiques (États-Unis Russie, Europe).

Cette bataille à forts enjeux géopolitiques a trouvé un terrain de compétition idéal avec une nouvelle course vers la Lune. Après les grandes avancées russes et américaines entre les années 60 et 80, la Lune avait perdu de son intérêt. Les agences spatiales se sont intéressées au reste de l’univers, multipliant les missions lointaines et vers Mars, cette planète rouge qui ne cesse de nous fasciner. Dans les années 90 pourtant, la Nasa va lancer deux petites missions (Clementine en 1994 et Lunar Prospector en 1998) qui vont réamorcer l’intérêt pour la Lune. Après tout, pourquoi viser Mars alors que la Lune n’a pas révélé tous ses secrets ni tout son potentiel géologique ? Dès lors, les missions exploratoires vont se multiplier et s’enchaîner à un rythme soutenu.

L’agence spatiale européenne lance SMART-1 en septembre 2003, son homologue japonaise lance l’orbiteur SELENE en octobre 2007. Un mois plus tard, la Chine lance Changi-1, première sonde de son ambitieux programme d’exploration lunaire CLEP qui en est aujourd’hui à Changi-6. La Nasa revient dans la course en 2009 avec LCROSS puis avec GRAIL. L’Inde, Israël, les Émirats arabes unis, le Japon, etc. entrent en lice.

moonvillage


Toutes ces missions ne sont pas couronnées de succès loin de là, mais celles qui réussissent permettent de mieux appréhender la Lune, sa topographie, sa composition, en un mot son potentiel économique.

Car si la Lune est protégée par le Traité de l’Espace de 1967, elle ne l’est pas par le Traité de la Lune de 1979 qui voulait restreindre l’exploitation des ressources naturelles de la Lune, « patrimoine commun de l’humanité », par un seul pays. Ce traité n’a été ratifié par aucune grande nation spatiale…

Dès lors, la reprise de la course à la Lune se fait avec des objectifs scientifiques mais aussi des visées d’exploitation de ses ressources.

Exploiter les ressources

En 2019, Donald Trump – qui affirmait que « l’Amérique sera toujours la première dans l’espace » – avait acté le retour de l’Homme sur la Lune avec le programme Artemis ; cela devrait se faire en 2025. Mais l’ancien président américain a pensé ce retour avec un objectif : exploiter les ressources de la Lune.

En 2020, il a ainsi signé un décret présidentiel visant à « encourager le soutien international pour la récupération et l’utilisation des ressources spatiales ». L’idée est de sortir du cadre actuel multilatéral du droit de l’espace (partage équitable) pour se rapprocher du droit de la mer où le poisson appartient à celui qui le pêche… Trump visait également à établir des zones de sécurité autour des installations lunaires, autant dire un droit de propriété…

Avant d’en arriver là, il faudra toutefois installer durablement des hommes sur et autour de la Lune, créer les infrastructures d’exploitation et les bases de vie. Des défis colossaux compliqués par les bouleversements géopolitiques… sur Terre.

(Article publié dans La Dépêche du Midi du mardi 22 août 2023)

Mais où James Bond va-t-il chercher tous ces gadgets ?

 

Chez Q bien sûr ! Mais celui-ci ne les sort pas de sa manche. Dans Spectre (2015), Daniel Craig et Ben Whishaw incarnent le fameux espion et son fournisseur de gadgets. Spectre
Par Nicolas Charles, BRGM

Montre-laser, pistolet à empreintes digitales, explosifs et bien sûr voitures suréquipées… les gadgets sont un des symboles de James Bond. Leur inventeur génial s’appelle « Q ». Si certains de ces gadgets ont réellement existé (laser, reconnaissance d’empreintes digitales, réacteur dorsal), d’autres sont, comme on va le voir, plus fantaisistes.

Mais tous reposent sur un socle commun, les matières premières nécessaires à leur fabrication, et en particulier les ressources minérales, que les géologues contribuent à trouver dans la croûte terrestre. De tout temps, les humains ont utilisé les ressources minérales pour créer et utiliser des technologies, du silex préhistorique au lithium des batteries actuelles. Le plus célèbre agent secret de Sa Majesté ne fait pas exception.

Les voitures rapides et peu discrètes de l’agent secret le plus célèbre du monde

En 1964 dans Goldfinger, James Bond (Sean Connery) doit abandonner sa Bentley pour une Aston Martin DB5 modifiée par l’ingénieux Q (l’inoubliable Desmond Llewelyn). C’est la première des huit apparitions du bolide désormais indissociable de 007.

L’aston Martin DB5, voiture historique de James Bond
L’Aston Martin DB5, apparue pour la première fois dans Goldfinger en 1964. Ce bolide fait la part belle à l’aluminium extrait du minerai de bauxite. N. Charles, Fourni par l'auteur

L’automobile est un bon exemple de la complexification des produits et de l’augmentation de la diversité des matières premières utilisées au cours du temps.

zoom sur un minéral rose à taches rosées et blanchâtres
Bauxite : principal minerai d’aluminium, métal utilisé dans la DB5 de 007 qui tire son nom des Baux-de-Provence. N. Charles, Fourni par l'auteur

La DB5 recèle ainsi divers métaux et minéraux à commencer par l’aluminium, un métal permettant de gagner en légèreté. Il est extrait de la bauxite, un minerai notamment exploité en Jamaïque aux environs d’Ocho Rios… qui a servi de décor pour l’île Crab Key, repaire du Dr. No, en 1962.

La carrosserie de la DB5 est un ensemble de plaques en alliage d’aluminium et de magnésium reposant sur une structure en tubes d’acier. Le bloc-moteur est en aluminium à l’instar des pistons et de la culasse. Les bielles et le vilebrequin sont constitués d’un acier dopé au chrome et au molybdène qui assurent une meilleure résistance. Les jantes en aluminium reposent sur des moyeux en acier chromé tout comme les rayons.

Il ne faut bien entendu pas oublier la silice des vitrages, le cuivre du câblage électrique, le plomb de la batterie ou les carbonates et le kaolin dans la peinture, et le pétrole pour faire rouler l’ensemble à vive allure !

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

L’industrie automobile a largement évolué depuis 1964 et les innovations se succèdent, augmentant la diversité des ressources minérales utilisées. Plusieurs dizaines sont nécessaires aujourd’hui pour un véhicule standard – et que dire des derniers bolides pilotés par 007 depuis les années 2000 comme la BMW Z3 ou l’Aston Martin Valhalla.

Cela se poursuit avec les véhicules électriques qui voient intervenir lithium, cobalt, graphite, nickel et terres rares dans les batteries. D’ailleurs en 1971, dans Les diamants sont éternels, James Bond vole et conduit un module lunaire électrique ! Plus récemment dans Mourir peut attendre (2021), l’Aston Martin Valhalla est un bolide hybride rechargeable, mais James Bond n’est pas encore passé au tout électrique.

Des armes en or… trop mou ?

Autre objet culte, le Walther PPK, pistolet allemand qu’utilise 007 dans bon nombre d’opus de la saga. C’est une arme faite d’un alliage d’acier inoxydable. Bien que l’acier soit principalement constitué de fer, il contient aussi d’autres éléments en fonction de l’utilisation et des propriétés recherchées : chrome, molybdène, nickel, manganèse, carbone, silicium, cuivre, soufre, azote, phosphore, bore, titane, niobium, tungstène, vanadium, cérium.

Beaucoup plus précieux, le pistolet de Francisco Scaramanga (Christopher Lee) est en or massif et se présente sous la forme d’un assemblage d’objets du quotidien afin de ne pas être repéré lors des contrôles : briquet, boutons de manchette, stylo-plume et étui à cigares. Limité à un coup, ce pistolet tire des balles d’un calibre de 4,2 mm, pesant 30 g, et surtout en or 23 carats avec des traces de nickel. Voilà pour la fiction…

pistolet d’or au musée
Le pistolet d’or de Francisco Scaramanga, l’or massif étant ici peu réaliste pour l’utilisation dédiée… La balle, en or elle aussi, est gravée « 007 ». Exposition au « International Spy Museum ». Gareth Milner, Flickr, CC BY

Il est difficile en effet d’imaginer un pistolet entièrement constitué d’or, un métal très dense et surtout très mou, qui ne résisterait pas longtemps à la puissance répétée d’un coup de feu. En bijouterie, l’or, pour pouvoir être porté, est souvent d’ailleurs allié à l’argent, au cuivre ou au zinc. Au 1er juillet 2023, un kilogramme d’or se négociait environ 56 500 euros. Pas étonnant, l’or est depuis l’Antiquité un métal précieux, inaltérable et brillant avec une couleur jaune soutenue qui suscite convoitise et sert de valeur refuge.

Ainsi, dans Bons baisers de Russie (1963), James Bond reçoit 50 souverains britanniques en or dissimulés dans une mallette truffée de gadgets. Attiré par les pièces d’or, l’ennemi Grant ouvre la mallette piégée alors qu’il tient en joue 007. Du gaz lacrymogène s’en échappe, ce qui sauvera la vie de Bond.

James Bond et ses ennemis équipés de technologies de pointe

La saga est aussi l’occasion de mettre en avant des technologies de pointe peu connues du grand public au moment de la sortie d’un film. Des technologies qui reposent sur des matières premières.

Quel meilleur exemple que le laser (de l’anglais « light amplification by stimulated emission of radiation » et signifiant « amplification de lumière par émission stimulée de rayonnement »). Pistolet, montre, voiture, satellite… Dans un scénario, tout est « mieux » équipé d’un laser !

pistolet laser en plastique
Des pistolets laser (en plastique !) de la base spatiale dans Moonraker, 1979. Nicolas Charles, Fourni par l'auteur

Dans Goldfinger (1964), James Bond est menacé par un laser – qui remplace la scie sauteuse imaginée dans le roman éponyme de Ian Flemming. Le laser sera également mis en avant dans d’autres épisodes : satellite dans Les diamants sont éternels (1971) et Meurs un autre jour (2002) ; pistolets-laser dans Moonraker (1979) ; montre-laser dans Jamais plus jamais (1983) ou Goldeneye (1995) ; voiture équipée d’un laser dans Tuer n’est pas jouer (1987)…

Au final, les applications réelles des lasers sont entre autres : télémétrie, découpe, projection lumineuse. Le premier laser opérationnel date de mai 1960 – le physicien Théodore Maiman l’introduit tout juste avant James Bond. Ce premier laser fonctionnait à l’aide d’un rubis, minéral de la famille du corindon (oxyde d’aluminium), comme le saphir. Mais il s’agit d’un rubis synthétique créé à partir d’oxyde d’aluminium (issu de la bauxite) mélangé à une infime quantité de chrome (principalement produit à partir de la chromite). Selon les applications, il existe différents types de lasers :

  • Lasers cristallins : constitués d’un verre siliceux (à partir de quartz très pur) ou de cristaux synthétiques de rubis ou de saphir (oxyde d’aluminium dopé au titane, au chrome ou aux terres rares : néodyme, ytterbium, praséodyme, erbium ou thulium) ;

  • Lasers à fibre : composés de fibre optique à base de silice (issue d’un quartz ultra-pur) et dopée aux terres rares (métaux principalement extraits de minéraux comme la bastnaésite, la monazite ou le xénotime) ;

  • Lasers à gaz : fonctionnant avec de l’hélium (extrait des gisements de gaz naturel) et du néon (extrait des gaz de l’air atmosphérique) ou du CO2 ;

  • Lasers à colorants organiques.

Le faisceau lumineux de couleur rouge dans Goldfinger a été émis à partir d’un laser (probablement à rubis) dont la luminosité a été amplifiée par effets spéciaux.

En revanche, le caractère destructeur du laser n’est que pure fiction. Lors du tournage, un opérateur a utilisé un chalumeau à acétylène sous la table prédécoupée alors même que Sean Connery y était allongé !

Les dents de Requin (« L’espion qui m’aimait » de 1977 et « Moonraker » de 1979) sont en acier inoxydable de qualité chirurgicale. Exposées au « International Spy Museum ». Shaun Versey, Flickr, CC BY-SA

Pour finir, puisque les méchants ont toujours une dent contre James Bond, évoquons la mâchoire en acier chirurgical de l’impressionnant Requin (Richard Kiel) dans L’espion qui m’aimait (1977) et Moonraker (1979). C’est un acier inoxydable qui limite les risques de réactions allergiques lorsqu’il est en contact avec la peau (très pauvre en carbone, c’est un alliage fer-nickel-chrome-manganèse-molybdène résistant à la corrosion).The Conversation

Nicolas Charles, Géologue, PhD, BRGM

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Les cornucopiens sont parmi nous ! Mais qui sont-ils ?

Par Aurélien Boutaud, Centre national de la recherche scientifique (CNRS) et Natacha Gondran, Mines Saint-Etienne – Institut Mines-Télécom

Dans les colonnes des journaux, à la tête de nombreuses entreprises, parmi les instances gouvernementales, au sein de nombreux syndicats, sur les plateaux de télévision : les cornucopiens sont là, parmi nous. Partout.

Mais si vous l’ignorez, ce n’est pas à cause d’un quelconque complot de leur part. D’ailleurs, la plupart des cornucopiens ignorent qu’ils le sont et, qui sait, peut-être l’êtes-vous vous-même sans le savoir ! Car ce terme, qui ne date pourtant pas d’hier, est très peu utilisé dans le monde francophone. De quoi s’agit-il ?

Tirant son étymologie du mythe de la corne d’abondance (cornucopia en latin), le cornucopianisme se construit autour de cette idée centrale, merveilleusement résumée par l’économiste Julian Simon (1932-1998), l’un des principaux auteurs cornucopiens, pour qui toutes les limites naturelles peuvent être repoussées en mobilisant une ressource ultime et inépuisable : le génie humain. Le cornucopianisme désigne ainsi un courant de pensée, omniprésent à droite et à gauche de l’échiquier politique, qui considère la technologie comme la solution ultime aux problèmes environnementaux.

Statue du Dieu grec Zeus avec une corne d’abondance, d’où sort en profusion des fruits et des vivres
Statue du Dieu grec Zeus avec une corne d’abondance, d’où sort en profusion des fruits et des vivres. Shutterstock

Que ce soit Elon Musk, qui envisage de coloniser Mars pour quitter une planète devenue invivable, en passant par le prince saoudien Mohammed Ben Salmane, pour qui les technologies de stockage du CO2 permettront à sa monarchie pétrolière d’atteindre la neutralité carbone, jusqu’à Emmanuel Macron investissant des milliards dans la pour l’instant très chimérique aviation décarbonée, les exemples de propos cornucopiens ne manquent pas dans l’actualité. Mais où trouvent-ils leurs racines ?

Un courant de pensée qui prospère chez les économistes

On prête généralement à l’économiste américain Kenneth Boulding (1910-1993) cette citation célèbre :

« Pour croire qu’une croissance matérielle infinie est possible sur une planète finie, il faut être fou ou économiste. »

De fait, si les cornucopiens ne sont pas forcément fous, la genèse de leur pensée doit beaucoup aux théoriciens de l’économie moderne.

Lorsque, dans un célèbre essai de 1798, l’économiste et homme d’église Thomas Malthus émet l’idée que les ressources naturelles constituent un facteur limitant de l’expansion, la réaction de ses confrères économistes est immédiate. Pour eux, ce ne sont pas les ressources qui sont limitées, mais notre capacité à les exploiter. Friedrich Engels, futur théoricien du communisme, écrit par exemple :

« La productivité du sol peut être indéfiniment accrue par la mobilisation du capital, du travail et de la science. »

Car après tout, se demande Engels, « qu’est-ce qui est impossible à la science ? »

Cette manière de penser, déjà largement présente chez certains philosophes des Lumières comme René Descartes ou Francis Bacon, va être développée et affinée par les économistes tout au long du 19ème et du 20ème siècle. Ceux-ci se persuadent en effet rapidement que les deux principaux facteurs de production, à savoir le capital et le travail, sont substituables.

Grâce au progrès technique, il est par exemple possible de remplacer le travail humain par du capital technique, c’est-à-dire par des machines. Dans l’esprit des économistes, qui ont peu à peu réduit la nature à une sous-catégorie du capital, le même raisonnement peut s’appliquer au capital naturel : il « suffit » de le substituer par du capital artificiel.

Illustration de la révolution industrielle anglaise réalisée par Samuel Griffiths en 1873. Cette période est considéré à la fois comme celle de l’expansion des idées cornucopianistes, mais aussi, pour certains, comme les débuts de l’Anthropocène. Samuel Griffiths/Wikipedia, CC BY

La magie de la substitution : ou comment la croissance pourrait devenir éternelle

Cette idée apparaît d’autant plus séduisante aux yeux des économistes qu’elle permet, sur le papier, de rendre la croissance éternelle. Après tout, si une partie du capital artificiel remplace le capital naturel dégradé, alors le stock de capital « total » peut indéfiniment s’accroître. C’est mathématique. Mais dans la vraie vie, comment opérer une telle substitution ?

Comme le pressentait Engels, il faut introduire dans les équations économiques un facteur supplémentaire : la technologie. Deux types de leviers sont principalement envisagés pour repousser les limites naturelles.

Le premier consiste à intensifier l’exploitation des ressources afin d’accroître leur disponibilité. C’est typiquement ce qui est advenu dans les années 2000 avec l’émergence de la fracturation hydraulique, dont l’usage a permis d’accéder à des énergies fossiles (les gaz et pétroles de schiste) jusque-là inexploitables. Grâce à la technologie, la quantité de ressources accessibles a donc augmenté. Qu’il s’agisse des énergies fossiles, des ressources minérales ou encore de la biomasse, les exemples d’intensification de ce type sont légion depuis les débuts de la révolution industrielle.

Le second levier consiste à remplacer une ressource par une autre. Pour reprendre l’exemple des énergies fossiles, chacun comprend que, quel que soit le degré d’intensification de leur exploitation, celles-ci finiront par s’épuiser. La substitution consiste dès lors à prendre le relais en remplaçant les énergies fossiles par une autre forme d’énergie qui, entre temps, aura été rendue plus facilement accessible grâce, là encore, au progrès technique. Les économistes dominants des années 1970 comptaient par exemple beaucoup sur des technologies de rupture comme la fission nucléaire pour remplacer les énergies fossiles.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

De la théorie à la pratique : quelques failles du raisonnement cornucopien

Les cornucopiens ont-ils raison ?

D’un côté, il faut leur reconnaître certaines réussites. L’épuisement des ressources naturelles tant redouté dès le début du 19ème siècle n’est pas advenu au cours des deux cents ans qui ont suivi. Comme ils le prédisaient, une partie de la rente issue de l’exploitation des ressources naturelles a été investie dans la recherche et le développement, permettant d’accroître considérablement notre capacité à exploiter la nature.

En revanche, si le levier de l’intensification a formidablement fonctionné, celui du « remplacement » a jusqu’à présent échoué. Comme le remarquent certains historiens de l’environnement, loin de se substituer, les ressources nouvellement exploitées se sont en réalité toujours additionnées aux précédentes. Et rien ne prouve qu’une telle substitution puisse un jour advenir, en particulier concernant les énergies fossiles. Le nucléaire, que les économistes des années 1970 imaginaient pouvoir se substituer aux fossiles dans la première moitié du 21ème siècle, ne représente que 4 % de l’énergie primaire consommée dans le monde, et sa part baisse depuis une trentaine d’années.

Enfin, le raisonnement cornucopien bute aujourd’hui sur une conséquence paradoxale de sa propre réussite. En intensifiant la production des ressources naturelles, la civilisation industrielle a généré des flux de matière et d’énergie qui se sont souvent avérés très supérieurs à ce que les écosystèmes pouvaient assimiler. Le réchauffement climatique, l’effondrement de la biodiversité, l’acidification des océans, l’omniprésence des polluants toxiques dans notre environnement, le bouleversement des cycles biogéochimiques sont autant de conséquences directes de l’intensification de l’exploitation de la nature.

Or, pour faire face au défi sans précédent posé par ces nouvelles limites planétaires, les cornucopiens continuent de mobiliser les mêmes recettes fondées sur la course en avant technologique. La substitution consisterait cette fois-ci à réparer ou remplacer des services écologiques que la nature ne parvient plus à maintenir. Qu’il s’agisse de remplacer les insectes polinisateurs par des robots, d’opacifier l’atmosphère pour contrebalancer le réchauffement climatique ou encore de capter le carbone atmosphérique afin de le réinjecter dans la lithosphère, les cornucopiens ne manquent pas d’idées. Même si, jusqu’à présent, elles restent très hypothétiques.

Graphique montrant que sur 9 variables du système Terre monitorées, au moinssur les 9 variables du système Terre, 5 font aujourd’hui l’objet d’un dépassement de frontière planétaire.
Sur 9 variables du système Terre monitorées, au moins 5 font aujourd’hui l’objet d’un dépassement de frontière planétaire. Stockholm Resilience Centre,, CC BY

Une nouvelle forme de « conservatisme technologique » ?

A l’heure de l’urgence écologique et climatique, la pensée cornucopienne est-elle encore pertinente ? On peut en douter. Mais alors, pourquoi est-elle si présente parmi les décideurs politiques et économiques ?

Peut-être tout simplement parce que la pensée cornucopienne a ce mérite immense : en prétendant prolonger la domination de l’humain sur la nature grâce à la technologie, elle permet à ses défenseurs de ne pas débattre des conditions sociales, culturelles, économiques et politiques qui permettraient de nous réconcilier avec les limites planétaires. Cet optimisme technologique est d’ailleurs l’une des douze excuses listées par l’Université de Cambridge pour repousser à plus tard l’action face au dérèglement climatique. Pour paraphraser et détourner un slogan écologiste, il semble bien que le plus important pour les cornucopiens soit en effet là : « ne pas changer le système, quitte à changer le climat ».The Conversation

Aurélien Boutaud, Chercheur associé à l'UMR 5600 EVS, Centre national de la recherche scientifique (CNRS) et Natacha Gondran, Professeur en évaluation environnementale, UMR 5600 Environnement Ville Société, Mines Saint-Etienne – Institut Mines-Télécom

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

La France se prépare à la multiplication des cyberattaques autour des JO de Paris 2024

 

cyber

La déclaration des biens immobiliers, déjà reporté deux fois, a connu mercredi un nouveau couac : 24 heures avant la date limite, le site des impôts a été victime d’une cyberattaque. Les contribuables voyaient s’afficher le message « Le site est momentanément en absence. Durant cette intervention, vous ne pouvez pas consulter la documentation et les actualités, ni télécharger de formulaire. » Le site des douanes a également été bloqué. Le retour à la normale est intervenu en début de soirée pour les deux sites.

Un collectif de hackers russes pro-Kremlin contre la France

Les deux cyberattaques, réalisées par déni de service (DDoS) – le serveur ciblé est submergé de requêtes et ne peut plus y répondre – ont été revendiquées sur Telegram mercredi en début d’après-midi par NoName057 (16), un collectif de hackers russes ultranationalistes, qui a déjà attaqué la France par le passé. En mars dernier, NoName057 (16), qui s’est fait une spécialité de viser les sites internet occidentaux ou ukrainiens, avait attaqué le site internet de l’Assemblée nationale et vraisemblablement aussi celui du Sénat.

Les attaques sont en général rapidement corrigées par les organismes victimes mais elles participent à une forme de déstabilisation en forte hausse à laquelle la France fait de plus en plus face, comme l’a souligné le dernier Panorama de la cybermenace 2022, publié par l’Agence nationale de la sécurité des systèmes d’information (Anssi).

Recrudescence de l’hacktivisme en Europe

« Le conflit russo-ukrainien a favorisé une recrudescence de l’hacktivisme, plus particulièrement en Europe de l’Est en soutien à la Russie comme à l’Ukraine. L’impact médiatique de leurs actions est souvent disproportionné par rapport au niveau de compétences mises en œuvre et à l’impact réel sur le fonctionnement de leurs cibles. Toutefois, les conséquences de ce type d’attaques pouvant provoquer l’indisponibilité de certaines ressources ou porter atteinte à l’image d’institutions ne doivent pas être négligées », estimait l’Anssi, soulignant là l’impact des tentatives de déstabilisation.

À l’approche de la coupe du monde de rugby et surtout des Jeux olympiques de Paris en 2024, la France s’attend à être particulièrement visée par des cyberattaques. Interrogé par l’Équipe début juillet, Vincent Strubel, directeur général de l’Anssi, a expliqué qu’un tiers de ses équipes va se consacrer aux Jeux dans l’année à venir. D’ores et déjà un exercice de simulation a déjà eu lieu.

« On s’est mis dans le scénario de ce qui peut se produire de pire, avec une cérémonie d’ouverture vraiment perturbée et des attaques dans tous les sens, pour voir comment on tient le rythme. On va continuer ce type d’exercices d’ici la fin de l’année et on encourage les organisations qui peuvent être ciblées par les attaques à s’entraîner », a expliqué M. Strubel avant d’évoquer les différentes menaces qui pèsent sur les JO.

Les JO de plus en plus attaqués

Celles sur la compétition elle-même « parce que, derrière l’événement sportif, il y a des enjeux géopolitiques. » Celles sur la lutte antidopage. « Des attaquants étatiques ont été identifiés autour d’un laboratoire antidopage aux Pays-Bas il y a quelques années, donc c’est du concret. On sécurise aussi le chronométrage, l’arbitrage. » Enfin, celles sur la cérémonie d’ouverture que regardera le monde entier. « Une déstabilisation peut toucher aux transports, à la billetterie pour la cérémonie », note Vincent Strubel, qui sait déjà que les JO seront au centre d’une véritable cyberguerre.

Les JO de Londres en 2012 avaient subi 212 millions de cyberattaques dès leur ouverture, ceux de Rio en 2016 avaient essuyé 500 millions de cyberattaques soit 400 attaques par seconde, et ceux de Tokyo 2021 avaient affronté… 4,4 milliards de cyberattaques, soit 800 attaques par seconde.

La bataille des voitures électriques à moins de 25 000 € est lancée

fiat

Le marché de la voiture électrique ne se jouera pas forcément sur l’autonomie, la capacité des véhicules à être rechargés rapidement voire l’agrément de conduite. C’est le prix des véhicules qui va voir s’engager une intense bataille entre les différents constructeurs autour de la voiture à moins de 25 000 €. Loin des Tesla, des Porsche ou des voitures chinoises qui vont débarquer en masse avec des prix très largement au-dessus, la transformation du marché automobile se fera d’abord avec ces véhicules d’entrée de gamme.

Des voitures (vraiment) bonnes pour l'environnement

D’abord parce qu’ils correspondent à la philosophie de ce que devrait être une voiture électrique : une citadine pour les trajets du quotidien et non pas une routière ou un SUV à grosse batterie pour les longs trajets. « Sur l’ensemble de sa durée de vie, une voiture électrique roulant en France a un impact carbone 2 à 3 fois inférieur à celui d’un modèle similaire thermique, à condition que sa batterie soit de capacité raisonnable (inférieure à 60 kWh) » rappelait ainsi l’Ademe. « Avec une batterie de taille supérieure, l’intérêt environnemental n’est pas garanti étant donné la variabilité des consommations liées à la masse du véhicule et aux conditions d’utilisation. »

L'ancienne R5 et la future 100% électrique Renault

Ensuite, ces « petites » voitures électriques sont davantage pertinentes parce que l’évolution du bonus automobile prévu en 2024 (qui tiendra compte de tout le cycle de production de la voiture) pourrait bien les avantager.

C’est la raison pour laquelle la plupart des constructeurs se sont lancés dans une course pour proposer le meilleur modèle à moins de 25 000 €. En présentant en 2021, dans le cadre de son programme « Renaulution », la future R5 électrique, qui sortira en 2024, Renault espère marquer les esprits. Le néo-rétro fait vendre – la Fiat 500 est là pour le prouver – et le prix de 25 000 € devrait assurer à Renault une place de choix dans ce segment, lui qui a réalisé un carton avec la Dacia Spring électrique.

Les Chinois en embuscade

Mais la concurrence sera rude. Après le scandale du Dieselgate, Volkswagen a accéléré et a prévu de sortir 10 modèles électriques d’ici 2026. Parmi eux, la iD.2, un petit SUV urbain, dont une mise à jour de la plateforme MEB a été présentée en décembre. Le prix de la iD.2, attendue en 2026, devrait être contenu à 25 000 € contre 20 000 € un temps annoncés.

Stellantis va aussi entrer dans la danse. En juin, Citroën a annoncé la e-C3, « qui mettra l’accent sur le confort […] et proposera plus de 300 km d’autonomie à un tarif, hors bonus, inférieur à 25 000 €», avait annoncé la marque aux chevrons. Le 5 août dernier, Fiat a confirmé à Bloomberg l’arrivée en 2024 de la Fiat Panda électrique, elle aussi à moins de 25 000 €. Il existe un « réel besoin de véhicules électriques plus abordables » assure Olivier François de Fiat. Cette Panda électrique – dont la version thermique fut un immense succès – devrait s’inspirer du concept car Cientoventi.

Ces citadines électriques européennes, potentiellement éligibles à la location à 100 € par mois promise par Emmanuel Macron, devront toutefois affronter de redoutables concurrentes chinoises. La marque Jiangnan propose sa U2, Leapmotor une T03 qui était attendue à moins de 20 000 € mais sera commercialisée à 25 990 euros.

(Article publié dans La Dépêche du Midi du 10 août 2023)

Comment l'IA va bouleverser les recrutements

embauche

Analyse de Jobamax

Le recrutement connaît aujourd'hui de réelles difficultés pour attirer et fidéliser les talents. En effet, le rapport de force entre recruteurs et chercheurs d'emploi s'est complètement inversé et les entreprises doivent revoir leur stratégie pour rester compétitif sur le marché de l'emploi. L'utilisation de l'IA représente une opportunité significative, malgré les hésitations liées à la crainte de déshumaniser le processus ou de perdre le contrôle, cette innovation est un outil d'amélioration et non de remplacement. Mais quels sont les faits marquants à venir sur ce secteur ? Jobamax fait le point.

Une recherche de candidats révolutionnée

L'IA discerne les compétences, les qualifications et les expériences cruciales que les recruteurs recherchent. Cette compétence permet un filtrage plus efficace des candidatures, ce qui se traduit par une sélection de profils répondant précisément aux critères requis. Les algorithmes intelligents, qui sous-tendent l'IA, prennent également en compte des facteurs supplémentaires tels que les années d'expérience, les compétences particulières, les certifications, etc. 

L'analyse sémantique a un effet d'entraînement sur la recherche de candidats ; son influence va au-delà de l'efficacité du processus pour améliorer le calibre des candidats présélectionnés. En utilisant les prédictions de l'intelligence artificielle pour analyser les compétences et les qualifications, les recruteurs peuvent être assurés de capturer des candidats potentiellement exceptionnels.

Une sélection précise des candidats pour les entreprises

Avec l'avènement de l'intelligence artificielle et du puissant outil qu'est l'analyse des données, il est possible d'atteindre un nouveau degré d'objectivité et de précision au cours de ces étapes cruciales du recrutement. L'analyse des données joue un rôle essentiel dans la sélection des candidats. Elle permet aux recruteurs d'identifier rapidement les profils qui correspondent parfaitement aux besoins de l'organisation. 

Grâce à l'intelligence artificielle, les systèmes peuvent explorer de manière approfondie l'étendue et la profondeur des données relatives aux candidats, y compris les compétences, les qualifications, les expériences passées, les réalisations, etc. En exploitant la puissance de l'intelligence artificielle, les recruteurs peuvent évaluer les compétences clés et les traits de personnalité des candidats avec une précision remarquable. Les algorithmes d'apprentissage automatique peuvent disséquer les réponses aux entretiens, les évaluations comportementales et d'autres données pour évaluer la pertinence des compétences et des traits de caractère recherchés. 

Ce processus ouvre la voie à l'identification de candidats dont l'adéquation au poste est fondée sur des critères objectifs et des analyses comparatives.

Vers une meilleure expérience des candidats

L'une des principales avancées est la personnalisation accrue de l'expérience du candidat, largement facilitée par l'intelligence artificielle. L'automatisation des communications, un élément central du rôle de l'IA, ouvre la voie à la diffusion de messages personnalisés aux candidats. Elle les tient informés de la progression de leur candidature, des différentes étapes du processus de recrutement et des démarches ultérieures qu'ils doivent entreprendre.

Ce niveau de transparence renforce non seulement l'engagement des candidats, mais crée également une impression positive de l'entreprise, un atout qui devient particulièrement précieux lorsque le processus de recrutement comporte de multiples facettes. Les prédictions en matière d'intelligence artificielle soulignent également le rôle croissant des chatbots et des assistants virtuels pilotés par l'IA dans le paysage du recrutement. Ces entités numériques, activées par l'IA, peuvent converser avec les candidats de manière naturelle et interactive. 

Elles répondent aux questions courantes, apportent un éclairage sur les spécificités de l'entreprise, les postes vacants et les avantages, et peuvent même procéder à des évaluations préliminaires des candidats. Ce déploiement de l'IA amplifie l'efficacité du processus de recrutement en fournissant aux candidats des réponses immédiates et en minimisant les temps d'attente pour les candidats.

Un recrutement transparent et éthique

L'un des principaux rôles de l'intelligence artificielle dans le recrutement, selon les prévisions de l'intelligence artificielle, est l'atténuation des préjugés, qui vise à renforcer l'équité dans le processus de sélection des candidats. Elle analyse de manière impartiale les données relatives aux candidats en fonction de critères préétablis, neutralisant ainsi les préjugés humains. Les algorithmes, dépourvus de toute influence subjective, évaluent les compétences techniques, l'expérience professionnelle et les réalisations des candidats, sans tenir compte d'éléments tels que l'origine ethnique, le sexe ou tout autre facteur potentiellement discriminatoire. L'IA sera largement déployée pour éradiquer les biais linguistiques dans les descriptions d'emploi et les critères de sélection. Les algorithmes d'IA dissèquent le verbiage utilisé dans les offres d'emploi, garantissant la neutralité et l'absence de langage discriminatoire. Cette avancée, comme prévu, permet non seulement d'attirer un vivier de candidats plus diversifié, mais aussi de s'assurer que tous les candidats sont évalués sur un pied d'égalité.

Simplifier l'intégration

Les prévisions en matière d'intelligence artificielle indiquent une simplification significative du processus d'intégration des nouveaux employés à mesure que la technologie de l'IA continue d'évoluer. Les entreprises peuvent utiliser des chatbots alimentés par l'IA pour diffuser des informations et répondre aux demandes, aidant ainsi les nouvelles recrues à se familiariser rapidement avec leur rôle, l'organisation et ses réglementations. Les chatbots alimentés par l'IA agissent comme des guides numériques, accompagnant les nouveaux employés tout au long de leur parcours d'intégration et les dotant des connaissances nécessaires à leur convenance. Ils peuvent fournir des plans d'intégration sur mesure comprenant des modules de formation, des politiques et des procédures d'entreprise, ainsi que des présentations aux membres importants de l'équipe.

Améliorer les compétences des employés

L'IA analyse les données des employés, en offrant un aperçu de leurs performances, de leurs points forts et des domaines nécessitant une amélioration. Cela permet de générer des recommandations personnalisées de développement des compétences qui s'alignent sur les objectifs de carrière de l'employé et les objectifs stratégiques de l'organisation. 

Elle se distingue en offrant des expériences d'apprentissage personnalisées et adaptatives, en surveillant les progrès de l'employé, en offrant un retour d'information en temps réel et en ajustant dynamiquement la trajectoire d'apprentissage. Les prédictions en matière d'intelligence artificielle prévoient également une augmentation de l'apprentissage continu, à son propre rythme, facilité par l'IA. Celle-ci permet de recommander des modules d'apprentissage compacts et à la demande, ce qui permet une intégration transparente de l'apprentissage dans les routines de travail quotidiennes. Cela garantit que les employés restent adaptables et disposent des compétences nécessaires pour s'épanouir sur un lieu de travail en évolution rapide

La réalité physique du monde numérique

Le Magasin Vauban, un vieil entrepôt au port de Strasbourg, réaménagé en centre de données. Michael Kauffmann, Wikipédia, CC BY
Par Michel Robert, Université de Montpellier

Umberto Eco décrit dans son roman Le nom de la rose l’organisation, la conservation des données et l’accès au savoir, il y a sept siècles dans la bibliothèque d’une abbaye, qui finira par brûler, détruisant ainsi le travail des moines copistes, premiers artisans de la redondance avant l’invention de l’imprimerie puis de l’informatique.

Ce type d’événement s’est reproduit au travers des époques avec à chaque fois des pertes de connaissances. L’épisode le plus récent dans notre époque de dématérialisation, est l’incendie spectaculaire à Strasbourg le 10 mars 2021 d’un « data center » – c’est-à-dire d’un centre de stockage et de traitement de données – qui a eu des conséquences importantes pour les utilisateurs. Cet incident est révélateur de la fragilité des infrastructures numériques (ordinateurs, serveurs, racks de stockage, réseaux de communications, alimentations électriques, climatisation…), qui amène à des pertes de données parfois irréversibles, et des services interrompus (systèmes d’information, applications informatiques, messageries, sites Web…).

Un tel accident industriel nous interpelle en fait sur la réalité physique du monde numérique. Celui-ci s’est construit depuis une quarantaine d’années autour de machines informatiques concentrées dans des réseaux de data centers qui constituent le nuage numérique ou « cloud ». Ce « nuage », d’apparence immatérielle, repose en fait sur des infrastructures distribuées et interconnectées à l’échelle de la planète. On recense à ce jour près de 5 000 data centers dédiés ou mutualisés répartis dans 127 pays dans le monde, certains pouvant héberger des dizaines de milliers de serveurs.

L’histoire de l’informatique est faite d’alternances du local au global entre des infrastructures centralisées et distribuées : centralisées au siècle dernier autour d’un ordinateur unique, puis distribuées avec l’avènement de l’informatique nomade (PC, tablettes, smartphones, objets connectés…), puis mixte de nos jours avec des services de plus en plus externalisés vers des sociétés spécialisées (GAFAM par exemple) pour sauvegarder et traiter des données, ou communiquer au travers des réseaux sociaux, ou dans le télétravail par visioconférences et documents partagés.

Comment stocke-t-on des données de manière sécurisée aujourd’hui ?

Si on regarde l’usage individuel, il y a 30 ans les données étaient stockées sur des disquettes de capacité de 1 méga-octet (106 octets) puis des CD, des clés USB… Aujourd’hui un disque dur magnétique personnel de 1 téra-octet (1012 octets, soit mille milliards) – qui a la taille d’un smartphone – représente l’équivalent d’un million de disquettes pour un coût de quelques dizaines d’euros. La sauvegarde des données de manière pérenne est une évidence depuis les débuts de l’informatique, avec au départ des matériels et des logiciels peu fiables.

Aujourd’hui, l’heure est à l’explosion des données liées à nos usages, par exemple la sauvegarde instantanée dans le cloud de photos et vidéos saisies sur un smartphone. L’heure est aussi à toutes les formes actuelles connues de piratage, et de cybercriminalité. Sauvegarder ses données nécessite des précautions, par exemple dans des lieux de stockage sûrs.

Au niveau professionnel, beaucoup d’usagers et de sociétés n’ont pas les moyens de disposer d’une infrastructure informatique autonome et robuste, compte tenu des coûts d’acquisition, de maintenance, de sécurisation, de mise à jour, et des ressources humaines associées. Ils font donc appel à des sociétés spécialisées qui vendent leur maîtrise de la sécurisation des données, que ce soit en termes de confidentialité, de protection de savoir-faire ou de vie privée. Notons aussi que les enjeux de souveraineté des États dans l’accès aux données sont cruciaux. La distribution des données et de leurs traitements à l’échelle de la planète – et un jour de l’espace avec des grappes de satellites établissant les communications entre serveurs – offre de nombreux avantages sous réserve d’une bonne compréhension des limites physiques des infrastructures utilisées, notamment en cas d’accident.

Un regard critique sur les offres actuelles est donc indispensable : où sont stockées mes données ? Comment sont-elles protégées, sécurisées et sauvegardées ? Quelle empreinte carbone pour mes usages numériques ?

Quels coûts pour cette virtualisation de nos systèmes informatiques ?

Certains opérateurs offrent des services clés en main répondant à ces exigences. D’autres offrent à des coûts moindres des possibilités d’accès à des machines, en laissant aux clients la responsabilité de leurs choix, par exemple dans la gestion des sauvegardes – les contrats entre les parties régissent les détails de ces usages. La notion de qualité de service est donc essentielle.

Une bonne communication sur les technologies utilisées et leurs limites parfois insaisissables pour les usagers est indispensable : quels sont les niveaux de protection de mes données dans le contrat souscrit ? À quelle fréquence se font les sauvegardes, et comment ? La CNIL rappelle en particulier les obligations en matière de notification, en cas d’indisponibilité ou dans le pire cas de destruction de données personnelles déposées dans un data center.

Le data center de l’agence Reuteurs, à Londres, en 2005. Adrian Pingstone/Wikipedia

La réalité physique du monde numérique pose aussi la question des ressources énergétiques nécessaires à ces infrastructures et à nos usages les plus voraces en énergie (vidéos en streaming, gestion de la monnaie virtuelle, les bitcoins). L’empreinte environnementale de nos périphériques numériques connectés et des infrastructures de communications, calcul et stockage ne peut être ignorée : la part globale du « numérique » dans les émissions de gaz à effet de serre augmente chaque année et dépassera bientôt les 5 %, avec une consommation en énergie de 2000 térawatts-heures soit 10 % de la demande mondiale d’électricité.

Des solutions techniques

Des solutions scientifiques et technologiques émergent pour fiabiliser et accompagner les transitions numériques et énergétiques qui sont indissociables.

Cela pourrait par exemple conduire à des « circuits courts numériques » de fiabilisation et de sauvegarde, associés à chaque data center et valorisant des générations de machines informatiques plus anciennes fonctionnant exclusivement avec des énergies vertes. Ces machines pourraient être distribuées à l’échelle d’une région, ce qui limiterait l’impact d’un accident industriel sur un site donné, en jouant sur la redondance des machines pour assurer des sauvegardes.

En effet, un service basé sur une redondance de ressources informatiques est en cas d’accident toujours bien meilleur qu’une perte irréversible de données numériques, que ce soit pour des usages privés ou professionnels. Pour beaucoup d’applications ne nécessitant pas de calculs hautes performances, ou pour la gestion locale des données et des services offerts aux usagers à l’échelle d’un territoire ou d’une ville intelligente, il est envisageable de coupler en « circuit court numérique » la production et le stockage des données avec les énergies vertes, que ce soit en termes de récupération de chaleur ou de production d’électricité d’origine renouvelable.The Conversation

Michel Robert, Professeur des Universités, Université de Montpellier

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Internet par satellite : toutes les aides financières mises en place pour s’équiper

satellite

Pour atteindre l’objectif d’une connexion haut débit supérieure ou égale à 8 Mb/s, le ministère de la Cohésion des Territoires et l’Agence Nationale de la Cohésion des Territoires (ANCT) pilotent le dispositif « Cohésion Numérique des Territoires » pour apporter du « bon haut débit » aux foyers et entreprises non couverts par les réseaux filaires via des technologies sans fil.

Celles-ci peuvent être la boucle locale radio (THD radio, WI-FI, WIMAX, etc.), la 4G fixe ou le satellite.

Jusqu'à 600 € d'aides

Les particuliers et entreprises éligibles au dispositif bénéficieront d’un soutien financier de l’État sur le coût d’équipement, d’installation ou de mise en service de la solution sans fil retenue. Jusqu’à 150 € pour les offres labellisées proposant du Bon Haut Débit dans les territoires ultramarins, jusqu’à 300 € pour les offres labellisées proposant du Très Haut Débit et pouvant aller jusqu’à 600 € sous conditions de ressources.

Des opérateurs locaux et nationaux proposent des offres labellisées « Cohésion Numérique » pour avoir accès à un internet fixe de qualité. Il suffit de contacter les opérateurs de son choix pour savoir si son logement et/ou son entreprise sont éligibles au dispositif gouvernemental. Si c’est le cas, on peut souscrire à la solution d’accès internet sans fil la plus adaptée à sa situation.

L’éligibilité aux aides peut être vérifiée sur le site internet de l’ANCT.

(Article publié dans La Dépêche du Midi du 4 août 2023)

Internet par satellite : ce que proposent les opérateurs en France

satellite

En lançant son offre promotionnelle début juillet en France, Starlink, la société d’Elon Musk présente dans notre pays depuis 2021, met un coup de projecteur sur l’internet par satellite et va certainement bousculer les autres acteurs. Car Starkink est loin d’être le seul sur ce secteur en plein.

  • Nordnet

Le premier concurrent de l’Américain est Orange. L’opérateur historique propose des offres de connexion internet satellitaire via sa filiale NortdNet, acquise en 1998. Elle propose trois offres d’abonnement Neosat de 34,90 €/mois pendant un an (39,90 € ensuite sans engagement) à 74,90 €/ mois (79,90 €) pour l’offre la plus complète.

Des abonnements tripleplay (Internet, TV, Téléphonie) et quadrupleplay qui se rapprochent le plus des box internet ADSL et fibre que nous connaissons. Les débits vont de 50 Mb/s à 100 Mb/s. NordNet n’utilise pas une constellation de satellites comme Starlink mais un seul satellite géostationnaire, KA-SAT, lancé par EutelSat en 2010.

  • Orange

En février dernier, Orange a annoncé qu’elle « renforcera courant 2023 son offre satellitaire avec une offre commerciale nouvelle génération, sous sa marque, en France Métropolitaine. Le partenariat conclu avec Eutelsat permettra aux clients particuliers et entreprises les plus isolés de bénéficier d’une expérience Très Haut Débit améliorée pour le prix d’une offre fibre optique grâce au nouveau satellite Konnect VHTS. »

La directrice générale Christel Heydemann a confirmé le 13 juillet le lancement imminent de l’offre « Le Satellite Orange avec NordNet ».

  • SkyDSL

Autre acteur important, l’allemand SkyDSL, qui utilise la flotte de satellites d’Eutelsat dont KA-SAT. SkyDSL propose trois forfaits pour les particuliers à partir de 16,90 €/mois (débit de 12 Mb/s en réception, 2 en émission, 15Go de données) à 29,90 €/mois pour deux ans (débit de 40 Mb/s en réception, 2 en émission, volume de données illimitées).

  • Ouisat

Enfin dernier acteur en France, Ouisat, une marque de l’opérateur Numérisat, appartenant au britannique Avanti Communications Group. Le satellite utilisé, Hylas 2, ne couvre que 35 % du territoire français, soit 50 départements, dans l’Est et le Nord.

(Article publié dans La Dépêche du Midi du 4 août 2023)

Internet : le satellite mettra-t-il fin aux zones blanches ?

satellite

Il y a dix ans, en février 2013, le gouvernement Ayrault lançait le plan France Très Haut Débit qui succédait au programme national très haut débit lancé en 2010. Dans un discours prononcé le 20 février 2013, François Hollande avait ainsi annoncé la mobilisation de 20 milliards d’euros dans les dix prochaines années pour développer l’accès au très haut débit pour tous, dont environ 3 milliards d’euros de subvention apportés par l’État pour soutenir les projets des collectivités territoriales. L’objectif était ambitieux avec un accès rapide à large bande pour tous les ménages d’ici 2022 (couverture à 100 % avec 30 Mb/s) et de fibre pour tous d’ici 2025.

Tenir la promesse de 100 % de très haut débit d’ici 2025

Depuis les opérateurs ont mis les bouches doubles, investissant massivement dans le déploiement de la fibre, mais aussi des réseaux mobiles 4G et 5G. « La connectivité numérique s’est améliorée en France, notamment par de nombreuses mises à niveau des réseaux fixes du pays et par la poursuite de la mise en œuvre du Plan France très haut débit, avec une adoption remarquable de 1 Gb/s dans l’ensemble du pays et une très large disponibilité du haut débit mobile (couverture 4G de 99 % des ménages) », félicitait la Commission européenne. « Toutefois, le rythme du déploiement de la fibre jusqu’au foyer (FTTH) s’est ralenti dans certaines régions, y compris dans les zones très densément peuplées », observait la Commission.

C’est que l’objectif de 100 % de la population connectée au très haut débit paraît, en effet, difficilement atteignable en raison du relief de certains de nos territoires, notamment en Occitanie. Ces zones blanches ou grises ne sont toutefois pas condamnées à être coupées d’une connexion rapide à internet : une liaison satellite pourrait y remédier, même si le débit est beaucoup plus bas que la fibre ou la 4G/5G (mais il s’améliore).

Autrefois très onéreuse et complexe à mettre en œuvre pour le grand public, la connexion à internet par satellite est désormais beaucoup plus accessible et donne même lieu à une concurrence entre opérateurs, ce qui est une bonne chose pour tous ceux qui vivent avec une connexion ADSL trop lente pour les usages d’aujourd’hui.

satellite

Parmi les acteurs qui changent la donne on retrouve Elon Musk, le fantasque patron de Tesla, Space X ou du réseau social X (ex-Twitter). Ce dernier est aussi à la tête de Starlink, un fournisseur d’accès à internet mondial créé en 2018 qui s’appuie aujourd’hui sur une constellation de quelque 12 000 petits satellites en orbite basse (550 km d’altitude contre 36 000 km pour un satellite géostationnaire), 42 000 à terme. Autant dire que la totalité de la surface de la planète sera couverte. Au début de l’invasion de l’Ukraine, la fourniture par Musk de kits de connexion Starlink a ainsi été déterminante pour assurer la connexion internet et donc conforter la résistance ukrainienne.

L’internet par satellite, marché en pleine expansion

Aujourd’hui, Starlink passe à l’offensive commerciale pour le grand public. Depuis plusieurs jours, il a lancé une offre promotionnelle. « Le prix pour l’abonnement en France métropolitaine est réduit de 20 % indéfiniment à 40 €/mois pour une connexion internet haut débit, à faible latence, même dans les lieux les plus reculés et ruraux. » Le prix du kit (antenne + routeur) est passé de 450 € à 199 €, indique la société, qui promet à ses clients de pouvoir enfin bénéficier de la vidéo à la demande en 4K, de pouvoir faire de la visioconférence ou jouer en ligne.

Sur ce créneau, Starlink n’est pas le seul. L’internet par satellite fait l’objet d’une intense bataille entre plusieurs concurrents. Et pour cause. En 2021, le marché mondial était estimé à 3,985 milliards de dollars ; d’ici 2030, il devrait atteindre 17,431 milliards de dollars, selon le rapport « Satellite Internet Market Share, Analysis report and Region Forecast 2022-2030 ». Autant dire qu’il suscite des convoitises...

Les opérateurs télécoms traditionnels sont sur les rangs, comme Orange, Eutelsat qui a fusionné avec la société britannique OneWeb (qui dispose d’une flotte de satellites en orbite basse comme Starlink), mais aussi les géants du Net Amazon (avec sa constellation Kuiper) ou Meta-Facebook (avec son projet Athena).

Derrière la bataille contre les zones blanches, la guerre de l’internet par satellite a déjà commencé.

(Article publié dans. La Dépêche du Midi du 4 août 2023)