Accéder au contenu principal

La 5G+ est-elle enfin la vraie révolution attendue dans l’évolution des réseaux mobiles ?

Par Lionel Paris, expert produits réseau pour Netgear Après des années d’attente et de promesses technologiques, la 5G+ est officiellement là. Orange, premier opérateur en France à exploiter pleinement la bande passante dédiée de la 5G Standalone (SA), marque un tournant décisif dans l’évolution des réseaux mobiles. Mais cette nouvelle génération de connectivité tient-elle réellement ses promesses ? Une évolution nécessaire, mais tardive Jusqu’ici, la 5G que nous connaissions (NSA – Non Standalone) n’était qu’une amélioration progressive de la 4G. Son principal défaut : elle s’appuyait encore largement sur les infrastructures 4G existantes, limitant ainsi ses bénéfices en matière de latence et de débits. Avec la 5G+, nous passons enfin à une architecture entièrement dédiée, ce qui ouvre la voie à des performances nettement supérieures. Orange, après avoir testé son offre « 5G+ Home » en octobre 2024, et lancé un forfait mobile Pro en février 2025, généralise aujourd’hui son offre au gr...

Grands séismes : peut-on les détecter plus rapidement grâce à l’IA ?

Seisme


Par Quentin Bletery, Institut de recherche pour le développement (IRD)

Le bilan provisoire du violent séisme qui a frappé le Maroc dans la nuit de vendredi à samedi ne cesse d’augmenter. Il est désormais de plus de 2 000 morts, a précisé le ministère de l’Intérieur.

Selon le Centre national pour la recherche scientifique et technique, l’épicentre de la secousse se situait dans la province d’al-Haouz, au sud-ouest de Marrakech et le tremblement de terre a provoqué d’importants dégâts dans plusieurs villes

Au cours des trente dernières années, les tremblements de terre et les tsunamis qu’ils génèrent ont causé la mort de près d’un million de personnes. Si la prédiction en tant que telle de ces événements est impossible, des systèmes d’alerte ont été mis en place pour limiter le coût humain et matériel de ces catastrophes.

Ces systèmes ne prédisent pas le futur, mais essaient de détecter les séismes et d’estimer le plus rapidement possible leur magnitude. Actuellement, ils utilisent les ondes sismiques pour tenter de prévenir les populations quelques secondes avant les secousses, même si malheureusement le résultat n’est pas toujours au rendez-vous.

Les tsunamis se propagent plus lentement, laissant plus de temps pour agir ce qui est généralement (quelques dizaines de minutes). Cependant, les systèmes d’alerte éprouvent de grandes difficultés à évaluer rapidement la magnitude des très grands séismes. Par exemple, le système japonais a estimé une magnitude de 8 au lieu de 9 lors du séisme de 2011, et donc une vague de 3 mètres au lieu de 15, une erreur aux conséquences dramatiques à Fukushima.

Afin d’améliorer les systèmes d’alerte sismique et tsunami, nous travaillons actuellement sur un algorithme d’intelligence artificielle (IA), basé sur des ondes d’origine gravitationnelle, qui estime de manière plus fiable et plus rapide la magnitude des grands séismes.

Les systèmes d’alerte sismique

Les signaux sismiques enregistrés le plus tôt sur les sismomètres sont les ondes de compression (dites ondes P). Ces ondes se propagent à environ 6,5 km par seconde. Si vous êtes 65 km plus loin de l’épicentre que les capteurs les plus proches, vous allez donc ressentir les premières secousses 10 secondes après que ces capteurs aient enregistré les premières ondes P. En pratique, en prenant en compte le temps de transmission et de traitement de ces ondes, vos 10 secondes seront probablement réduites à 5 ou 6.

Mais les ondes les plus destructrices, les ondes de cisaillements (dites ondes S), se propageant légèrement plus lentement que les ondes P (à environ 3,5 km par seconde), il est possible d’anticiper de quelques secondes les plus fortes secousses. Sur ce principe, dans les pays pourvus de systèmes d’alerte sismique comme au Japon, lorsqu’un séisme est détecté proche de votre position, vous recevez un SMS d’alerte vous informant de l’imminence de secousses.

Les systèmes d’alerte tsunami

Malheureusement, pour des raisons à la fois instrumentales et fondamentales, les ondes P ne renseignent pas de manière fiable sur la magnitude des très grands séismes. Les systèmes d’alerte sismiques, basés sur ces ondes, s’avèrent ainsi incapables de faire la différence entre un séisme de magnitude 8 et un séisme de magnitude 9, posant un problème majeur pour l’estimation du tsunami, comme l’a illustré l’exemple de Fukushima en 2011. En effet, un séisme de magnitude 9 est 30 fois plus « grand » qu’un séisme de magnitude 8, le tsunami qu’il génère est donc considérablement plus important.

Pour estimer de manière plus fiable la magnitude des grands séismes, des systèmes d’alerte basés sur un autre type d’ondes, appelé phase W, ont été développés. La phase W a une bien meilleure sensibilité à la magnitude que les ondes P, mais se propage beaucoup plus lentement. On l’enregistre entre 10 et 30 minutes après l’origine du séisme, soit peu de temps avant l’arrivée du tsunami.

La découverte des signaux gravitationnels

En 2017, des signaux jusqu’alors inconnus ont été découverts. Ces signaux, appelés PEGS pour « prompt elasto-gravity signals » (signaux élasto-gravitationnels soudains), ont laissé entrevoir une possibilité nouvelle d’estimer plus rapidement et de manière plus fiable la magnitude des grands séismes. Lorsqu’un séisme se produit, une immense masse de roche est mise en mouvement de manière soudaine. Cette masse de roche en mouvement engendre une perturbation du champ de gravité terrestre (la pesanteur). Cette perturbation est extrêmement faible, mais se propage à la manière d’une onde gravitationnelle, à la vitesse de la lumière. De manière instantanée à l’échelle de la Terre. La gravité étant une accélération et les sismomètres enregistrant l’accélération du sol, les PEGS sont enregistrés par nos instruments de mesure « classiques ». De plus, ces signaux sont très sensibles à la magnitude, beaucoup plus que les ondes P dans le cas des grands événements.

Illustration de l’algorithme d’IA capable d’estimer la magnitude des grands séismes à partir de signaux gravitationnels (les PEGS) se propageant à la vitesse de la lumière, bien plus vite que les ondes sismiques (P et S)
Illustration de l’algorithme d’IA capable d’estimer la magnitude des grands séismes à partir de signaux gravitationnels (les PEGS) se propageant à la vitesse de la lumière, bien plus vite que les ondes sismiques (P et S). Quentin Bletery, Fourni par l'auteur

Les PEGS disposent donc des caractéristiques idéales pour alimenter un système d’alerte. Cependant, leur détection est rendue difficile par leur très faible amplitude. (environ un million de fois plus faibles que les ondes P). Comment exploiter des signaux si faibles pour alerter ?

Une IA pour exploiter les signaux gravitationnels

La technologie émergente de l’IA s’avère très performante pour extraire rapidement des signaux faibles dans de grands volumes de données bruitées. Nous avons développé un algorithme d’IA qui estime toutes les secondes la magnitude du séisme en cours à partir des PEGS]Il est donc nécessaire de mettre au point de nouveaux systèmes plus fiables et rapides, afin d’avoir une stratégie de mise à l’abri la plus efficace possible. Nous avons développé un algorithme d’intelligence artificielle (IA), se basant sur des ondes d’origine gravitationnelle se propageant à la vitesse de la lumière, pour estimer de manière plus rapide et plus fiable la magnitude des grands séismes., publié très récemment dans Nature. Comme les grands séismes sont rares, nous avons simulé des centaines de milliers de scénarios de séismes possibles le long des grandes failles japonaises.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Dans chaque scénario, nous avons calculé les PEGS attendus sur tous les sismomètres de la région et entraîné l’IA à « trouver » la magnitude et la localisation du séisme en lui donnant la réponse à chaque fois. Nous avons ensuite testé la performance de l’IA sur les données enregistrées lors du séisme de Fukushima. Les résultats indiquent que l’on aurait pu estimer la magnitude du séisme dès la fin de la rupture (soit 2 minutes après l’origine de l’événement), et donc obtenir très rapidement une bien meilleure estimation de la hauteur de la vague.

Graphe comparant la performance de l’IA aux systèmes de détection classiques
Performance de l’IA par rapport au système en place en 2011 lors du séisme de Fukushima. Quentin Bletery, Fourni par l'auteur

Les résultats étant encourageants, nous passons désormais à la phase d’implémentation de l’algorithme dans un système d’alerte opérationnel, en commençant par le Pérou où l’on attend un très gros évènement (qui pourrait intervenir demain comme dans 300 ou 600 ans). Nous travaillons également à améliorer les performances de l’algorithme pour les séismes de magnitude plus modérée. Il fonctionne dans sa version actuelle pour les séismes de magnitude supérieure à 8,3, ce qui le rend déjà très utile pour l’estimation des tsunamis (qui ne concernent que ces très grands séismes) mais limite grandement les possibilités pour alerter sur les secousses (car ces dernières sont ressenties dans la plupart des cas avant que le séisme n’atteigne une telle magnitude).

Enfin, nous ambitionnons de développer une version mondiale de cet algorithme qui utiliserait des sismomètres pour alerter sur des séismes se produisant partout sur Terre, offrant ainsi une « couverture » d’alerte mondiale particulièrement intéressante pour des régions peu équipées.The Conversation

Quentin Bletery, Géophysicien, chargé de Recherche IRD au laboratoire Géoazur., Institut de recherche pour le développement (IRD)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est poss...