Technomedia

Numérique · médias · sciences · intelligence artificielle

Retrouver l’identité des migrants disparus grâce à l’intelligence artificielle

refugees

Par Sami Yangui, INSA Toulouse et Charles Dossal, INSA Toulouse

Chaque année, des centaines de milliers de personnes partent de chez elles et quittent leur pays à la recherche d’une vie meilleure ou pour fuir des violences. Beaucoup sont blessées ou tuées durant leur trajet. Beaucoup d’autres disparaissent sans que leurs proches ne sachent si elles sont vivantes ou mortes, ni ce qui leur est arrivé.

Selon le projet Migrants disparus de l’Organisation internationale pour les migrations (OIM), on a ainsi perdu la trace de 45 000 migrants dans le monde depuis 2014, dont 24 000 en Méditerranée.

En 2020, Le Groupe INSA (Institut national des sciences appliquées) a été approchée par l’équipe forensique transrégionale du Comité international de la Croix-Rouge (CICR), qui avait pour but d’améliorer le processus d’identification des migrants décédés dans la zone euro-méditerranéenne. Ici, on dénombre beaucoup de noyades – 16 000 depuis 2014. À notre connaissance, cet effort dirigé par l’anthropologue Jose Pablo Baraybar du CICR est le seul qui se confronte à cette problématique de manière transverse dans la région.

Les équipes des INSA sont ainsi intervenues pour proposer des solutions à ce travail d’identification essentiel du CICR, qui doit faire face à un grand nombre de cas, des informations éparses ou de faible qualité sur les personnes disparues.

Après un projet pilote conduit par l’INSA de Lyon, qui a permis de fournir au CICR des outils de gestion des informations sur les corps récupérés, le partenariat s’est structuré. Il a intégré le programme Alliances de la Fondation INSA.

Ce programme mobilise élèves et enseignants-chercheurs sur des cas concrets pour lesquels des ONG, comme Handicap International ou le CICR, ont besoin d’expertise scientifique et technique. En tout, ce sont 37 élèves qui, dans le cadre de leur cursus, ont développé sept projets alliant méthodes et outils propres aux écoles d’ingénieurs avec les connaissances de terrain du CICR.

L’intelligence artificielle au service de l’humanitaire

En théorie, le processus d’identification des personnes noyées pourrait facilement être initié en faisant reconnaître les défunts par leurs proches à l’aide de photographies. Ces documents ne sont toutefois pas toujours « montrables » : soit ces photos sont de mauvaise qualité, soit les corps sont tellement abîmés et les images tellement traumatisantes qu’elles empêchent toute reconnaissance formelle.

Cette situation nous a conduits à explorer l’idée de comparer les photos des individus décédés avec les photographies de personnes recherchées par leurs proches en utilisant des technologies de reconnaissance faciale.

Cette approche a notamment été explorée dans le cadre du stage de fin d’études de Zacharie Hellouin en 2020. Son projet consistait à utiliser puis évaluer l’apport des algorithmes et des modèles de reconnaissance faciale dans l’identification des dépouilles de personnes retrouvées noyées.

Concrètement, il s’agit d’adapter et d’utiliser des modèles de machine learning, une technique d’intelligence artificielle permettant à un programme d’apprendre, en autonomie, à reconnaître des similarités et des différences sur des jeux de données. En le confrontant à des expériences répétées, comme reconnaître l’identité d’une personne, le programme s’entraîne et améliore ses résultats. Ce travail a permis de valider l’intérêt de cette technique pour la reconnaissance des disparus.

Pour la mettre en application, nous avons comparé des photos de personnes migrantes vivantes avec celles des personnes migrantes décédées dans l’espoir d’obtenir des correspondances positives. Pour cela, nous avons mis en place un index de similarité en nous appuyant sur un algorithme d’appariement qui permet d’obtenir des scores d’identité probable de la personne sous forme de pourcentages.

L’ensemble a été intégré dans une application Web destinée aux agents du CICR et à ceux légalement en charge de l’identification de dépouilles mortelles, comme les instituts médico-légaux. Cette application est en cours de développement et chacun des projets vise à l’améliorer.

Les résultats obtenus sont encourageants. Grâce à ce logiciel, nous avons pu élaborer un prototype complet de reconnaissance faciale appliquée aux migrants disparus. Cependant, pour pouvoir proposer des indicateurs réellement fiables de similarité entre des photos de personnes vivantes et décédées, il faudrait se procurer des milliers et des milliers de photos.

Vidéo de démonstration du logiciel de retouche des visages mis au point par le réseau Insa pour le CICR (INSA/CICR).

Ces limites étant posées, l’outil développé offre aujourd’hui aux agents du CICR la possibilité d’orienter leurs recherches en fournissant une liste de correspondances probables, rendant la recherche certes laborieuse, mais humainement possible.

Un logiciel en constante amélioration

Au début de ce projet, en 2020, il fallait rédiger un cahier des charges. Les étudiants INSA et leur enseignant Charles Dossal ont donc traduit en termes techniques les traitements automatiques ou non à effectuer sur ces images : extraire le visage du décor (un sac, le fond d’un bateau, une table…), centrer et aligner l’image, atténuer ou faire disparaître les plaies, enlever l’écume de la bouche et rendre au regard une lueur de vie.

Deux étudiants en 4e année, Adam Hamidallah et Din Triem Phan, ont ensuite programmé les algorithmes que nous avions identifiés comme les plus pertinents pour régler ces différents problèmes. Il aura fallu parfois recopier des parties de peau saine pour « panser numériquement » des plaies ou insérer des yeux issus d’un autre visage quand ceux-ci étaient trop abîmés. Les résultats sont encourageants, mais nous avons aussi pu mesurer que l’intelligence artificielle (IA) pourrait apporter des réponses plus abouties.

Au cours de l’été 2021, Zoé Philippon et Jeong Hwan Ko ont visualisé ces terribles images avec pour but de voir plus précisément ce que l’IA peut apporter dans cette mission.

L’objectif de Zoé Philippon était de tester les limites des algorithmes de reconnaissance faciale basés sur des réseaux de neurones artificiels quand on les applique à des images de visages de défunts majoritairement d’origine africaine. Ces algorithmes sont efficaces sur des images proches de celles qui ont été utilisées pour les calibrer, ici des visages de personnes vivantes, la plupart blanches et masculines, avec une faible proportion de visages féminins ou africains.

Elle a donc réalisé de nombreux tests, a ré-entrainé l’IA pour qu’elle soit plus efficace sur les images de disparus. Les résultats semblent indiquer que ces algorithmes gagneraient à être entraînés plus spécifiquement sur des visages de population plus représentative des disparus et que la reconnaissance se dégrade singulièrement quand la personne à reconnaître est décédée. Un accès à une plus grande quantité de données pourrait confirmer ces premiers résultats très encourageants.

Maquillage numérique

Jeong Hwan Ko a essayé d’améliorer les résultats de « maquillage numérique » en utilisant des réseaux de neurones artificiels préentrainés eux aussi, pour combler des trous dans des images. Ces méthodes se sont montrées redoutablement efficaces pour effacer les blessures, mais pour réparer une bouche ou des yeux, il a fallu utiliser d’autres réseaux de neurones capables d’insérer une partie d’une image dans une autre.

Pour le moment, le programmeur choisit l’image à insérer, mais à l’avenir, il sera sans doute plus efficace de laisser l’algorithme chercher lui-même dans une grande base de données, les yeux, la bouche ou les oreilles en bon état qui ressemblent le plus à celle du visage à identifier. Il reste du travail et, là encore, un accès plus large à des données permettrait sans nul doute d’améliorer la qualité de cette reconstruction faciale.

Aujourd’hui, les projets se poursuivent. Nous sommes toujours à la recherche de données pour entraîner davantage les programmes d’apprentissage automatique. Nous sommes aussi à la recherche d’entreprises mécènes disposées à partager avec nous leurs technologies, leur temps et leur soutien.

Soulignons enfin que ces mêmes applications, développées pour donner une réponse à la crise des migrants disparus, peuvent aussi servir dans d’autres contextes comme des catastrophes, des conflits ou toute situation qui peut entraîner la non-identification des personnes décédées.


Cet article a été co-écrit par Samuel Kenny, coordinateur de l'Alliance CICR-INSA.The Conversation

Sami Yangui, Enseignant-Chercheur en Informatique, INSA Toulouse et Charles Dossal, Professeur de Mathématiques, INSA Toulouse

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Les projets fous pour repousser les limites de l’autonomie des voitures électriques

 

Lightyear

En décidant d’arrêter la commercialisation des voitures neuves thermiques et hybrides en 2035, l’Union européenne a mis les constructeurs, mais aussi leurs clients, sous pression. Car passer au tout électrique suppose évidemment de construire d’importantes infrastructures pour installer suffisamment de bornes de recharges, rapides si possible, mais aussi de vaincre l’un des principaux griefs fait aux voitures électriques : leur autonomie. Elon Musk, le patron de Tesla, a beau dire qu’on n’a pas besoin d’une grande autonomie, les automobilistes ont tout de même la peur de tomber en panne sèche, pardon d’avoir les batteries à plat. C’est que les nombreux tests réalisés par la presse sur des voyages types en voiture électrique ont parfois viré au cauchemar et surtout montré qu’entre l’autonomie théorique et la pratique il y a un monde. Utiliser la climatisation, avoir une conduite plus sportive sont prohibées.

L'énergie solaire à la rescousse

Mais nous n’en sommes qu’au début des voitures électriques et les modèles qui vont arriver dans les prochaines années vont bénéficier d’amélioration significative, notamment avec les batteries solides ou d’autres innovations.

Lightyear


Lightyear

Par exemple, Lightyear, une société automobile finlandaise, vient d’annoncer la commercialisation de la première voiture… solaire. La Lightyear 0, qui sera produite en série, a nécessité six années d’étude. Cette longue berline dispose de 5 m2 de panneaux solaires à double courbure, une technologie brevetée par le constructeur, qui permet au véhicule de se recharger soit en roulant, soit en étant garé au soleil. Ce dispositif inédit fournirait à la Lightyear 0 quelque 70 km d’autonomie par jour à ajouter aux 725 km annoncés par le constructeur et fournis par des batteries classiques. Lightyear prévoit de commencer la production de sa voiture cet automne : 946 exemplaires vendus 250 000 €. Mais le constructeur espère faire baisser le prix à 30 000 €.

L'autonomie illimitée en Fiat 500

Autre philosophie du côté de chez Fiat. La marque, propriété du groupe Stellantis (Peugeot, Chrysler, etc.), a pris le problème à l’envers et imaginé une Fiat 500 à l’autonomie infinie. À condition que celle-ci roule sur une route spéciale. Le groupe travaille, en effet, dans son « Arena del Futuro » près de Chiari, en Italie, sur le DWPT, pour Dynamic Wireless Power Transfer, autrement dit un « transfert d’énergie sans fil par induction ». La voiture consomme ainsi l’électricité dont elle a besoin à la volée, alimentée par une route « électrifiée ». 

Une piste qui pourrait concerner par exemple des autoroutes.

La reconnaissance faciale, du déverrouillage de téléphone à la surveillance de masse

 face

Comment marche la reconnaissance faciale? En fonction de la réponse, les risques de surveillance varient beaucoup. Jan Canty, Unsplash, CC BY
Par Elia Verdon, Université de Bordeaux

Les évènements intervenus au Stade de France dans le contexte de la finale de la Ligue des Champions en 2022 ont servi d’argument pour renouveler les discours prônant l’utilisation de la reconnaissance faciale pour la sécurisation de grands évènements, comme les Jeux olympiques ou la Coupe du Monde de rugby à venir en France.

Cette promotion de la reconnaissance faciale fait écho au dernier rapport du Sénat proposant le recours, à titre expérimental, à la reconnaissance « biométrique sur la voie publique en temps réel […] à des fins de sécurisation des grands évènements ».

Ces propositions d’expérimentations soulèvent des risques d’accoutumance des populations, facilitant par la suite une pérennisation de cette technologie, qualifiée par le professeur de droit et d’informatique Woodrow Hartzog de « mécanisme de surveillance le plus dangereux qui ait été inventé ». Les risques en matière de surveillance des individus et de protection des libertés induits par la reconnaissance faciale sont assurément importants.

Identification et authentification, deux finalités aux enjeux bien différents

L’identification biométrique vise à retrouver un individu au sein d’un ensemble de personnes, au moyen de sa biométrie (par exemple son visage). On compare alors le visage de la personne recherchée à tous les autres visages inscrits dans une base de données constituée au préalable. Cet usage peut s’effectuer en temps réel, ou bien_ a posteriori_ sur des séquences d’images enregistrées.

A contrario, l’authentification vérifie qu’une personne est bien celle qu’elle prétend être. Pour cela, on compare en temps réel sa biométrie préalablement enregistrée – et seulement celle-ci – avec les caractéristiques biométriques de la personne. C’est le cas par exemple pour déverrouiller certains smartphones ou encore pour le contrôle aux frontières via le système PARAFE (où les données de la personne ont été préenregistrées dans une puce au sein du passeport lors de sa fabrication).

Ces deux finalités, authentification et identification, n’impliquent pas le même degré de surveillance des individus : l’identification des individus par un système de reconnaissance faciale, notamment sur la voie publique, a des potentialités de surveillance bien plus importantes que l’authentification, qui s’effectue pour accéder à un lieu précis.

Quelle surveillance l’identification faciale rend-elle possible ?

L’identification rend nécessaire la constitution d’une base de données centralisant les « gabarits », c’est-à-dire des modèles informatiques quantifiant les caractéristiques essentielles des visages préenregistrés : positions et tailles relatives des yeux, menton, bouche, etc. En France, l’identification faciale est permise depuis 2012 à des fins d’enquête judiciaire par les services de police dans la recherche d’auteurs d’infraction : les visages de personnes suspectées d’infraction peuvent être comparés aux visages inscrits dans le fichier du « traitement des antécédents judiciaires », ou « TAJ ».

La centralisation des visages au sein d’une base de données soulève des risques de surveillance, car le couplage de ces données faciales avec des caméras de surveillance ou des drones est susceptible de permettre la mise en place d’un système de reconnaissance faciale à distance, en temps réel, dans l’espace public, et à l’insu des individus.

Cette technologie est particulièrement individualisante, au regard de la distinction qu’elle peut faire entre les individus au moyen de leurs caractéristiques faciales. Étant donné qu’il est interdit de dissimuler son visage dans l’espace public, le déploiement de caméras de surveillance à reconnaissance faciale automatique entraînerait le suivi continu et généralisé des populations. L’individu serait alors privé de son droit à la vie privée et à l’anonymat, tous deux des droits fondamentaux primordiaux en démocratie.

Bien que la reconnaissance faciale en temps réel dans l’espace public ne soit pas aujourd’hui autorisée en France, les diverses tentatives et expérimentations passées et à venir imposent de comprendre les risques de cette technologie. Si l’identification des individus par un système de reconnaissance faciale peut sembler louable pour des raisons de sécurité publique ou de résolution d’enquêtes, cela est plus discutable au regard de la généralisation de la surveillance faciale des individus.

Le choix d’une reconnaissance faciale protectrice

A contrario, l’utilisation de la reconnaissance faciale à des fins d’authentification d’un individu conduit à un degré de surveillance moindre, car il est alors possible de ne pas centraliser les visages au sein d’une base de données. En effet, l’authentification peut être effectuée en comparant le visage photographié en temps réel au gabarit du visage préalablement enregistré, soit dans un support physique (son passeport, sa carte d’identité, son téléphone, etc.), soit dans une base de données.

Système automatisé de contrôle des passeports à l’aéroport Charles de Gaulle, en 2016. 0x010C/Wikipedia, CC BY-SA

Utiliser une base de données centralisée pour l’authentification induit les mêmes enjeux que l’identification. En revanche, si le gabarit est inscrit au sein d’un support physique, il sera plus aisé d’écarter les risques d’une société de surveillance en redonnant à l’individu le contrôle sur sa biométrie (on parle alors de « biométrie à la main de l’usager »).

Légiférer pour mieux protéger les libertés

Au vu des risques de surveillance que fait peser cette technologie, il semble nécessaire de ne pas éroder nos libertés. Si le rapport du Sénat se veut force de propositions en la matière, il est parfois ambigu. En effet, il propose d’interdire « l’utilisation de la reconnaissance biométrique à distance en temps réel dans l’espace public », tout en posant directement des exceptions à ce principe (proposition 22).

Par ailleurs, dans un souci de préservation des libertés, il aurait pu préciser, voire imposer, l’authentification biométrique à la main de l’usager, lorsqu’il évoque l’utilisation de l’authentification biométrique à des fins de fluidification des flux de certains évènements (proposition 16).

Enfin, une interdiction de l’utilisation de la reconnaissance faciale dans l’espace public, comme à San Francisco, permettrait d’amoindrir les risques d’une société de surveillance. Le rapport du Sénat propose à plusieurs reprises des expérimentations (propositions 7, 14 et 22). Or, les expérimentations ont tendance à se généraliser. Tel fut le cas de PARAFE : il s’agissait à l’origine d’une expérimentation visant le passage rapide aux frontières extérieures par reconnaissance automatisée des empreintes digitales. Ce système a par la suite été pérennisé et s’est vu doter de nouvelles capacités d’authentification par reconnaissance faciale. Ces expérimentations, motivées par des arguments de praticité (fluidifier les accès et améliorer l’« expérience utilisateur »), entraînent des risques d’accoutumance et qui ne sont pas sans risque pour les libertés. Une légère facilité du quotidien permise par cette technologie vaut-elle le prix de nos libertés fondamentales (droit à la vie privée, liberté d’aller et venir anonymement, etc.) ?The Conversation

Elia Verdon, Doctorante en droit public et en informatique, CERCCLE (EA 7436) et LaBRI (UMR 5800), Université de Bordeaux

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Le VPN, un incontournable pour les TPE/PME

vpn

Par Nicolas Fournil, expert cybersécurité chez ÉHO.LINK

Ces dernières années, l’importance du numérique dans nos vies professionnelles a considérablement augmenté l’échanges de données confidentielles. Une des premières étapes visant à protéger ces échanges sur Internet pour les entreprises est apparu avec les technologies VPN. Ce système permet de créer, via les réseaux de télécommunication publics, un lien direct, sécurisé et chiffré entre des équipements informatiques distants. Comment les offres VPN peuvent-elles s’adapter aux nouveaux enjeux, tels que la souveraineté numérique et le respect de la vie privée ?

Répondre à la réalité terrain des TPE/PME

Aujourd’hui, utiliser un VPN n’est pas si facile. Cela requiert soit des compétences techniques, soit des solutions spécialisées. Cependant, les TPE/PME n’ont pas les moyens d’intégrer des ressources compétentes en cybersécurité. Elles recherchent un service nécessitant peu de configuration et facilement adaptable à leurs besoins (télétravail, missions ponctuelles à distance…).

Le marché des TPE/PME représente en France près de 600 000 entreprises de 2 à 20 salariés [INSEE - 2019].  Une réponse concrète doit donc leur être apportée pour leur permettre de travailler dans un environnement de confiance via des VPN de nouvelle génération. Il s’agit d’un enjeu majeur de compétitivité et économique pour les entreprises françaises.

Repenser le VPN traditionnel

Travailler et communiquer de partout, à tout moment, depuis n’importe quel équipement informatique est devenu très rapidement un usage universel et plébiscité par tous. Ces nouveaux usages nécessitent de sécuriser, contrôler et protéger les échanges et les accès numériques à distance, tout en protégeant les ressources internes d’une entreprise ou d’un domicile, par exemple.

Pourtant, cette mouvance a révélé les limites de sécurité des VPN existants et a souligné une incompatibilité manifeste entre le fonctionnement propre d’un VPN et du Cloud. Les cybercriminels exploitent, de plus en plus, ces failles pour accéder aux ressources réseau interne des entreprises [The Cyberwire, Widespread Exchange exploitation. Chinese threat actor exploited SolarWinds vulnerability. Surveillance camera breach]. La configuration et la maintenance du VPN sont indispensables afin qu’il puisse remplir son rôle d’étanchéité face aux menaces informatiques. Comme ces actions ne sont pas systématiques, les technologies VPN sont compromises et font partie des 5 grands vecteurs d’infection des systèmes informatiques. Malgré une optimisation constante des solutions, les VPN actuels atteignent leurs limites. Ils ne sont pas dimensionnés pour faire face aux quantités massives de données échangées. Cela entraîne des ralentissements conséquents, impactant la qualité des conditions de travail. De plus, les offres qui sont aujourd’hui sur le marché sont pour la grande majorité d’origine extra-européenne. Par conséquent, elles ne sont pas soumises aux politiques et aux normes européennes qui existent pourtant pour protéger l’utilisateur. Toute personne sensible à la question de la confidentialité des données devrait pouvoir choisir une solution qui respecte la vie privée et la souveraineté numérique.

Opter pour des VPN de nouvelle génération

Désormais, l’objectif est de concevoir un réseau, avec le plus haut niveau de sécurité, permettant de mettre en relation deux équipements informatiques, sans intermédiaire pour une confidentialité absolue. La qualité et la stabilité des échanges dépendraient de leur propre débit Internet. Les méthodes MFA seraient requises pour autoriser l’accès au service. La connexion s’établirait grâce à un VPN qui leur serait exclusivement dédié pendant leur temps de communication, les protégeant de toute surface d’attaque. Cette approche révolutionnerait les normes actuelles lors des communications sur Internet. Aucune gestion informatique impliquant des ressources humaines avec des compétences IT serait nécessaire. Les TPE/PME seraient alors parfaitement autonomes pour établir leurs propres connexions en toute sécurité, sans aucune configuration technique. Au-delà de la sécurité promise par un VPN nouvelle génération, c’est par sa simplicité d’usage qu’il devra se distinguer. C’est sur ce point que l’impact social se ressentira puisque les personnes pourront communiquer en toute sécurité, sans complexité. Les conditions de travail seront alors nettement améliorées.

En plus de répondre aux besoins des télétravailleurs, tels que le travail collaboratif à distance, un VPN de nouvelle génération doit permettre aux entreprises d’atteindre une souveraineté totale sur leurs données. Reprendre le contrôle de données avec des outils entièrement souverains pour les entreprises est la clé pour développer la compétitivité française et européenne à travers le monde.

L’Arabie Saoudite rêve d’avoir le record du plus grand bâtiment jamais construit

the line

D’aucuns y verront la folie des grandeurs du prince héritier d’Arabie Saoudite, le très controversé Mohammed ben Salmane, d’autres une nouvelle étape dans la course au gigantisme. Toujours est-il qu’avec le projet The Line (la ligne) on franchit un nouveau cap dans les constructions humaines.

Après les gratte-ciel qui cherchent à être toujours plus fins (comme à New York) ou toujours plus hauts comme aux Émirats arabes unis (la tour Burj Khalifa et ses 828 mètres de hauteur), le projet saoudien prend le contre-pied… à l’horizontale. Depuis 2017, en effet, MBS rêve de développer des projets de diversification en construisant des infrastructures modernes et écologiques regroupées dans le projet Vision 2030. Avec plusieurs années de retard, il vient de présenter The Line dans le cadre du projet Neom, une ville futuriste d’un coût de 500 milliards de dollars située au Nord-Ouest de l’Arabie saoudite, à proximité de la Jordanie, de l’Égypte et d’Israël.

Une ville de 170 km de long

« En tant que président du conseil d’administration de Neom, je vous présente The Line, une ville pouvant accueillir un million d’habitants, de 170 km de long et qui préservera 95 % des zones naturelles », a affirmé MBS à la télévision. Dans cette ville futuriste « zéro voiture, zéro route et zéro émission de carbone », MBS veut construire non pas une longue ligne de bâtiments à file unique reliés par un train à grande vitesse, mais deux gratte-ciel parallèles de 500 mètres de haut qui s’étendront donc sur des dizaines de kilomètres, entre mer Rouge et intérieur des terres le long d’une coulée verte. Pour les futurs habitants, tous les services essentiels seraient à cinq minutes et le plus long trajet intra-urbain ne dépasserait pas 20 minutes. Reste qu’un tel projet laisse les spécialistes sceptiques.

Les experts sceptiques

« Personne ne déménagera dans une ville avec un bon réseau d’égouts mais pas d’emplois. Historiquement, les infrastructures suivent le marché, et non l’inverse », estime Alain Bertaud, chercheur principal au Marron Institute of Urban Management de NYU. De fait les villes nouvelles qui ont été pérennes ont souvent été des capitales de pays comme Brasilia au Brésil, conçue par Oscar Niemeyer ou Washington DC aux Etats-Unis, imaginée par l’ingénieur français Pierre Charles L’Enfant.

The Line verra-t-elle vraiment le jour ? Selon des sources internes à Neom et interrogées par Bloomberg, des architectes ont été chargés de plancher sur des prototypes de bâtiments de près de 800 mètres de long. Le projet s’est attaché la collaboration de Thom Mayne, de l’agence Morphosis, qui a reçu le prix Pritzker (le Nobel d’architecture) en 2005. Les premiers habitants pourraient s’installer sur The Line en 2024.


Grande déconnexion d’Internet sur fond de conflit : une crainte irrationnelle

 

internet

Par Sami Slim, Directeur Général de Telehouse France

Au début du conflit en Ukraine, de nombreuses analyses ont tiré la sonnette d’alarme sur le risque d’une coupure Internet à grande échelle provoquée par un potentiel acte malveillant. Pourtant, Internet est architecturé sans aucune centralisation, ce qui lui donne une résilience intrinsèque et difficilement remise en cause. Tenter de couper ce réseau de réseaux ne fait pas sens et s’avère techniquement irréaliste.

Début mars 2022, le conflit en Ukraine, alors naissant, a éveillé la crainte d’une coupure Internet majeure, notamment parce qu’il y aurait un risque de sabotage de câbles sous-marins transatlantiques pour déconnecter les continents américain et européen. Une telle crainte ne se justifie pas compte tenu du fonctionnement même d’Internet et de ses ressorts de résilience.

La résilience intrinsèque d’Internet

Réseau de réseaux où circulent les flux d’informations, Internet repose sur un maillage mondial qui offrira toujours une voie de passage aux données, en particulier grâce au protocole Border Gateway Protocol. Ce protocole BGP automatise les calculs de route optimale pour le trafic Internet et l’aiguille selon les chemins actifs les plus proches. Entièrement automatisé, BGP n’est aux mains de personne et met à jour en 20 à 30 minutes tout au plus un nouvel itinéraire du trafic en cas de perturbation.

Autre force d’Internet : sa décentralisation. Si l’on revient à la dorsale d’Internet entre Amérique et Europe, les autoroutes sont jalonnées de plusieurs hubs de connectivité. En Europe, Paris, Marseille, Francfort, Londres, en particulier, relaient le trafic via des hubs de connexion reliés par de nombreuses routes terrestres, téléphoniques ou satellitaires. Il est irréaliste d’imaginer que les infrastructures de tous ces relais de connectivité « tombent » au même moment. Et BGP trouvera toujours une route alternative.

La preuve : en Ukraine où plusieurs grandes villes ont subi des destructions massives, Internet a tenu, et ce n’est pas le fait du seul réseau satellitaire Starlink proposé en renfort. Ce pays dispose d’une grande diversité d’opérateurs qui se partagent le marché, d’une très bonne distribution des flux d’informations notamment terrestre et mobile et de sept datacenters de connectivité sur lesquels BGP s’appuie pour aiguiller le trafic. La situation ukrainienne depuis le début du conflit démontre que la résilience d’Internet est bien plus solide qu’on ne l’imagine.

Sabotage des câbles sous-marins : aussi peu d’intérêt que de probabilité

Les liens Internet transatlantiques contribuant au bon fonctionnement de l’Internet mondial, les câbles sous-marins alimentent de nombreuses craintes d’actes de sabotage potentiels. Or, cette théorie n’a pas vraiment de fondement et ce à plusieurs titres. Tout d’abord, ces infrastructures desservent l’Internet utilisé par les populations, mais certainement pas par les armées qui ont recours à d’autres types de réseaux, notamment satellitaires. Les câbles transatlantiques n’offrent donc aucun intérêt militaire dans le cadre d’un conflit.

De plus, couper ces câbles déployés par plusieurs centaines sur des superficies gigantesques relève d’une tâche pharaonique qui nécessiterait des moyens en mer tout aussi démesurés. Sans compter qu’une telle opération est impossible à mener rapidement et discrètement et ferait immédiatement l’objet d’une réaction. Ce n’est tout simplement pas réaliste.

Si l’on imagine que seuls quelques câbles parmi les plus stratégiques sont coupés, BGP trouvera toujours une autre route pour acheminer les flux d’informations entre continents.

Même en imaginant l’improbable scénario du pire dans lequel un acteur malveillant parvient à les neutraliser tous, Internet ne tombe toujours pas, ni en Europe, ni sur le continent américain : dans un tel cas de figure, certes le trafic et interrompu entre les deux continents, mais certainement pas localement grâce à tout le maillage d’infrastructures de connectivité. Les utilisateurs auront sans doute accès à moins de contenus, moins rapidement mais les connexions et les échanges d’informations se poursuivront.

Déconnecter un pays d’Internet à titre de sanction : un autre scénario sans pertinence

Autre scénario appréhendé : celui d’un pays comme la Russie entièrement déconnecté de l’Internet mondial au titre d’une sanction telle l’exclusion du système Swift d’échange d’informations bancaires. Ce type de coupure n’offre là encore aucun intérêt, et s’avère sans commune mesure avec l’exclusion de Swift. En effet, contrairement à Swift qui est un système applicatif, Internet constitue un flux d’informations. Déconnecter un pays de l’Internet mondial revient à perturber artificiellement le protocole BGP (qui s’en sortira toujours), mais surtout, se priver de précieuses autoroutes Internet, notamment entre l’Europe et l’Asie dans le cas de figure évoqué.

Ainsi, Internet n’a décidément aucune caractéristique d’arme de guerre, mais offre toutes les garanties contre le risque d’une grande déconnexion.  

Banques : la gestion de l’identité numérique, un atout de taille face à la concurrence

 

identite

Par Jim Close, regional vice president of enterprise chez Kofax

A l’heure où l’Union Européenne ambitionne de rendre accessible d’ici octobre 2022 l’identité numérique européenne à chaque citoyen, résident et entreprise de l’UE, les acteurs du secteur bancaire peinent encore à adopter le dispositif en question. Malgré des efforts en matière de transformation digitale, de nombreuses banques consacrent encore un budget trop important à la maintenance de systèmes obsolètes et complexes, au dépend des technologies modernes et innovantes (comme l’identité numérique) dont elles ont besoin pour faire face à la concurrence actuelle.

Qu'il s'agisse d’améliorer l’expérience client, ou d’adopter les normes de conformité ou de sécurité, la gestion de l’identité numérique représente un enjeu majeur pour le secteur bancaire qui doit faire face à l’arrivée sur le marché de nouveaux arrivants, tels que les Fintech. Toutefois, il est bon de souligner que si la réaction doit être rapide, elle ne doit pas se faire dans la précipitation afin de générer des résultats tangibles et pérennes.

Faire preuve de méthodologie afin de bien gérer l’identité numérique

Le secteur bancaire est bien évidemment un secteur où l’identité des clients doit être minutieusement contrôlée afin de se conformer à la règlementation et d’éviter toute fraude ou usurpation d’identité. La gestion de l’identité numérique répond particulièrement bien à cette nécessité.

Pour rester dans la course, les banques doivent se doter d’outils numérique appropriés qu’elles ont tendance à adopter dans la précipitation, sans passer par une analyse complète de l’ensemble des processus manuels, susceptibles d’être remplacés. Les étapes particulièrement fastidieuses de vérification de l’identité (noms, adresses…) qui doivent être maintenues pour des raisons légales peuvent par exemple générer un certain nombre d’erreurs et augmenter les coûts de traitement et représentent donc des enjeux financiers importants.

Outre les problèmes rencontrés en interne, le risque est grand que certains clients abandonnent la procédure d’ouverture de compte, car découragés par la quantité de document qui doit être fournie afin de se plier aux contrôles d’identité.

En revanche, grâce à la mise en place de solutions technologiques de bout en bout, les banques peuvent tirer profit du principal atout qu’offre la gestion de l’identité numérique. De ce point de vue, l’automatisation des processus, et en particulier la collecte automatique de données et de documents, offre des gains de temps considérables qui simplifient les procédures administratives.

Quelles sont les bonnes pratiques à adopter afin qu’un tel projet soit rapidement mis en place et puisse encore répondre aux exigences de l’entreprise dans deux, cinq, voire dix ans ?

L'automatisation intelligente : un gage de réussite

Malheureusement, la vérification de l’identité s’appuie sur des processus de traitement des documents longs et fastidieux. Ces processus papier ou électroniques impliquent l’utilisation de données qui doivent être vérifiées soit par le biais d’un lien vidéo ou en personne.

Pour le client cela représente un inconvénient majeur, tandis que du point de vue des institutions financières, ces processus garantissent le respect de la réglementation, protègent contre la fraude et réduisent le risque de devoir payer de fortes amendes. Néanmoins, des difficultés persistent quant à la maîtrise de l’ensemble du processus de contrôle d’identité.

La bonne nouvelle est que certains y parviennent en partie, grâce à la montée en puissance du développement métier, des plateformes cloud, de l'automatisation intelligente, et au recours régulier à l'intelligence artificielle (IA) dans le traitement de données critiques.

La mise en place d’une identité numérique consiste principalement à gérer des flux de gros volumes de contenu. L’automatisation de nombreux processus, en particulier lorsque de multiples systèmes rentrent en ligne de compte, ne peut être que bénéfique et augmente même certains indicateurs de performance tels que le Net Promoter Score (NPS). Elle permet également d’offrir des expériences client plaisantes, elle facilite le travail des équipes de contrôle dont l’activité est principalement manuelle et répétitive, elle réduit les coûts de non-conformité, et elle facilite tout simplement la vie de l’ensemble des collaborateurs.

L’identité numérique doit pouvoir tout d’abord s’appuyer sur une technologie conforme à la norme européenne eIDAS. D’autre part, elle repose sur des fonctions clés telles que la capture cognitive, la reconnaissance optique de caractères (OCR) et l’IA afin de pouvoir extraire les données des papiers d’identité et faciliter les processus. L’automatisation intelligente permet, quant à elle, d’exploiter le lecteur du NFC des appareils mobiles et de lire le composant électronique de certains papiers d’identité. Enfin, l’identité numérique permet de de contrôler les données personnelles afin de lutter contre l’usurpation d’identité et répond aux exigences des banques en matière de lutte contre le blanchiment d’argent et de normes KYC (« Know Your Customer »).

Lorsque ces technologies sont mises en place, des résultats concrets peuvent être obtenus en peu de temps. Mieux encore, une plateforme d’automatisation intelligente fournit les fonctionnalités supplémentaires qui permettent aux banques de continuer à obtenir des résultats en fonction de l’évolution de leurs besoins. En d’autres termes, les organisations qui en bénéficient protègent et évitent de devoir régulièrement renouveler leurs investissements.

Même si certains investissements doivent être maintenus, le secteur bancaire doit se moderniser davantage, en faisant appel à de nouvelles technologies, afin de se prémunir contre une concurrence de plus en plus rude. Bien-sûr il faut éviter toute précipitation qui pourrait avoir comme conséquence de devoir remettre tout à plat dans un futur proche. L’approche la plus pertinente consiste à prolonger les efforts déjà effectués tout en maintenant les processus existants, et d’y intégrer de multiples technologies afin d’en tirer pleinement parti.

La durabilité et le métavers : 5 considérations pour préparer le prochain changement de paradigme technologique

metavders

Par Joshua Parker, directeur senior de la durabilité de l’entreprise et directeur juridique adjoint chez Western Digital

L’inquiétude autour du réchauffement climatique a placé le développement durable en tête des priorités des stratégies des entreprises. Ces dernières ont été contraintes de réfléchir à la bonne manière de mener leurs activités, en ayant l’impact le plus faible possible pour le climat. Et l’idée de faire passer le travail physique, la vie réelle et le jeu vidéo dans le métavers est des plus palpitantes. Reste que ce processus va forcément créer une demande significative en matière de stockage de données qui se traduira par davantage de produits et de déchets électroniques. Comment les entreprises peuvent-elles se préparer pour le métavers sans contribuer à un développement accru de déchets électroniques  

Définir des objectifs autour du climat

Il n’a jamais été aussi essentiel de se doter d’une culture d’entreprise basée sur la confiance et la transparence qui donne un coup de pouce aux progrès en matière de durabilité. Et les volumes considérables de stockage nécessaires pour mettre en œuvre le métavers risquent de saper les objectifs de durabilité, étant donné la croissance rapide requise. Une consommation élevée d’énergies non renouvelables, la production de déchets et les émissions de CO2 constituent des obstacles à part entière à une réalité virtuelle ou augmentée durable. 

Résultat, il est préférable pour les entreprises de souscrire à des initiatives et accords durables qui rendent l’ensemble de leurs activités responsables. La SBTi (Science Based Targets Initiative) en est un bon exemple : il s’agit d’une alliance entre des CDP à but non lucratif, le Global Compact des Nations Unies, l’Institut des ressources mondiales (WRI) et le Fonds mondial pour la nature (WWF). Les membres participant à cette initiative se sont engagés à lutter contre le changement climatique en droite ligne avec les dernières conclusions scientifiques. Les entreprises désireuses de réduire leurs émissions peuvent ainsi se fixer des objectifs en la matière, approuvés par l’alliance SBTi.

Repenser les sites physiques

Participer au métavers peut ainsi impliquer la génération de volumes de données massifs, ce qui soulève la question de leur stockage. Si de gros volumes de données peuvent entraîner la construction de davantage de datacenters énergivores, des datacenters plus locaux pourraient déplacer leurs données dans le cloud, minimisant dès lors le nombre d’implantations physiques. 

En outre, ces dernières années ont vu de grandes avancées du côté de l’énergie solaire, qui est passée du statut de technologie d’avant-garde à celui de solution financièrement avantageuse pour les entreprises. En investissant dans des installations solaires, elles peuvent générer leur propre électricité sur site en exploitant une source d’énergie renouvelable. Cela leur permet de solliciter nettement moins le réseau électrique classique et de réduire leur empreinte carbone.

Revoir les produits et leur processus de fabrication

Nombre d’entreprises se dotent de systèmes d’évaluation du cycle de vie de leurs produits afin de déterminer l’impact global pour l’environnement de leurs processus de production, mais aussi de l’utilisation effective de leurs produits et ce jusqu’à leur fin de vie. L’objectif est de suivre un produit de bout en bout (sa production, sa distribution, puis son utilisation et sa fin de vie) dans une démarche de transparence totale et de responsabilisation.

Chaque étape du cycle de vie d’un produit (extraction de minerais dans la nature, fabrication, phase d’utilisation et ce qu’il advient une fois que le produit n’est plus utilisé) peut avoir un impact sur l’environnement d’une façon unique. Progressivement, l’industrie du stockage a évolué du disque local traditionnel jusqu’au cloud. 

A l’heure où les entreprises passent en masse au cloud, l’industrie des datacenters trouve là une opportunité de se soucier davantage des questions climatiques. Le Cloud est synonyme de coûts au gigaoctet inférieurs avec une meilleure redondance des données, soit de bonnes raisons en faveur d’une expansion du cloud. Tandis que les entreprises œuvrent pour innover et agir de manière plus responsable, des audits de l’impact du cycle de vie des produits peuvent être utiles pour toute stratégie cherchant à trouver le bon équilibre entre durabilité et avantages technologiques du cloud. 

Créer une économie circulaire

Malheureusement, de grandes quantités de déchets électroniques finissent dans des décharges, contaminant par répercussion le sol et les nappes phréatiques, ce qui constitue un immense problème pour l’approvisionnement en eau et l’alimentation humaine. La question de la mise au rebut des produits peut être résolue via la mise en place de programmes de recyclage ou en permettant aux consommateurs de recycler leurs anciens produits dans le cadre de programmes de reprise. Le fait d’aider le public à recycler ses produits de stockage obsolètes est, pour les entreprises, un moyen de limiter les risques induits par la manipulation de matériaux ou composants dangereux, et ainsi de créer une relation de confiance plus forte avec leur clientèle.

Sensibiliser et demander des comptes à son réseau de fournisseurs

Les audits annuels contrôlant la durabilité donnent une chance de gagner en transparence au sujet des progrès faits par votre entreprise en matière de durabilité, ce qui implique d’être en mesure de rendre des comptes (par rapport à ce qui peut être mesuré). Face à la complexité et à l’importance des chaînes d’approvisionnement modernes, une stratégie de durabilité focalisée uniquement sur les activités internes risque de passer à côté de retombées majeures en amont. D’où le caractère critique de l’engagement des fournisseurs sur les questions de durabilité dans le cadre d’un programme idoine. Proposer des programmes d’e-learning qui forment aux bonnes pratiques durables, en collaboration avec des organisations telles que la Responsible Business Alliance, pour n’en citer qu’une, et prendre part à des initiatives communes en la matière, aura pour effet de renforcer les liens et de maximiser les progrès faits en matière de développement durable.

Penser à demain

Les liens entre le stockage de données, les déchets électroniques et les émissions vont continuer d’impacter le marché puisque les gendarmes de la réglementation s’intéressent de plus en plus à l’empreinte environnementale des activités professionnelles. Les entreprises américaines se trouvent pour leur part à un point d’inflexion, devant être soucieuses de la façon dont elles mènent leurs activités, faute de quoi elles subiront de violents retours de manivelle, et ce dans la durée. 

A l’heure où les entreprises se demandent comment travailler dans un monde réclamant toujours plus de données, de capacités de stockage et générant toujours plus de déchets, il faut absolument faire de la durabilité une priorité de la prochaine révolution technologique. Si le métavers est virtuel, ses impacts environnementaux seront bien réels, eux, si nous ne réussissons pas à réduire notre empreinte collective.

 

Législatives : Alexa, est-ce que tu vas voter ? 


Alors que se profile un taux d’abstention historique pour les élections législatives, l’enjeu de la participation est plus que jamais capital. Pour inciter les Français à se rendre aux urnes (seuls 38 % déclarent suivre beaucoup ou assez la campagne selon un sondage BVA paru hier), des initiatives privées se mettent en place.

Après une première collaboration en amont de l’élection présidentielle, l’association A Voté ; une ONG française, indépendante et apartisane qui a œuvré à faire inscrire sur les listes électorales les quelque 7 millions de Français qui ne l’étaient pas, et le géant du cybercommerce Amazon ont dévoilé hier une nouvelle expérience en faveur de la participation aux élections législatives, à découvrir avec Alexa, l’assistant vocal d’Amazon.

Sensibiliser et mobiliser les citoyens

En disant à son enceinte connectée disposant d’Alexa, « Alexa, est-ce que tu vas voter ? », les utilisateurs peuvent découvrir les informations nécessaires afin de se préparer : dates des scrutins, modalités pour effectuer une procuration, possibilité de demander à Alexa de créer des rappels pour ne pas oublier de voter et de recevoir une notification sur son smartphone avec un lien pour accéder à toutes les informations pratiques.

« Cette collaboration entre A Voté et Alexa est une formidable opportunité pour sensibiliser et mobiliser les citoyens. Ce partenariat est une étape de plus qui montre que la démocratie est l’affaire de tous. Alexa ne vote pas, mais elle ramène la démocratie directement à la maison, au plus proche des Français », estiment les co-présidents de l’ONG A Voté, Flore Blondel-Goupil et Dorian Dreuil.

Depuis le début de l’année 2022, les équipes locales de bénévoles d’A Voté continuent à organiser des actions sur le terrain pour engager la conversation sur l’inscription électorale et le vote (tractage, porte-à-porte, événements de sensibilisation…), notamment auprès des jeunes.

Plus d’informations sur le site www.a-vote.ong