Il y a fort à parier que l’année 2022 sera le théâtre de nouvelles tendances propres au marché des caméras de surveillance. Bonnes ou mauvaises, elles auront comme socle principal une technologie largement plébiscitée dans l’industrie, à savoir l’intelligence artificielle.
L’intelligence artificielle au centre de l’attention
C’est l’attraction de ces prochains mois voire des prochaines années, l’intégration de l’intelligence artificielle au sein des caméras de surveillance implique non seulement des enjeux de conception inédits mais aussi des enjeux commerciaux énormes pour les acteurs de l’industrie. Il est difficile de savoir si la demande de caméras de surveillance augmentera de façon significative cette année, mais il est certain que leur usage et leur polyvalence peuvent intéresser de nombreux autres secteurs qui n’avaient pas éprouvé d’intérêt pour ce marché jusqu’ici.
C’est en effet l’un des points les plus excitants à retenir de l’arrivée de l’intelligence artificielle, les constructeurs pourront grandement diversifier leur clientèle et espérer sortir d’une logique de niche, jusqu’ici inhérente au marché des caméras de surveillance. La combinaison d'images de très bonne qualité et la capacité à analyser les données, parfois en temps réel, grâce aux techniques de deep learning, permet aux caméras d'être viables dans de nouveaux domaines ; de l'automatisation de certains processus dans l'industrie à l'approvisionnement des rayons dans les supermarchés, en passant par la surveillance de la sécurité et de la santé des clients dans les magasins en cette période de pandémie. Sans oublier le secteur du divertissement où de nombreux stades et salles de concerts, pour ne citer qu’eux, utilisent ces nouvelles caméras de surveillance à l’occasion de grands évènements.
Des critères d’attractivité qui changent
Jusqu’ici nous observions une forte tendance à tirer les prix vers le bas. Si cela permettait l’acquisition de caméras de surveillance en grands volumes à moindre prix, la commercialisation de caméras embarquant de l’intelligence artificielle conduira davantage à une stabilisation des prix. Un contexte inédit qu’il est possible d’attribuer à la qualité de la dernière génération de caméras de surveillance qui offrent bien plus de capacités que les précédentes. Disposant d’une technologie plus avancée, la valeur de ces nouvelles caméras ne peut qu’augmenter et avec elle leur prix. Un constat qu’il faut également corréler à l’augmentation des coûts des matériaux ainsi que des coûts au sein de la chaîne d’approvisionnement. Le prix ne sera donc plus nécessairement le critère d’attractivité principal de la demande même si certains industriels auront la volonté de ne pas les augmenter excessivement pour rester au contact de leurs concurrents.
Au-delà du prix, les questions relatives à la qualité des produits et notamment à leur sécurité vont rapidement devenir centrales. On le sait, l’implémentation de l’intelligence artificielle ouvre la porte aux cyberattaques dont le nombre et la complexité ne cessent de s’aggraver. Ces menaces sont à prendre au sérieux tant les conséquences peuvent être désastreuses pour une entreprise et son activité. Le marché des caméras de surveillance est particulièrement attentif à ces enjeux du fait des nombreuses missions, parfois sensibles, que les caméras assurent chaque jour au sein de divers contextes.
Si la sécurité est un enjeu majeur des constructeurs, la fiabilité de leurs produits est tout aussi importante et à plus forte raison avec des caméras dotées d’une intelligence artificielle. En effet, la réduction de l’intervention humaine dans de nombreuses tâches implique un niveau de fiabilité très élevé des technologies présentes au sein des caméras. Un besoin d’autant plus pressant dès lors qu’elles sont utilisées dans le cadre d’une alerte attentat ou de la surveillance de grands évènements par exemple. Une très bonne réactivité est ici essentielle pour intervenir à temps voire éviter une situation grave. De nouvelles exigences que les constructeurs doivent donc prendre en compte pour rentrer pleinement dans une nouvelle ère, celle de l’industrie 4.0.
Les cyberattaques provenant de Russie sont l'une des composantes clés de la guerre en Ukraine. En représailles aux sanctions économiques internationales qui la frappent, la Russie lancerait des attaques informatiques pour paralyser certaines infrastructures ou entreprises occidentales.
Le président Joe Biden a d'ailleurs appelé lundi les entreprises américaines à se protéger d'éventuelles attaques informatiques menées par la Russie. "Mon gouvernement réitère ces mises en garde en se fondant sur des données en constante évolution des services de renseignement selon lesquelles l'Etat russe envisage différentes pistes de cyberattaques potentielles", a écrit le président dans un communiqué diffusé par la Maison Blanche.
Cyberattaques : en France, l'alerte du CERT et de l'ANSSI
"Depuis le 23 février 2022, soit la veille du déclenchement de l’opération militaire russe en Ukraine, des cyberattaques assez diverses ont été constatées : des attaques par déni de service distribué (DDoS) qui auraient notamment visé les sites des institutions gouvernementales mais également des banques ukrainiennes. Des groupes hackvitistes, dont certains répondant à l’appel du gouvernement ukrainien, ont également conduit des attaques par déni de service distribué à l’encontre de cibles russes ;des défigurations de sites internet en Ukraine, en Russie et en Biélorussie ; des tentatives d’intrusion sur les messageries électroniques avec du hameçonnage ciblé d’institutions ou des forces armées ukrainiennes ont également été rapportées ; des cyberattaques avec des codes malveillants de sabotage (wiper) ont été identifiées", a expliqué le Centre gouvernemental de veille, d’alerte et de réponse aux attaques informatiques (CERT-FR) en France.
"Étant donné le contexte actuel et alors que les vulnérabilités sont exploitées de manière de plus en plus rapide par les attaquants, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) recommande en parallèle de renforcer les activités de traitement des vulnérabilités (veille, identification, application des mesures de correction) afin d’assurer le meilleur niveau possible de sécurisation des systèmes" précisait le CERT-FR dans sa note du 15 mars.
"Dans le contexte actuel, l’utilisation de certains outils numériques, notamment les outils de la société Kaspersky, peut être questionnée du fait de leur lien avec la Russie. À ce stade, aucun élément objectif ne justifie de faire évoluer l’évaluation du niveau de qualité des produits et services fournis. Des précautions élémentaires doivent cependant être prises", indiquait le CERT-FR, tandis que l'ANSSI a mis en ligne un document "Comment réagir en cas d’incident".
Le Conseil national du numérique lance un observatoire
Dans ce contexte, après un mois de conflit, le Conseil national du numérique a lancé ce mardi 22 mars un observatoire ouvert sur le conflit russo-ukrainien.
"La guerre en Ukraine est dans tous les esprits. Tout notre soutien va aux populations. Dans ces circonstances terribles, le numérique semble jouer une nouvelle fois un rôle important. Le Conseil national du numérique rassemblera, de manière ouverte et sur le long cours, les éléments qui nous permettront de mieux comprendre la manière dont le numérique transforme nos interactions dans des contextes de crises majeures – notamment dans les conflits armés", écrivent les deux co-présidents de cette instance, Gilles Babinet et Françoise Mercadal-Delassales.
L’enjeu pour le CNnum est "de saisir ce phénomène dans une perspective d’analyse, de problématisation, de mise en débats, mais également de mémoire et d’archivage. Cette démarche s’installera progressivement. Les citoyens et organisations intéressés peuvent apporter leur soutien méthodologique et technique ainsi que leurs contributions en écrivant à l’adresse suivante : ukraine@cnnumerique.fr".
Parmi les sujets couverts par cet observatoire, le CNnum cite "l’implication des plateformes numériques dans le conflit (outil de mobilisation, blocages des contenus, interruptions de service), la place prise par l’information et la désinformation dans la construction des récits collectifs, le rôle des monnaies numériques dans les conflits (rapport aux sanctions, financement de l’effort de guerre ou valeur refuge pour les particuliers), les nouvelles formes de mobilisations permises par le numérique et les dimensions cyber du conflit."
Le temps de parole des candidats est toujours l’occasion de polémiques. Les règles fixées par l’Arcom (ex-CSA) sont pourtant claires : avant le 7 mars, les éditeurs veillent à ce que les candidats déclarés ou présumés et leurs soutiens bénéficient d’une présentation et d’un accès équitables à l’antenne ; après le 7 mars et la publication de la liste de candidats par le Conseil constitutionnel, les éditeurs veillent à ce que les candidats et leurs soutiens bénéficient d’une présentation et d’un accès équitables à l’antenne dans des conditions de programmation comparables. « Le principe d’équité doit être respecté sur l’ensemble de cette période à la fois pour le temps de parole et pour le temps d’antenne », explique l’Arcom. Enfin une 3e période de stricte égalité commencera au moment de la campagne officielle.
Mais les téléspectateurs ont parfois le sentiment que le principe d’équité n’est pas respecté, que certains candidats sont plus exposés que d’autres. L’Arcom propose bien sur son site internet de consulter les relevés des temps de parole et d’antenne par chaîne, mais les données sont peu aisées à consulter et comparer.
Temps de parole et thématiques
D’où l’idée de Pluralisme, une société du groupe Lexbase, de créer Elections-Tracker.fr. Depuis plus de 30 ans, Pluralisme fournit aux principales chaînes de télévision et radio un logiciel qui leur permet de déclarer leurs temps de parole à l’Arcom et à l’Arcom de contrôler ces temps. Avec un nouveau site gratuit Elections-Tracker, Pluralisme propose une version grand public plus claire et plus accessible, qui offre au citoyen une visibilité et une transparence sur les temps de parole mais également sur les thématiques et les extraits de discours des candidats à l’élection présidentielle, en temps réel. Le site est donc un bon complément pour décrypter l’élection.
Pluralisme s’appuie sur la start-up spécialisée en intelligence artificielle Magic Lemp, qui récupère en temps réel les flux vidéo des prises de parole des seuls candidats (débat, discours, interview dans l’un des 15 médias suivis). Plusieurs algorithmes sont appliqués sur ces vidéos pour identifier l’intervenant (reconnaissance faciale, reconnaissance vocale et la reconnaissance labiale) puis pour retranscrire au mieux en texte l’intervention orale, et enfin identifier les thématiques abordées dans chaque intervention. On voit ainsi que Valérie Pécresse a beaucoup parlé d’économie, Jean-Luc Mélenchon et Emmanuel Macron d’international.
À moins d’un mois du premier tour de l’élection présidentielle, le sujet des cyberattaques est abordé par les candidats alors qu’une des composantes de la guerre en Ukraine se joue aussi dans l’espace numérique avec des cyberattaques provenant de la Russie comme réponses aux sanctions internationales.
Macron propose une "stratégie cyber massive"
Jeudi après-midi lors de la présentation de son programme, Emmanuel Macron a ainsi abordé la question de la sécurité numérique en évoquant les « crises que nous ne prévoyons pas encore, les attaques cyber ». Pour le président-candidat, le cyber participe « des nouveaux types de conflictualité », des « conflits hybrides » pour lesquels l’Armée a défini une stratégie. Au niveau civil, cela impose d’avoir « une stratégie cyber massive, avec des filtres anti-arnaques, des numéros 24 heures sur 24, un recrutement de 1 500 cyber-patrouilleurs. »
S’il a ainsi détaillé ces aspects, c’est que le président-candidat garde en mémoire les Macronleaks, ce piratage de son équipe de campagne qui avait conduit à la fuite de 20 000 e-mails à deux jours du second tour de 2017.
Depuis, le gouvernement a pris le sujet très au sérieux en amont de la présidentielle. En septembre, le Premier ministre a réuni tous ses ministres en marge du Forum international de la cybersécurité de Lille (Fic) ; l’Anssi (Agence nationale de la sécurité des systèmes d’information) a réuni les responsables cybersécurité des états-majors de campagne des candidats pour leur prodiguer ses recommandations ; et un service de vigilance et de protection contre les ingérences numériques étrangères (Viginum) a été créé le 15 octobre. Le Secrétariat général de la défense et de la sécurité nationale (SGDSN) a réuni à cette époque tous les partis représentés au Parlement pour les sensibiliser aux questions de cybersécurité.
Le scrutin moins visé que les candidats
Le scrutin en lui-même ne semble pas menacé directement par des cyberattaques car il reste très peu numérisé : on compte seulement 66 communes équipées de machines à voter électroniques et les résultats du vote remontent vers le ministère de l’Intérierur via des réseaux sécurisés. En revanche les partis politiques, les équipes des candidats constituent des cibles.
En mars dernier le rapport « Les Lumières à l’ère du Numérique » de la commission Bronner estimait urgent qu’un budget consacré au numérique soit fortement conseillé pour les équipes électorales et qu’il y ait de la formation. Dans leur rapport « Présidentielle 2022 et cybersécurité : agir maintenant » paru en juillet 2021, France Digitale et le cabinet Wavestone préconisaient même de sortir les dépenses de cybersécurité des comptes de campagne.
Intrusions, vol de données, prises de contrôle du site de campagne, paralysie des systèmes, désinformation… Les menaces sont multiples pour les candidats d’autant plus que les cyberattaques ne sont pas très complexes et reposent bien souvent sur un manque de culture numérique, des erreurs humaines comme l’ouverture d’un e-mail piégé.
Entreprises et collectivités ciblées
Pour l’heure, aucune cyberattaque n’a été recensée dans la campagne présidentielle, mais cela ne signifie pas pour autant que rien n’a été tenté. « Un scandale survenu à deux jours de l’élection peut trouver son origine dans une cyberattaque portée six mois plus tôt. Car le succès d’une campagne de désinformation dépend aussi de son timing », indiquait le rapport.
La vigilance est d’autant plus de mise qu’au-delà du contexte électoral, la France apparaît comme l’un des pays les plus attaqués. Une récente étude Proofpoint a ainsi révélé que la France a le taux le plus élevé d’attaques par rançongiciel, comme celle qui a récemment ciblé l’ENAC à Toulouse. 81 % des entreprises françaises y ont été confrontées.
Ce type d’attaque concerne aussi les collectivités. « Quelles que soient leur taille et leur notoriété, les collectivités représentent des cibles comme les autres pour les cybercriminels. Une quarantaine de collectivités publiques sont attaquées par semaine, selon Guillaume Poupard, directeur général de l’Anssi. Notre pays mérite un plan d’innovation et d’investissement pour des territoires plus durables et connectés », estime l’Avicca, une association qui fédère 232 collectivités et qui vient d’interpeller les candidats à la présidentielle.
Dans le contexte de la guerre en Ukraine, l’Anssi a ainsi activé dès le 23 février 5 mesures cyber-préventives prioritaires. Dans son « Panorama de la menace informatique 2021 » publié le 9 mars, le Centre gouvernemental de veille, d’alerte et de réponse aux attaques informatiques (Cert-FR) a estimé que « les élections législatives et présidentielles de 2022 ainsi que la tenue de la coupe du monde rugby en 2023 et des Jeux olympiques en France en 2024 seront autant d’évènements que les attaquants chercheront à exploiter » et a appelé à « une vigilance particulière de l’ensemble des parties prenantes. »
(Article publié dans La Dépêche du Midi du 19 mars 2022)
Au cœur des télécommunications mondiales, les câbles sous-marins font transiter les flux de données d’un continent à l’autre. Toutefois, ils sont bien plus que de simples moyens de diffusion des données et font aujourd’hui l’objet de manœuvres d’influence à l’échelle mondiale. L’enjeu pour les pays : préserver leur souveraineté numérique et économique. À cette fin, le datacenter de connectivité se positionne comme l’autre infrastructure stratégique.
Les câbles sous-marins, un actif sous-estimé
Si les câbles sous-marins attirent autant de convoitises, c’est en premier lieu parce qu’ils sont l’une des clés de voûte de l’économie mondiale. En effet, plus de 95 pourcents des télécommunications mondiales passent par le câble, dont 97 pourcents du trafic Internet mondial. Sous les eaux, ce sont plus de 470 câbles sous-marins qui relient les continents et voient transiter plusieurs milliards de dollars de transactions financières quotidiennes. Sans eux, l’économie numérique et les richesses qu’elle génère s’effondrent.
Dès lors, contrôler les câbles sous-marins revient à avoir la main sur des liaisons intercontinentales au cœur de l’économie. À une telle position de puissance, les pays peuvent asseoir une totale souveraineté numérique, contrôler les données privées et publiques en transit, avec la certitude de ne dépendre d’aucune autre puissance. Outre l’assise économique et technologique qu’ils favorisent, les câbles sont également un outil pour le renseignement par exemple. D’où des jeux de pouvoir à l’échelle mondiale pour convoiter les câbles sous-marins devenus aussi stratégiques que gazoducs et oléoducs.
Attirer les câbles sur le territoire, un enjeu stratégique
Dans un contexte où les câbles sous-marins sont un levier de souveraineté numérique et économique, une compétition se joue entre pays pour les capter et accueillir leurs stations d’atterrissement. Ce qui implique de disposer d’arguments pour convaincre les acteurs privés en charge du business du câble — les entreprises qui fabriquent, posent, détiennent les câbles et en sont les opérateurs.
Or, dans un maillage mondial d’infrastructures Internet, les câbles sous-marins ont besoin du relais des infrastructures terrestres : les datacenters de connectivité et d’hébergement, cruciaux pour exploiter les flux de données acheminés entre continents. Aussi, plus un territoire compte de datacenters et de hubs de connectivité, plus il représente une destination stratégique pour les câbles sous-marins et les entreprises qui les gèrent. Le datacenter constitue donc l’autre infrastructure de données stratégique que les pays doivent privilégier pour attirer les câbles et garder la main sur leur souveraineté numérique.
La France et ses datacenters, une destination de choix pour le câble
Dans la compétition numérique à l’échelle mondiale, la France est plutôt bien lotie en infrastructures, avec sur son sol deux hubs majeurs de l’internet mondial : Paris et Marseille respectivement 4e et 7e villes les plus connectées au monde — ce dont profite aussi l’Europe. En effet, la France compte treize stations d’atterrissement sur son territoire côtier où arrive plus d’une vingtaine de câbles sous-marins.
Le pays peut ainsi connecter ses réseaux filaires nationaux à ces câbles stratégiques et ce, parce qu’il bénéficie aussi d’un maillage dense de datacenters. Parmi eux figurent des datacenters de connectivité majeurs, regroupant des communautés numériques de plusieurs milliers de membres, et assurant des connexions de quelques millisecondes vers toutes les destinations du monde. Grâce à de telles infrastructures, les entreprises dans l’Hexagone ne dépendent pas d’acteurs de connectivité d’un pays étranger pour se connecter entre elles et à l’international — un atout en termes de souveraineté numérique et économique.
Par William Gerlach, Directeur France chez iBanFirst
L'économie française va mieux. Le rattrapage post-Covid est le plus rapide des grands pays européens. Elle a créé 650 000 emplois l'an dernier. Il y a 300 000 emplois supplémentaires dans le secteur privé qu'avant la crise Covid, par exemple. Mais il y a encore des points de fragilité. Le plus évident est le déficit commercial. Il a bondi à 84,7 milliards d'euros l'an dernier – soit un point haut depuis cinquante ans. Le recul des parts de marché de la France à l'international concerne quasiment tous les produits, à l'exception des boissons, des cuirs et peaux (grâce au luxe). Le problème, c'est que cela ne représente que 4 % de nos exportations. Les raisons du déclin français sont bien connues : un rapport qualité/prix moyen (nous fabriquons une qualité à l'espagnole avec la prétention de vendre au niveau des prix allemands), un coût du travail qui peut être un facteur aggravant dans certains secteurs, des grandes entreprises qui continuent de délocaliser à l'étranger et des freins psychologiques bien ancrés qui empêchent les PME françaises de tenter l'aventure internationale.
Le modèle japonais
Au cours des dernières années, de nombreuses mesures ont été prises pour tenter de résorber le déficit commercial. La baisse des impôts de production de 20 milliards d'euros a été un signal politique important mais avec des effets concrets limités. L'accompagnement a été renforcé aussi. Un dispositif centré autour de Team France Export, créé en 2018, et mobilisant les PME, les chambres de commerces, les régions, Business France et BpiFrance, a été déployé. L'objectif était de créer un guichet unique pour aider les entreprises. Les premiers résultats sont positifs. Mais c'est insuffisant pour rattraper notre retard.
Il faut aller plus loin. A l'occasion du remaniement de 1984, Edith Cresson, jusqu'alors ministre du commerce extérieur, s'était vu confier également la tutelle du ministère de l'industrie, rebaptisé redéploiement industriel. A l'époque, on avait évoqué la création d'un MITI à la française, en référence à l'administration japonaise qui a permis les succès à l'exportion de l'industrie nippone à partir de 1949. L'expérience française fut courte et mitigée.
Le MITI, désormais appelé METI (pour Ministère de l'Economie, du Commerce et de l'Industrie), a été pendant des décennies un élément central du système économique japonais. Il a conduit la politique industrielle de l'archipel, en parfait accord avec le patronat, permettant d'abord aux grandes entreprises mais aussi aux PME de réussir leur développement à l'international. Le METI a su s'adapter. Il était au centre de toutes les décisions lorsque l'économie était dirigiste. Son rôle est tout aussi important de nos jours, mais plus discret. Il s'est recentré sur l'accompagnement logistique et financier aux PME et surtout l'intelligence économique afin de conquérir de nouveaux marchés. C'est le rôle dévolu du JETRO, l'organisation japonaise du commerce extérieur qui est adossée au METI. Cela va plus loin que la veille concurrentielle que font toutes les entreprises. Le champ d'application est vaste. Cela implique de coordonner des actions de lobbying auprès des décideurs dans les marchés cibles pour influer sur la réglementation, d'anticiper l'émergence de nouveaux concurrents et de protéger la propriété intellectuelle de l'entreprise, par exemple. C'est justement une des lacunes du dispositif français actuel.
L'intelligence économique est indispensable
En France, il existe suffisamment de mécanismes financiers pour aider les PME à s'internationaliser et leur faire passer le cap difficile des deux ou trois ans pendant lesquelles elles vont dépenser beaucoup d'argent avant d'avoir un retour sur investissement suffisant. Il n'y a pas de solution clef en main pour surmonter la barrière socio-culturelle (aversion au risque, maîtrise limitée de l'anglais etc.), en revanche. Cela prendra du temps. Il faudra probablement attendre qu'une nouvelle génération d'entrepreneurs arrive. On commence à le voir dans le secteur des start-ups. Aider les entreprises à s'internationaliser implique aussi des les accompagner dans leurs démarches d'intelligence économique. Ce n'est pas un sujet nouveau.
Le rapport Martre de 1994 offrait un premier cadre de réflexion. Malheureusement, l'intelligence économique a toujours eu du mal à trouver sa place dans la pensée économique et industrielle française. Le Japon, que nous avons évoqué, mais aussi plus près de nous l'Allemagne et la Suède ont développé depuis longtemps des systèmes d'intelligence économique qui leur ont permis d'accroître leurs parts de marché à l'étranger et de préserver leurs emplois sur le marché national. A marche forcée, les grandes entreprises françaises ont été sensibilisées à cette thématique (souvent parce qu'elles ont été victimes d'intelligence économique de la part de puissances étrangères).
En revanche, nos PME et nos start-ups innovantes ne se sentent pas concernées et, quand elles le sont, elles n'ont pas les moyens financiers et techniques pour agir. C'est à l'Etat de pallier cette défaillance. C'est une nécessité à l'ère de l'économie numérique où tout va plus vite et l'accès aux données et à l'information est source de pouvoir et de richesse. Si nous continuons de négliger ce levier, ne soyons pas surpris de voir nos parts de marché continuer à décroître.
Par par David Chassan, Directeur de la Stratégie de 3DS OUTSCALE
Le Cloud est plus que jamais le socle technologique de référence qui dessine le futur : natif, multiple et responsable. Une projection nécessaire pour tout dirigeant ou décideur IT qui bâtit l'avenir de son organisation dans un environnement incertain, exigeant agilité et sécurité.
Le mouvement est lancé
En 2021, l'effervescence autour du Cloud a gagné la sphère politique française, avec des initiatives comme la doctrine du Cloud au Centre, portée par la Ministre de la Transformation et de la Fonction publiques, Amélie de Montchalin, mais aussi par la stratégie d'accélération Cloud présentée par le Secrétaire d'État chargé de la Transition numérique et des Communications électroniques, Cédric O, en novembre 2021. Toutes deux engagent une forme de soutien officiel aux acteurs du secteur, en encourageant les organismes publics à se saisir du potentiel du Cloud, afin de développer une nouvelle génération de services numériques performante et de confiance, développée par des acteurs français et européens.
La grande majorité des DSI déclarent aujourd'hui avoir atteint les priorités que leur avait fixées leur direction générale dans le Cloud1. Cette technologie a donc tenu ses promesses, mais ne compte pas pour autant s'arrêter en si bon chemin. Demain, partout dans le monde, les dirigeants donneront à leur décideur IT de nouveaux objectifs autour cette fois de l'expérience immersive des utilisateurs, de meilleures connaissances des modèles commerciaux et des usages, favorisant alors l'innovation et la croissance. Le Cloud devient alors le facilitateur en tant que socle technologique.
Le Cloud sera plébiscité et omniprésent pour de nouvelles formes d'applications
En 2025, le Cloud ne sera plus en compétition avec le Legacy car les projets se déploieront nativement dans le Cloud pour une grande majorité des organisations. On le constate déjà et ce mouvement va clairement s'accélérer dans les prochaines années. Ainsi, le Cloud ne sera plus une technologie à adopter, mais parfaitement intégrée. Les futurs business models que les entreprises développeront seront basés sur le Cloud. Cette technologie deviendra, dès lors, le moteur de l'innovation commerciale et organisationnelle, et non plus seulement celui de la transformation digitale.
En ce qui concerne le développement des applications, les méthodes agiles et DevOps seront toujours la norme en remettant en question toute nouvelle solution monolithique. La tendance amorcée du “low code” se poursuivra certainement vers de l'assemblage et de l'intégration de composants, plutôt qu'à du développement d'applications ex-nihilo. Cela laisse entrevoir de nouvelles formes de marketplaces, bien différentes de celles connues à présent. Les utilisateurs et décideurs pourront assembler des composants interconnectables entre eux tout en maîtrisant la localisation de leur exécution.
Vers l'avènement du Cloud distribué et du multicloud maîtrisé par de nouvelles organisations
Dans quelques années, 50 % des charges de travail seront exécutées sur le Cloud, que ce soit dans le cloud public, sur site ou à la périphérie (soit environ 2 fois plus qu'en 2020). Ces modèles d'usage ont déjà fait leurs preuves en matière d'innovation à l'échelle et de rapidité. Les fournisseurs de services Cloud ont créé des écosystèmes en proposant des solutions sur toute la chaîne de valeur. Et nous pouvons nous attendre à ce qu'ils étendent leur architecture centralisée à ce jour en proposant des solutions de Cloud distribué.
En adoptant une stratégie de cloud distribué, les décideurs informatiques remédient aux lacunes du cloud privé et s'alignent sur les besoins et exigences de gouvernance.
Également, le multicloud deviendra intentionnel et non plus utilisé par opportunité ou contrainte. Cette stratégie sera construite dans le cadre d'une réelle stratégie de la part des organisations en recherchant des services Cloud permettant l'interopérabilité entre leurs services tout en répondant à aux conformités et réglementations locales par des Cloud régionaux.
Enfin, l'organisation même des directions informatiques se verra désilotée. Le mouvement DevOps qui s'installe progressivement dans les entreprises illustre déjà cette tendance. Dans ce cadre, de nouveaux types d'équipes vont se mettre en place : celles dites « plate-forme » seront dévolues aux technologies mises en œuvre, de type Kubernetes ; d'autres, dites « de fusion », seront multidisciplinaires, engageant des experts business et techniques, qui deviendront les nouveaux interlocuteurs des acteurs du Cloud.
Le Cloud comme facilitateur de l'éco-responsabilité
Les régulateurs, comme l'ARCEP, tout comme les clients ou encore plus largement les employés et les investisseurs exigeront des engagements forts en matière de durabilité auprès des entreprises et organisations publiques. Même si le Cloud est par définition plus éco-responsable que les centres de données privés ou l'usage de serveurs internes, il ne s'agira pas d'avoir des messages pour un effet "greenwashing".
2025 marquera une étape majeure vers une neutralité carbone comme le soulignent les engagements pris par les centres de données, opérateurs et associations professionnelles, signataires du Climate Neutral Data Centre Pact2 en faveur du Green Deal européen.
Tout comme la sécurité, le développement durable est une démarche partagée par l'ensemble des acteurs de la chaîne de valeur. L'engagement sera commun à la fois de la part du fournisseur de services, et à la fois par le client dans l'usage du Cloud. Le Cloud apparaît alors comme le levier technologique facilitant les engagements durables.
En 2025, le Cloud constituera le fondement de l'innovation et de la croissance des entreprises car il démocratisera les capacités informatiques et les technologies de nouvelle génération. Les organisations bénéficieront d'un riche écosystème d'outils et de solutions interconnectables. Les décideurs auront la possibilité de différencier leurs services et d'élaborer et de valoriser de nouveaux modèles économiques. Le Cloud sera la pièce maîtresse des nouvelles expériences numériques responsables.
1: Source “Gartner 2020 Cloud End User Behavior study”
L’espace cyber est traditionnellement conçu comme pouvant se diviser en trois couches principales : la couche physique (câbles, serveurs, ordinateurs, etc.) ; la couche logique (données numériques et moyens de transmission afférents comprenant les applications, les protocoles, les interfaces et les applications) ; et la couche sémantique constituée des utilisateurs, de leurs échanges y compris en temps réel, ce qui englobe les contenus circulant sur les réseaux sociaux. Ces trois couches peuvent toutes être l’objet d’attaques.
L’Ukraine a subi depuis 2014 de nombreuses cyberattaques visant ces différentes couches. Ces attaques avaient participé à une prise de conscience internationale quant à l’utilisation massive du cyber qui pouvait être faite dans les conflits modernes. En effet, si on se souvient des attaques de 2015 et 2016 qui ont visé des centrales électriques, le conflit avait également permis de mettre au jour des tentatives d’attaque lors de diverses consultations électorales, ainsi que de pratiques d’influence, notamment avec la découverte de l’usine à trolls russes d’Olguino.
Par ailleurs, les opérations cyber peuvent s’appuyer sur la guerre électronique pour devenir particulièrement dévastatrices. En effet, si le volet électronique s’attaquera aux ondes du signal électromagnétique permettant la transmission de la donnée (ce qui intègre le WIFI et la 5G), le volet cyber et informatique visera la donnée elle-même - de différentes manières selon la couche visée.
Concernant la guerre en cours, les soupçons pesant sur l’utilisation faite par le Kremlin de hackers prétendument indépendants, notamment les groupes APT 28 et 29. Les réformes de l’armée russes menées en 2004 et 2008 laissaient craindre une utilisation massive de cyberattaques de toute nature, visant autant les systèmes que les couches sémantiques, afin d’obtenir l'immobilisation de l’Ukraine, mais aussi la cybercoercition des États la soutenant. Le lancement d’une ou de plusieurs attaques cyber montrant que l’attaquant est en mesure d’infliger de très lourdes pertes serait en mesure de dissuader l’État ou l’entité attaquée d’agir comme elle le prévoyait initialement : c'est ce que l'on appelle une action de cybercoercition.
Alors que l’Ukraine fait face simultanément à ces attaques et à une agression militaire de grande ampleur, le président Zelensky a lancé un appel au volontariat pour lever une cyberarmée qui réunirait, selon les estimations, près de 260 000 personnes. Les Anonymous ont annoncé qu'ils entraient dans le conflit aux côtés de l’Ukraine pour contrecarrer les attaques menées dans le domaine cyber. La guerre qui enflamme le cyber outrepasse désormais largement l’Ukraine et la Fédération de Russie.
Les trois couches du cyber attaquées ?
Si les bombardements peuvent impacter les couches physiques du cyber, une crainte se fait jour dans les états-majors occidentaux : la possibilité que la Russie, dans un mouvement maximaliste, n’envisage de couper les câbles sous-marins par lesquels transitent près de 99 % de l’Internet et qui permettent de réaliser environ 10 000 milliards de dollars US de transactions quotidiennes.
Ce type d’opération pourrait être perçu comme un acte de guerre et emporterait de lourdes conséquences pour tous. Néanmoins, le nombre de navires battant pavillon russe (qu'ils soient militaires ou supposément civils) suivant précisément les câbles rend cette hypothèse tangible. Si couper des câbles engendrerait un black-out, une autre option serait, à l’aide de sous-marins (comme en possèdent la Chine, la Russie et les États-Unis) de s’y greffer pour intercepter, ou modifier, les données qui y transitent. Cette option serait extrêmement délicate à mener à bien, notamment d’un point de vue technique.
La possibilité d’altération des couches physiques du cyber est une des raisons qui ont poussé Elon Musk à ouvrir à l’Ukraine l’accès à Starlink, lui donnant accès à son réseau satellitaire, lequel est certes attaquable, mais de manière plus complexe.
En outre, de nombreuses attaques ont été observées visant les couches logique et sémantique. Ces attaques outrepassent largement les frontières de la géographie physique du conflit.
Concernant la couche logique, on a noté une explosion des attaques cyber subies par l’Ukraine dès le début du conflit, voire quelques heures avant qu’il ne démarre. Ainsi, la société de cybersécurité Wordfence, qui gère la sécurité de 8 320 sites WordPress comprenant ceux d’universités, du gouvernement et des organes judiciaires en Ukraine, a déclaré quelque 144 000 attaques pour la seule journée du 25 février.
Après HermeticWiper, HermeticWizard et WhisperGate, Kaspersky décrit début mars 2022 le composant de chiffrement de données HermeticRansom comme un « écran de fumée ». Pour la société de cybersécurité, il s’agit d’une attaque ciblée empêchant d’utiliser les données et agissant comme un « écran de fumée » permettant de nouvelles attaques. En outre, la simplicité du code, les erreurs de grammaire et d’orthographe présentes dans la demande de rançon sembleraient indiquer une opération de dernière minute, qui a pu être déployée pour renforcer l’effet d’autres cyberattaques conduites simultanément. Enfin, il apparaît que des rançongiciels supposés… ne permettaient pas de verser de rançons et étaient en réalité des malewares effaceurs de données visant à altérer profondément les structures attaquées.
En matière sémantique et informationnelle, on a pu observer une large vague de désinformation. Celle-ci a fait l’objet d’une réaction de plusieurs plates-formes, qui ont mis à jour des opérations de désinformation de grande ampleur. Nathaniel Gleicher, responsable de la sécurité chez Meta, déclarait ainsi avoir :
« bloqué le partage de leurs domaines sur notre plate-forme et partagé ces informations avec d’autres plates-formes technologiques, des chercheurs et des gouvernements. Ce réseau a utilisé de faux comptes et exploité des personnes et des marques fictives sur Internet – y compris sur Facebook, Instagram, Twitter, YouTube, Telegram, Odnoklassniki et VK – pour paraître plus authentique dans une tentative apparente de résister à l’examen minutieux des plates-formes et des chercheurs. »
En parallèle, des opérations de phishing ont été utilisées pour cibler des personnes, notamment des membres de structures gouvernementales, souhaitant venir en aide aux réfugiés ukrainiens. Dans ce cas, une adresse mail militaire ukrainienne compromise a été utilisée pour hameçonner des personnes, y compris des employés de l’UE impliqués dans la gestion de la logistique mise en œuvre pour porter assistance aux réfugiés fuyant l’Ukraine. À ce jour, les recherches sur cette attaque semblent montrer des correspondances avec le modus opérandi du groupe TA445 (alias UNC1151 ou Ghostwriter) soupçonné d’être lié au gouvernement de la Biélorussie.
Le 28 février, ce sera au tour du Threat Analysis Group de Google (TAG) de mettre au jour une opération d’influence liée à la Biélorussie, à la Moldavie et à l’Ukraine. Ce sont quatre chaînes YouTube, deux comptes AdSense – utilisés pour générer des revenus en affichant des publicités – et un blog qui ont été bloqués, car en lien avec ce réseau de désinformation. De même, six domaines ont été ajoutés à une liste visant à les empêcher d’apparaître sur Google News et Discover.
Les réponses ukrainiennes et pro-ukrainiennes
Dans ce contexte, le gouvernement ukrainien a demandé à Oracle et SAP, le 2 mars dernier, par la plume de son vice-premier ministre et ministre de la Transformation numérique, Mykhailo Fedorov, de mettre fin à leurs relations commerciales avec les entités liées à la Russie.
Le même jour, symbole de la mobilisation des hackers pour l’Ukraine, le groupe cybercriminel Conti, qui avait annoncé se mettre en mouvement contre les entités bellicistes hostiles à la Russie, connaissait un nouveau leak.
Un premier leak, qui avait eu lieu le 27 février et portait la mention « Gloire à l’Ukraine », avait fait fuiter des données de Conti à VX-Underground, un groupe de recherche spécialisé dans les logiciels malveillants. L’ensemble de données divulgué contient quelque 400 fichiers contenant des dizaines de milliers de journaux de discussion internes du groupe Conti en russe, y compris sur la messagerie Jabber depuis janvier 2021.
Le 2 mars dernier, un second leak touchait Conti, venant cette fois d’un chercheur ukrainien. Ce sont 393 fichiers JSON contenant plus de 60 000 messages internes et des messages extraits du serveur de chat XMPP privé du gang de rançongiciels Conti et Ryuk qui ont alors été divulgués. Ces données couvrent la période du 21 janvier 2021 au 27 février 2022, et comprennent les adresses bitcoin utilisées, le détail de l’organisation commerciale du groupe, ainsi que la manière dont ils échappent aux forces de l’ordre et mènent leurs attaques.
Au-delà, plusieurs plates-formes et applications ont décidé de ne pas coopérer avec la Russie, quitte à être exclues du marché, comme Netflix, qui refuse de se soumettre à la loi russe exigeant que des plateformes de vidéos dépassant le seuil des 100 000 abonnés en Russie de diffusent une vingtaine de chaînes russes. D’autres ont modifié leur interface pour permettre de fluidifier le versement de fonds à l’Ukraine. C'est le cas d'Airbnb, qui propose la mise à disposition de 100 000 logements temporaires pour les réfugiés ukrainiens.
L'implication des cryptomonnaies
Enfin, le monde des cryptomonnaies a également été engagé au travers de nombreuses escroqueries aux dons cryptographiques utilisant de vastes campagnes de phising à travers des e-mails semblant provenir des domaines npr.org voire du Bureau des Nations unies pour la coordination de l’aide humanitaire (OCHA). Ces escroqueries ont d’autant mieux marché que le gouvernement ukrainien à réalisé le tout premier effort de financement participatif crypto à grande échelle, levant au moment où ses lignes sont écrites quelque 37 millions de dollars en Bitcoins (BTC), Ether (ETH), Tether (USDT) et d’autres altcoins.
C’est dans ces circonstances que le 27 février, Mikhailo Fedorov demandait aux sociétés de cryptomonnaies de bloquer les adresses des utilisateurs russes, particulièrement de ceux liés à des personnalités politiques. Mais les entreprises ont argué qu’un blocage aveugle pourrait handicaper la population russe et ont préféré se contenter de bloquer les adresses liées à des personnes faisant l’objet de sanctions de la part des pays occidentaux.
Le conflit se durcissant malgré les sanctions prises et la désapprobation internationale à l’encontre de l’action russe, il est fort possible que le cyber, terrain d’attaque dépassant déjà les frontières du conflit cinétique, poursuive son expansion, notamment au travers d’actions purement militaires mêlant guerre électronique et cyberattaques.
Les films de science-fiction regorgent de scène où les héros franchissent des portes ou accèdent à des documents en scannant ici leur main, là leur iris. Ces technologies biométriques, ces « Sésame ouvre-toi » modernes, ne sont pourtant pas de la science-fiction. Elles sont entrées dans notre quotidien pour allumer un ordinateur, déverrouiller un smartphone ou payer chez un commerçant. Les capteurs d’empreintes digitales ou la reconnaissance du visage ont été popularisés par les géants du numérique, Microsoft, Apple et ses iPhone ou encore BNP Paribas qui a récemment lancé sa carte bancaire avec lecteur d’empreintes.
Une étude réalisée par Capterra, une plateforme en ligne de comparaison de logiciels professionnels, et publiée ce mois-ci montre d’ailleurs que les Français ont adopté ces technologies. Si 38 % n’en utilisent aucune, 47 % des consommateurs interrogés déclarent utiliser régulièrement la lecture d’empreinte digitale, 29 % le scan du visage (comme pour les derniers iPhone ou les PC avec Windows Hello). De façon plus rare, les Français utilisent le scan de la voix (10 %), de la main (10 %), de l’iris (7 %) ou des veines (2 %).
74 % utilisent ces nouvelles technologies d’identification qui évitent souvent de taper un mot de passe pour déverrouiller un appareil de façon plus sécurisée, 33 % pour des opérations bancaires (comme la confirmation d’un achat réalisé sur un site de cybercommerce) et 28 % pour des contrôles d’identité.
« La pandémie semble avoir eu un petit impact sur l’adoption de la biométrie : l’utilisation de la biométrie par empreinte digitale, qui a été citée comme la technologie la plus utilisée par les consommateurs, était déjà adoptée par 62 % d’entre eux avant la pandémie, alors que seulement 13 % déclarent avoir commencé à l’utiliser après la pandémie », note Capterra.
Les Français sont toutefois inquiets en ce qui concerne le partage de leurs données biométriques. 58 % sont peu voire mal à l’aise avec l’idée de partager leurs données avec des entreprises privées et 47 % ne souhaitent pas partager des données biométriques personnelles impliquant des technologies telles que le scan du visage, les empreintes digitales ou encore la reconnaissance vocale avec des entreprises privées. La mauvaise utilisation des données biométriques (44 %), les violations de données suite à la perte ou le vol de données biométriques (46 %), la possibilité d’usurpation d’identité (43 %) et la réduction de la vie privée (36 %) sont les quatre principaux freins à la généralisation de la biométrie qui seront levés dès lors qu’il y aura suffisamment de garanties.
Selon la dernière étude de l’Alliance pour les chiffres de la presse et des médias (ACPM) publiée en octobre 2021, plus de 96 % des Français lisent chaque mois au moins une marque de presse. Ce chiffre rappelle la place centrale que la presse écrite occupe dans le quotidien des Français. Toutefois, au-delà de cet intérêt non démenti, les comportements de lecture sont devenus plus complexes et erratiques au cours des dernières années dans un contexte de digitalisation croissante.
Pour faire face à une fragmentation des comportements de lecture couplée à une baisse des revenus publicitaires et des ventes au numéro, les acteurs de la presse écrite – en France comme à l’étranger – sont en perpétuelle transformation et à la recherche de modèles économiques soutenables. Ainsi, si quelques rares acteurs ont décidé d’investir a minima Internet (à l’image du Canard enchaîné), d’autres ont décidé de basculer l’ensemble de leur offre en version numérique (tels que France Soir, The Independent au Royaume-Uni, La Presse au Canada, etc.).
Entre ces deux stratégies radicales, la plupart des grands opérateurs historiques sur le marché de la presse écrite – qu’il s’agisse du Figaro, de Libération ou du Monde en France ; du New York Times, du Times ou de Der Spiegel à l’étranger – proposent une multiplicité de contenus (versions print et digital, foisonnement de contenus éditoriaux prenant la forme de vidéos, podcasts, évènements live, etc.) accessibles via de nombreux supports ou devices (ordinateur, mobile, tablette, site, application, etc.).
Mais, dans cet environnement fortement digitalisé où les contenus et les accès se multiplient, comment se comporte le lecteur ? Cet écosystème numérique permet-il, finalement, d’améliorer l’expérience de lecture ? Le lecteur circule-t-il de manière aisée entre ces différentes offres qui lui sont présentées comme complémentaires ? Et dans ce contexte, comment les acteurs de la presse peuvent-ils assurer la fluidité de l’expérience de leurs lecteurs ?
« Effet millefeuille »
Deux articles scientifiques que nous avons publiés récemment, s’appuyant sur des enquêtes réalisées auprès du panel propriétaire de 5 400 lecteurs du journal Le Monde, apportent des éléments de réponses sur la manière dont les lecteurs perçoivent l’écosystème numérique qui leur est proposé. Plus précisément, les modèles actuels invitent les acteurs de la presse à déployer une variété de contenus et d’accès, supposant l’existence d’un effet de synergie c’est-à-dire des bénéfices clairs et distincts associés à chaque contenu et à chaque device qui permet de proposer des offres complémentaires.
Or, les principaux résultats des enquêtes viennent remettre en cause ce principe de complémentarité. Tout d’abord, il n’existe pas d’effet de complémentarité entre l’offre print et l’offre digitale du titre de presse alors que cet effet est régulièrement souligné compte tenu des bénéfices spécifiques de chacune des offres (fonctionnalités et contenus différents). Les études réalisées montrent que les lecteurs « mixtes » (consommant à la fois l’offre print et digitale) ne valorisent pas davantage le journal que les lecteurs « exclusifs » (consommant soit l’offre print, soit l’offre digitale).
Ensuite, pour les lecteurs « mixtes », si la multiplication des supports d’accès (ordinateur fixe ou portable, smartphone, tablette) a renforcé l’attractivité de l’offre digitale, elle a contribué parallèlement à diminuer l’attrait de l’offre print.
Enfin, les lecteurs ne perçoivent pas systématiquement de synergies entre les différents supports proposés pour accéder à l’offre. Plus exactement, un device mobile (smartphone ou tablette) pourra être source de création de valeur pour le lecteur par contraste avec un device non ou faiblement mobile (ordinateurs fixes ou portables) compte tenu de caractéristiques sensiblement différentes (taille, portabilité, ubiquité, etc.).
A contrario, les lecteurs ne perçoivent pas d’intérêt à l’utilisation conjointe de supports aux caractéristiques similaires – tels que le smartphone et la tablette – pour accéder au titre de presse. Ces devices sont perçus comme redondants, générant alors de la complexité et un moindre intérêt pour l’offre. Dans les environnements numériques, c’est ce que certains chercheurs ont appelé « l’effet millefeuille ».
Améliorer la gestion de l’expérience du lecteur
Les résultats obtenus à la suite de ces enquêtes invitent donc les acteurs de la presse écrite à penser leur stratégie en adoptant une vision centrée sur l’expérience du lecteur plutôt que de favoriser des stratégies de démultiplication massive des contenus et des accès.
Dans le contexte de la presse écrite, les résultats obtenus conduisent tout d’abord à rappeler qu’il existe une variété d’expériences que les acteurs du secteur doivent prendre en compte et piloter. En effet, l’émergence d’un écosystème couplant offre print et offre digitale a conduit à accroître l’intérêt porté aux lecteurs mixtes. Il convient toutefois de ne pas ignorer les lecteurs exclusifs (digitaux ou print) qui valorisent très fortement l’expérience centrée sur un seul contenu.
Par exemple, et alors que depuis la crise sanitaire on proclame régulièrement la victoire définitive de la presse numérique, les acteurs de la presse doivent continuer à valoriser les offres print sur leurs zones d’excellence (mise en avant de grandes signatures journalistiques, haute qualité formelle, confort de lecture, importance de l’expérience sensorielle associée au support de lecture), notamment pour les lecteurs qui n’achètent le journal qu’en format papier.
Par ailleurs, le déploiement d’un nouveau device – principalement pour accéder à l’offre digitale – ne doit pas seulement être analysé à la lumière de son potentiel de création de valeur pour les offres digitalisées. Les praticiens doivent également tenir compte de son possible impact négatif sur l’offre print, cette dernière étant alors satellisée dans l’expérience proposée au lecteur qui est devenue principalement digitale.
Enfin, la contribution d’un nouveau device doit être examinée à l’aulne des autres accès déjà mobilisés pour consulter l’offre digitale. Plus particulièrement, l’accumulation de plusieurs devices mobiles (smartphone, tablette) n’apparaît pas être une combinaison pertinente en raison de leur redondance dans les usages. Afin d’offrir une expérience client fluide, les praticiens de la presse écrite doivent veiller à clarifier l’usage de chaque device additionnel, en soulignant ses bénéfices spécifiques au regard de ceux déjà mobilisés par les lecteurs pour accéder à l’offre digitale.
Le navire-espion russe Yantar serait capable de trancher les câbles sous-marins par lesquels transite l’essentiel du réseau Internet européen.
Wikimedia Commons, CC BYPar Serge Besanger, OMNES Education
Dans le contexte de l’invasion de l’Ukraine par la Russie, les fonds marins constituent plus que jamais un terrain d'affrontement qu'il faut maîtriser pour être prêt à se défendre. Les forces armées occidentales envisagent désormais le scénario cauchemardesque d'un black-out total d’Internet en Europe, puisque 99% du réseau mondial passent par les câbles sous-marins.
La création d’un programme européen destiné à accroître les capacités de l'UE en matière 1) de prévention contre les attaques visant ces infrastructures et 2) de réparation des dommages qu'elles pourraient infliger devient plus urgente que jamais.
Les navires russes, « de pêche » ou « océanographiques », et qui sont généralement collecteurs de renseignements, sillonnent de plus en plus les côtes de la France et de l’Irlande par lesquelles passent ces autoroutes de l'information.
On rappellera que le Yantar, navire « océanographique » qui dispose d'un mini-sous-marin de type AS-37, a pu plonger en août 2021 jusqu'à 6 000 mètres de profondeur au large des côtes irlandaises, en suivant la route des câbles Norse et AEConnect-1 qui relient l'Europe aux États-Unis.
La Russie, qui avait coupé les câbles ukrainiens en 2014, aurait donc la capacité de répéter l’opération sur l’ensemble de l’Europe.
Même si l'on a tendance à croire que nos smartphones, ordinateurs et autres machines sont liés les uns aux autres via l’espace, l’essentiel – près de 99 % du trafic total sur Internet – est ainsi assuré par les lignes sous-marines, véritable « colonne vertébrale » des télécommunications mondiales.
On compte plus de 420 cables dans le monde, totalisant 1,3 million de kilomètres, soit plus de trois fois la distance de la Terre à la Lune. Le record : 39 000 kilomètres de long pour le câble SEA-ME-WE 3, qui relie l’Asie du Sud-Est à l’Europe de l’Ouest en passant par la mer Rouge.
Un enjeu vital
On estime que plus de 10 000 milliards de dollars de transactions financières quotidiennes, soit quatre fois le PIB annuel de la France, transitent aujourd’hui par ces « autoroutes du fond des mers ». C’est notamment le cas du principal système d’échanges de la finance mondiale, le SWIFT (Society for Worldwide Interbank Financial Telecommunications), qui vient d'être interdit à de nombreuses banques russes.
La sécurité de ces transactions est une question politique, économique et sociale. C’est un enjeu majeur qui a longtemps été ignoré.
Avec 36 nouveaux câbles, l’année 2020 fut marquée par un nombre record de déploiements.
Or, l’extrême concentration géographique des câbles, notamment au niveau de leur point d’atterrissement (Marseille, Bretagne, Cornouailles…), les rend particulièrement vulnérables.
*D'où l'inquiétude après l'invasion de l'Ukraine initiée par la Russie. *
Une infrastructure très sensible
Ces infrastructures sont aujourd’hui aussi cruciales que les gazoducs et les oléoducs. Mais sont-elles aussi bien protégées ?
Les câbles sous-marins modernes utilisent la fibre optique pour transmettre les données à la vitesse de la lumière. Or, si à proximité immédiate du rivage les câbles sont généralement renforcés, le diamètre moyen d’un câble sous-marin n’est pas signifativement supérieur à celui d’un tuyau d’arrosage :
Les câbles sous-marins, cibles de toutes les convoitises, France 24, 10 juin 2021.
Depuis plusieurs années, les grandes puissances se livrent une « guerre hybride », mi-ouverte mi-secrète, pour le contrôle de ces câbles. Alors que l’Europe se concentre de plus en plus sur les menaces de cybersécurité, l’investissement dans la sécurité et la résilience des infrastructures physiques qui sous-tendent ses communications avec le monde entier ne semble pas aujourd’hui une priorité.
Or, ne pas agir ne fera que rendre ces systèmes plus vulnérables à l’espionnage et aux perturbations qui coupent les flux de données et nuisent à la sécurité du continent.
On recense en moyenne chaque année plus d’une centaine de ruptures de câbles sous-marins, généralement causées par des bateaux de pêche traînant les ancres.
Coupe du câble sous-marin Kanawa reliant la Guyane à la Martinique.Orange
Il est difficile de mesurer les attaques intentionnelles, mais les mouvements de certains navires commencèrent à attirer l’attention dès 2014 : leur route suivait les câbles sous-marins de télécommunication.
Les premières attaques de l’ère moderne datent de 2017 : câbles Grande-Bretagne–USA, puis France–États-Unis, arrachés par les chalutiers d’une grande puissance coutumière de l’emploi de forces irrégulières lors de tensions internationales. Si ces attaques demeurent inconnues du grand public, elles n’en sont pas moins préoccupantes, et démontrent la capacité de puissances extérieures à couper l’Europe du reste du monde. On rappellera qu’en 2007, des pêcheurs vietnamiens ont coupé un câble sous-marin afin d’en récupérer les matériaux composites et de tenter de les revendre. Le Vietnam perdit ainsi près de 90 % de sa connectivité avec le reste du monde pendant une période de trois semaines. Une attaque de ce type est extrêmement facile à réaliser, y compris par des acteurs non étatiques.
Couper des câbles sous-marins, une pratique de guerre ancienne et éprouvée
Les récentes attaques subies par des câbles transportant le trafic voix et données entre l’Amérique du Nord et l’Europe donnent l’impression qu’il s’agit d’un fait nouveau. Or ce n’est pas le cas : la France et le Royaume-Uni ont déjà vécu cette expérience… aux mains des Allemands pendant la Première Guerre mondiale. Ces câbles faisaient partie du réseau mondial de télégraphie par câblogrammes.
De même, les États-Unis ont eux-mêmes coupé des câbles en temps de guerre comme moyen de perturber la capacité d’une puissance ennemie à commander et contrôler ses forces distantes.
Les premières attaques de ce type ont eu lieu en 1898, lors de la guerre hispano-américaine. Cette année-là, dans la baie de Manille (aux Philippines), l’USS Zafiro coupa le câble reliant Manille au continent asiatique afin d’isoler les Philippines du reste du monde, ainsi que le câble allant de Manille à la ville philippine de Capiz. D’autres attaques spectaculaires contre les câbles eurent lieu dans les Caraïbes, plongeant l’Espagne dans le noir quant à l’évolution du conflit à Porto Rico et à Cuba, ce qui contribua largement à la victoire finale des États-Unis.
La coupure du câble de Cienfuegos durant la guerre hispano-américaine, le 11 mai 1898.
Sensible aux exploits, à l’époque très médiatisés, des « valorous seamen », le Congrès attribuera à ces marins 51 des 112 médailles d’honneur décernées au titre de la guerre hispano-américaine.
Les trois grandes causes de risque
De nos jours, trois tendances accélèrent les risques pour la sécurité et la résilience de ces câbles.
La première est le volume croissant des données circulant sur les câbles, ce qui incite les États tiers à espionner ou à perturber le trafic.
La seconde est l’intensité capitalistique croissante de ces installations, qui mènent à la création de consortiums internationaux impliquant jusqu’à des dizaines de propriétaires. Ces propriétaires sont distincts des entités qui fabriquent les composants des câbles et de celles qui posent les câbles le long du fond océanique. La multipropriété permet de baisser les coûts de manière substantielle, mais elle permet en même temps l’entrée dans ces consortiums d’acteurs étatiques qui pourraient utiliser leur influence pour perturber les flux de données, voire les interrompre dans un scénario de conflit.
À l’autre bout du spectre, les GAFAM ont aujourd’hui les capacités financières et techniques de faire construire leurs propres câbles. Ainsi le câble Dunant, qui relie la France aux États-Unis, appartient-il en totalité à Google.
Les géants chinois se sont également lancés dans une stratégie de conquête sous-marine : il en va ainsi du câble Peace, reliant la Chine à Marseille, propriété de la société Hengtong, considérée par le gouvernement chinois comme un modèle d’« intégration civilo-militaire ».
Une autre menace, l’espionnage, nécessite des sous-marins spécialement équipés, ou des submersibles opérant à partir de navires, capables d’intercepter, voire de modifier, les données transitant dans les câbles à fibres optiques sans les endommager. À ce jour, seuls la Chine, la Russie et les États-Unis disposent de tels moyens.
Cyberguerre sous les mers, Géopolitis, 5 mars 2017.
Le point le plus vulnérable des câbles sous-marins est cependant l’endroit où ils atteignent la terre : les stations d’atterrissage. Ainsi, la commune de Lège-Cap-Ferret (33), en bordure du Porge où va être construit le local d’interface entre le câble franco-américain « Amitié », est-elle devenue ces derniers temps un véritable nid d’espions, selon des sources informées.
Mais la tendance la plus préoccupante est que de plus en plus de câblo-opérateurs utilisent des systèmes de gestion à distance pour leurs réseaux câblés. Les propriétaires de câbles les plébiscitent car ils leur permettent de faire des économies sur les coûts de personnel. Cependant, ces systèmes ont une sécurité médiocre, ce qui expose les câbles à des risques de cybersécurité.
Il est nécessaire de développer une force de sécurisation des câbles
Face aux menaces physiques pesant sur les câbles, le Japon et les États-Unis ont récemment lancé une série d’initiatives visant à sécuriser ces infrastructures.
Les programmes de l’Administration maritime américaine promeuvent le développement et le maintien d’une marine marchande « adéquate et suffisante, capable de servir en tant qu’auxiliaire naval et militaire en temps de guerre ou d’urgence nationale », à travers des dotations en fonds propres, CAPEX grants, aux chantiers navals privés construisant notamment des navires capables de réparer les câbles sous-marins.
Les câbliers sont généralement conçus autour de grandes cuves qui stockent la fibre optique puis la mettent en place. Pour une telle opération, ces navires ont besoin de puissance et d’agilité : leurs générateurs produisent jusqu’à 12 mégawatts d’électricité qui alimentent cinq hélices, permettant au bâtiment de se déplacer dans plusieurs dimensions.
Il existe aujourd’hui une quarantaine de câbliers dans le monde. La France en possèderait 9, dont un seul pour la maintenance de tous les câbles de l’Atlantique Nord jusqu’à la mer Baltique : le Pierre de Fermat, basé à Brest.
Ces navires sont capables d’appareiller en moins de 24 heures en cas de dommage détecté sur le câble. À bord, un équipage d’une soixantaine de marins dispose de drones sous-marins et d’autres instruments permettent la réparation. Ainsi le Pierre de Fermat a-t-il pu inspecter et réparer très rapidement le câble transatlantique endommagé par une puissance tierce, en 2017.
Mais qu’adviendrait-il en cas d’attaques multiples ? Ni la France, ni le Royaume-Uni ne disposent aujourd’hui des moyens nécessaires à la défense et à la réparation de ces câbles en cas d’attaques simultanées.
L’exécutif américain s’est récemment penché sur la question. Outre l’extension du SSGP, small shipyard grant program, il a encouragé l’Administration maritime à enrôler diverses associations émanant de la société civile, tel l’International Propeller Club, dans le cadre de programmes visant à minimiser ces menaces. L’idée est de créer une sorte de « milice des câbles sous-marins », capable d’intervenir rapidement en cas de crise. Le Propeller Club compte plus de 6 000 membres et a récemment obtenu une aide de 3,5 milliards de dollars destinée à l’industrie maritime dans le cadre de la lutte contre le Covid-19.
La France est le point d’entrée de la plupart des câbles reliant l’Europe au reste du monde.
Le coût pour les seules finances publiques françaises d’un programme de sécurité des câbles sous-marins serait cependant prohibitif, quand bien même la société civile y serait largement associée, sur le modèle américain.
De même, la création d’un « Airbus des câbles sous-marins » capable de rivaliser avec les GAFAM dont la part de marché pourrait passer de 5 % à 90 % en 6 ans, ne pourra à l’évidence devenir réalité qu’à condition que l’Europe en fasse un thème clé.
Dans un contexte d’accroissement des tensions internationales, la question de la création d’un programme européen modelé sur les programmes américain et japonais, visant à l’augmentation des opérations de dissuasion des attaques de ces infrastructures et au développement d’une capacité de construction et de réparation à la hauteur des enjeux, mérite d’être posée.
Il n’y a pas si longtemps, Barcelone devenait au mois de février l’épicentre de toutes les innovations en matière de télécoms, de mobiles et d’innovations numériques, à l’occasion du Mobile World Congress (MWC 2022).
Après la pandémie de Covid-19 et la situation internationale inquiétante de la guerre en Ukraine, cette édition 2022 du plus important salon du mobile s’est tenue dans une quasi-discrétion, nombre de conférences se faisant en format hybride, mi-présentiel, mi-ditanciel. Pour autant, il a permis de dessiner les grandes quelques grandes tendances dont le boom… des ordinateurs portables. Une surprise pour un salon dédié aux smartphones mais qui s’explique par la généralisation du télétravail depuis la pandémie. Sur ce segment, Samsung fait son grand retour et on a vu apparaître des PC de marque Nokia. Le célèbre fabricant finlandais des Nokia 3310 a octroyé une licence à OFF Global, une entreprise lyonnaise fondée en 2020.
Autre tendance, la puissance et la montée en gamme des fabricants chinois Xiaomi, Oppo, Honor ou Huawei dont les smartphones se rapprochent des modèles star Galaxy S22 et iPhone 13. Si pour en mettre plein les yeux et montrer leur savoir-faire, Xiaomi a présenté un cyberdog, un robot-chien, Oppo, encore peu connu du grand public a présenté d’étonnantes lunettes connectées qui ambitionnent de faire oublier l’échec des Goggle Glass du géant Google lancées en 2013.
Un monocle high-tech
Les Oppo Air Glass consistent en un dispositif de 30 grammes, qui vient se clipser sur l’une des branches de vos lunettes et qui positionne devant l’un des verres un monocle sur lequel des informations vont être projetées. Un peu à la manière de l’affichage tête haute de certaines voitures.
Développé par Oppo, le micro-projecteur Spark doté d’une micro-LED et de 5 lentilles en verre à haute transparence, permet de projeter sur le monocle des informations en 16 ou 256 niveaux de gris. Jumelées avec votre smartphone, ces lunettes high-tech prennent en charge quatre modes d’interaction différents : le toucher, la voix, les mouvements de la main et les gestes de la tête. Devant vos yeux peuvent alors être projetés l’heure, la date, la météo, un trajet GPS, un texte défilant comme sur un prompteur ou une traduction. Le tout en surimpression du champ de vision. Piétons, personnes âges, touristes dans une ville inconnue, cyclistes : les utilisateurs potentiels sont nombreux.
L’autonomie atteint 3 heures en utilisation active et 40 heures en veille.
Les Oppo Air Glass vont être commercialisées en Chine dans un premier temps au prix de 4 999 yuans, soit environ 708 euros.
Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.
On entend souvent dans les discussions sur les métavers des affirmations comme « il ne faudrait pas rater le train ». Il faudrait donc se lancer dans le métavers uniquement parce que d’autres le font ? Et s’ils s’y étaient lancés pour de mauvaises raisons, nous les suivrions aveuglément ? Autre interrogation présente dans beaucoup d’esprits : qu’adviendrait-il de nous si nous ne suivions pas le mouvement ?
Le métavers, c’est l’espoir pour certains que la réalité virtuelle trouve enfin son application phare grand public, que ce qu’elle permet aujourd’hui dans des contextes particuliers devienne possible à grande échelle, dans des contextes plus variés : l’appréhension de situations complexes, l’immersion dans une tâche, l’entrainement sans conséquence sur le monde réel.
C’est l’espoir pour d’autres d’une diversification des interactions sociales en ligne, de leur passage à une plus grande échelle, de leur intégration dans un environnement fédérateur. C’est l’espoir que ces nouvelles interactions permettront de (re)créer du lien avec des personnes aujourd’hui isolées.
C’est aussi l’espoir d’un nouveau web construit aussi par et pour le bénéfice de ses utilisateurs, et non pas seulement celui des plates-formes commerciales.
C’est enfin – et probablement surtout, pour ses promoteurs actuels – l’espoir de l’émergence de nouveaux comportements économiques, l’espoir d’une révolution du commerce en ligne, l’espoir d’importants résultats financiers dans le monde réel.
Qu’allons-nous faire dans ces métavers ?
« La prédiction est très difficile, surtout lorsqu’il s’agit de l’avenir ». A quoi servira le métavers ? Des communautés spirituelles prévoient déjà de s’y rassembler. On peut parier qu’il ne faudra pas longtemps pour que des services pour adultes s’y développent ; on sait bien qu’ « Internet est fait pour le porno ». Au-delà de ces paris sans risque, essayons d’imaginer ce que pourraient permettre les métavers…
Imaginez un centre-ville ou un centre commercial virtuel dont les boutiques vous permettraient d’accéder à des biens et services du monde virtuel et du monde réel.Quelle différence avec les achats en ligne d’aujourd’hui ? Vous pourriez être assistés dans les boutiques du métavers par des personnages virtuels, avatars d’êtres humains ou d’intelligences artificielles. Vous pourriez vous y rendre accompagnés. Dans les boutiques où en passant de l’une à l’autre, il vous serait possible de croiser des personnes de votre connaissance (du monde réel ou virtuel) et interagir avec elles.
Comme certains jeux vidéo actuels, le metavers permettra sans doute la pratique de différents sports, seul ou à plusieurs. De nouveaux sports pourraient être inventés par les utilisateurs du métavers. Le métavers pourrait aussi changer votre expérience de spectateur de compétitions sportives. Pourquoi ne pas vivre le prochain match de votre équipe de football préférée dans le métavers du point de vue de l’avatar de son avant-centre plutôt que depuis les tribunes virtuelles ?
Le métavers pourrait fournir l’occasion et les moyens de reconsidérer la manière dont nous organisons le travail de bureau. En combinant l’organisation spatiale de l’activité permise par le métavers avec des outils que nous utilisons déjà (messageries instantanées, suites bureautiques partagées en ligne, outils de visioconférence, etc.), peut-être pourra-t-on proposer de nouveaux environnements de travail collaboratifs permettant de (re)créer du lien entre des personnes travaillant à distance.
On pourrait voir des usages du métavers se développer dans le domaine de la santé. La réalité virtuelle est déjà utilisée depuis de nombreuses années pour traiter des cas de phobie et de stress post-traumatiques. Ces thérapies reposent sur une exposition graduelle et maîtrisée par un soignant à une représentation numérique de l’objet engendrant la phobie.
Plus de questions que de réponses
Qui pourra réellement y accéder ? Il faudra sans aucun doute une « bonne » connexion réseau et un terminal performant, mais au-delà, les différences entre le métavers et le web n’introduiront-elles pas de nouvelles barrières à l’entrée, ou de nouveaux freins ? Le World Wide Web Consortium (W3C) a établi pour celui-ci des règles pour l’accessibilité des contenus à l’ensemble des utilisateurs, y compris les personnes en situation de handicap (WCAG). Combien de temps faudra-t-il pour que des règles similaires soient définies et appliquées dans le métavers ? Sur le web, il n’y a pas d’emplacement privilégié pour un site, la notion d’emplacement n’ayant pas de sens. Dans un monde virtuel en partie fondé sur une métaphore spatiale, la localisation aura de l’importance. On voit déjà de grandes enseignes se précipiter pour acquérir des espaces dans les proto-métavers, et des individus payant à prix d’or des « habitations » voisines de celles de stars. Qui pourra dans le futur se payer un bon emplacement pour sa boutique virtuelle ?
Le métavers, c’est la combinaison de la réalité virtuelle, des jeux vidéo, des réseaux sociaux et des cryptomonnaies, propices à la spéculation. En termes de risques de comportements addictifs, c’est un cocktail explosif ! L’immersion, la déconnexion du réel, l’envie de ne pas finir sur un échec ou de prolonger sa chance au jeu, la nouveauté permanente, la peur de passer à côté de quelque chose « d’important » pendant qu’on est déconnecté et l’appât du gain risquent fort de générer des comportements toxiques pour les utilisateurs du métavers et pour leur entourage.
En France, l’ANSES – qui étudie depuis plusieurs années l’impact des technologies numériques sur la santé – risque d’avoir du travail. De nouvelles formes de harcèlement ont aussi été signalées dans des métavers, particulièrement violentes du fait de leur caractère immersif et temps réel. En réponse, Meta a récemment mis en place dans Horizon World et Horizon Venues une mesure de protection qui empêche les avatars de s’approcher à moins d’un mètre de distance. D’autres mesures et réglementations devront-elles être mises en place ?
On a vu se développer sur le web et les réseaux sociaux des mécanismes de collecte de données personnelles, de marketing ciblé, de manipulation de contenus, de désinformation, etc.
S’il devient le lieu privilégié de nos activités en ligne et que celles-ci se diversifient, ne risquons-nous pas d’exposer une part encore plus importante de nous-même ? Si ces activités sont de plus en plus sociales, regroupées dans un univers unique et matérialisées (si on peut dire) à travers nos avatars, ne seront-elles pas observables par un plus grand nombre d’acteurs ? Faudra-t-il jongler entre différents avatars pour que nos collègues de travail ne nous reconnaissent pas lors de nos activités nocturnes ? Pourra-t-on se payer différents avatars ? Quel sera l’équivalent des contenus publicitaires aujourd’hui poussés sur le web ? Des modifications significatives et contraignantes de l’environnement virtuel ? « Ce raccourci vers votre groupe d’amis vous permettant d’échapper à un tunnel de panneaux publicitaires vous est proposé par Pizza Mario, la pizza qu’il vous faut » Les technologies chaîne de blocs (blockchain en anglais) permettront-elles au contraire de certifier l’authenticité de messages ou d’expériences et d’empêcher leur altération ?
Lors de la rédaction de ce texte, nous avons souvent hésité entre « le métavers » et « les métavers ». Dans la littérature comme dans la vidéo d’annonce de Facebook/Meta, le concept est présenté comme un objet unique en son genre, mais on imagine assez facilement des scénarios alternatifs, trois au moins, sans compter des formes hybrides. Le premier est celui d’une diversité de métavers sans passerelle entre eux et dont aucun ne s’imposera vraiment parce qu’ils occuperont des marchés différents. C’est la situation du web actuel (Google, Meta, Twitter, Tik Tok et autres sont plus complémentaires que concurrents), qui motive en partie les promoteurs du Web3. Le deuxième scénario est celui d’un métavers dominant largement les autres. Celui-ci semble peu probable à l’échelle planétaire, ne serait-ce qu’à cause de la confrontation USA – Chine (– Europe ?). Le troisième scénario est celui d’une diversité de métavers avec un certain niveau d’interopérabilité technique et existant en bonne harmonie. Il n’est pas certain que ce soit le plus probable : l’interopérabilité est souhaitable mais sera difficile à atteindre. Nous pensons plutôt que c’est le premier scénario qui s’imposera. La diversité, donc le choix entre différents métavers, est une condition nécessaire tant à l’auto-détermination individuelle qu’à la souveraineté collective.
Qui va réguler les métavers ? Dans le monde du numérique, les normes prennent parfois du temps à s’établir et n’évoluent pas nécessairement très vite. Quand il s’agit de normes techniques, ce n’est pas un problème : le protocole HTTP est resté figé à la version 1.1 de 1999 à 2014, et cela n’a pas empêché le développement du web. Quand il s’agit de réguler les usages, les comportements, ce peut être plus problématique. Jusqu’ici, on peut s’en réjouir ou s’en désoler, le secteur du web a été peu régulé. Ceux qui définissent les règles sont souvent les premiers joueurs, qui sont en fait les premiers possédant les moyens de jouer, c’est-à-dire les grands acteurs du web aujourd’hui. Si demain, une partie de nos activités personnelles et professionnelles se déroule dans des métavers créés par eux sur la base d’infrastructures matérielles et logicielles extra-européennes, quels seront le rôle et la pertinence dans ces mondes des états européens ? Si ces mondes sont créés par des collectifs transcontinentaux et autogérés par des individus, la situation sera-t-elle plus favorables à ces états ?
Enfin, mais ce n’est pas le moins important, d’un point de vue beaucoup plus pragmatique et à plus court terme, on peut s’interroger sur la pertinence de se lancer dans le développement de métavers au moment où nous sommes déjà tous confrontés aux conséquences de nos activités sur l’environnement. Le tourisme virtuel aidera peut-être à réduire notre empreinte carbone, mais le coût écologique lié à la mise en œuvre des métavers (réalité virtuelle, réseaux haut débit, chaîne de blocs, etc.) ne sera-t-il pas supérieur aux économies générées ? Le bilan devra bien sûr tenir compte des usages effectifs des métavers, de leur utilité et de leur impact positif sur la société.
Pour conclure
Ni enfer, ni paradis par construction, les métavers présentent des facettes tant positives que négatives, à l’image de beaucoup d’autres innovations technologiques (comme l’intelligence artificielle, par exemple). Nous avons tendance à surestimer l’impact des nouvelles technologies à court terme et à sous-estimer leur impact à long terme, c’est la loi d’Amara. Les métavers tels qu’on nous les décrit seront sans doute difficiles à mettre en œuvre. Rien ne dit que ceux qui essaieront y arriveront, que les environnements produits seront massivement utilisés, qu’ils le resteront dans la durée ou que nous pourrons nous le permettre (pour des raisons environnementales, par exemple). Les choses étant de toute manière lancées et les investissements annoncés se chiffrant en milliards d’euros, on peut au minimum espérer que des choses intéressantes résulteront de ces efforts et que nous saurons leur trouver une utilité.
Alors que faire ? Rester passifs, observer les tentatives de mise en œuvre de métavers par des acteurs extraeuropéens, puis les utiliser tels qu’ils seront peut-être livrés un jour ? S’y opposer dès à présent en considérant que les bénéfices potentiels sont bien inférieurs aux risques ? Nous proposons une voie alternative consistant à développer les réflexions sur ce sujet et à explorer de façon maîtrisée les possibles ouverts par les technologies sous-jacentes, en d’autres termes, à jouer un rôle actif pour tenter de construire des approches vertueuses, quitte à les abandonner – en expliquant publiquement pourquoi – si elles ne répondent pas à nos attentes. Nous sommes persuadés qu’une exploration menée de façon rigoureuse pour évaluer des risques et des bénéfices est nettement préférable à un rejet a priori non étayé.