Technomedia

Numérique · médias · sciences · intelligence artificielle

Microsoft, les cinquante premières années

Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia
Par Frédéric Fréry, ESCP Business School

Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs.


Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars pour un chiffre d’affaires de 245 milliards. Sa valeur en Bourse tutoie les 3 000 milliards de dollars, ce qui en fait la deuxième valorisation boursière au monde, derrière Apple et quasiment à égalité avec NVidia. Ses profits cumulés, depuis 2002, approchent les 640 milliards de dollars.

Pourtant, il y a 50 ans, Microsoft n’était qu’une toute petite entreprise d’informatique fondée à Albuquerque, au Nouveau-Mexique (et non en Californie) par deux anciens étudiants de Harvard, Bill Gates et Paul Allen, âgés respectivement de 19 et 22 ans. Les péripéties qui lui ont permis de devenir une des entreprises les plus puissantes au monde sont multiples, et on peut les rassembler en quatre époques.

Première époque : Bill Gates grimpe sur les épaules d’IBM

À la fin des années 1970, le leader incontesté de l’informatique, IBM, réalise que les micro-ordinateurs proposés par les jeunes entrepreneurs de la Silicon Valley, comme l’Apple II, risquent à terme de faire de l’ombre à ses gros systèmes. Le projet IBM PC est alors lancé. Rapidement, il apparaît que la lourdeur des processus internes de l’entreprise ne lui permettra pas de livrer un micro-ordinateur dans les temps. Il est alors décidé que les différents composants de la machine pourront être sous-traités à des fournisseurs externes.

Pour le système d’exploitation, plusieurs entreprises spécialisées sont sollicitées, mais toutes refusent de travailler avec IBM, qu’elles considèrent comme l’ennemi à abattre, symbole de l’informatique centralisée et bureaucratique. C’est alors que Mary Maxwell Gates, qui siège au conseil d’administration d’une ONG à côté du président d’IBM, suggère le nom de son fils William, surnommé Bill, qui vient de créer Microsoft. Un premier contact est pris en 1980.

Problème, Microsoft n’est pas du tout spécialiste des systèmes d’exploitation, mais du langage de programmation BASIC. Qu’à cela ne tienne : Bill Gates, avec un culot incroyable, accepte de signer avec IBM pour lui livrer un système d’exploitation qu’il n’a pas. Il rachète le système QDOS, de l’entreprise Seattle Computer Products, à partir duquel il développe le MS-DOS (MS pour Microsoft).

Deuxième coup de poker, Bill Gates, dont le père est associé fondateur d’un grand cabinet d’avocats de Seattle, propose à IBM un contrat qui prévoit que l’utilisation de MS-DOS ne sera pas exclusive, ce qui lui donne le droit de le vendre à d’autres entreprises informatiques. IBM, peu habitué à la sous-traitance, ne se méfie pas. Ce contrat fera la fortune de Microsoft et le malheur d’IBM : Compaq, Olivetti ou Hewlett-Packard s’empressent de développer des clones de l’IBM PC, donnant naissance à une véritable industrie.

Portée par ce formidable succès (l’image de sérieux d’IBM séduit les entreprises, et Microsoft touche une redevance sur chaque PC vendu), l’entreprise est introduite en Bourse en 1986. Bill Gates, Paul Allen et deux de leurs premiers employés deviennent milliardaires et 12 000 autres salariés de Microsoft, millionnaires.

Deuxième époque : Windows, la poule aux œufs d’or héritée de Xerox

Au milieu des années 1980, les micro-ordinateurs sont peu ergonomiques : leurs systèmes d’exploitation, dont le MS-DOS de Microsoft, fonctionnent avec des lignes de commande particulièrement rébarbatives (le fameux C :/). Tout change en 1984 avec l’Apple Macintosh, équipé d’une interface graphique (icônes, menus déroulants, souris, polices de caractères, etc.). Cette technologie révolutionnaire a été mise au point dans le laboratoire de recherche de Xerox, mais le géant des photocopieurs n’a pas compris son potentiel. Steve Jobs, le patron d’Apple, s’en est très largement inspiré. Pour assurer le succès commercial du Macintosh, il demande à Microsoft de développer une version adaptée de sa suite bureautique, et notamment son tableur Excel. C’est ainsi que Microsoft récupère le principe de l’interface graphique, ce qui lui permet de lancer Windows 1 dès 1985, bientôt accompagné de la suite Office (Word, Excel et Powerpoint).

Windows est amélioré tout au long des années suivantes, pour culminer avec Windows 95, lancé en 1995 avec une campagne publicitaire de plus de 200 millions de dollars, pour laquelle Bill Gates achète aux Rolling Stones le droit d’utiliser leur chanson « Start Me Up ». La part de marché mondial de Microsoft dans les systèmes d’exploitation dépasse alors les 70 %. Elle n’a guère changé depuis.

En 1997, Microsoft se paye même le luxe de sauver Apple de la faillite en investissant 150 millions de dollars dans son capital sous forme d’actions sans droits de vote, qui sont revendues trois ans plus tard. Steve Jobs remercie Bill Gates lors d’une de ses célèbres keynotes en affirmant : « Le monde est meilleur, merci. » Accessoirement, ce sauvetage permet de mettre fin au procès qu’Apple avait intenté à Microsoft en l’accusant d’avoir copié son interface graphique pour concevoir Windows.

Troisième époque : bureaucratisation, conflits internes et diversifications ratées

Au milieu des années 1990, l’informatique connaît une nouvelle transformation avec l’explosion du Web. Or, Microsoft, spécialiste des PC autonomes, dont le modèle économique consiste à vendre des logiciels en boîte, est mal préparé pour cette mise en réseau globale. Sa première réaction est la mise au point du navigateur Internet Explorer, (en fait développé à partir du rachat du navigateur Mosaic conçu par l’entreprise Spyglass, un peu comme le MS-DOS en son temps). Internet Explorer finit par être intégré à Windows, ce qui déclenche un procès pour abus de position dominante qui aurait pu entraîner le démantèlement de Microsoft. De nouveaux concurrents, comme Google avec son navigateur Chrome, en profitent pour attirer les utilisateurs.

Extrait du journal télévisé de France 2, 8 novembre 1999, Source : INA.

En 2000, Bill Gates cède son poste de directeur général de Microsoft à Steve Ballmer, un de ses anciens camarades d’Harvard, qui souhaite en faire une entreprise d’appareils électroniques et de services. Pour cela, Ballmer mène pendant les quinze années suivantes toute une série de diversifications : jeux vidéo (Flight Simulator), encyclopédie sur CD (Encarta), matériel informatique (souris, claviers), lecteur MP3 (Zune), hébergement en ligne (Azure), console de jeux (Xbox), téléphones (Windows Phone), tablettes et ordinateurs (Surface).

Si certaines de ces diversifications sont des réussites (notamment Azure et la Xbox), d’autres sont des échecs cuisants. Encarta est vite submergée par Wikipédia, le Zune ne résiste pas à l’iPod d’Apple, tandis que Windows Phone reste l’une des plus grandes erreurs stratégiques de l’histoire de l’entreprise. En effet, pour assurer son succès dans la téléphonie face à l’iPhone, Microsoft rachète la division « téléphones mobiles » du Finlandais Nokia pour 5,4 milliards de dollars en septembre 2013. L’intégration est catastrophique. Steve Ballmer souhaite que les téléphones utilisent une version de Windows 10, ce qui les rend aussi lents que peu ergonomiques. À peine deux ans plus tard, Microsoft stoppe son activité de téléphonie, en accusant une perte de 7,6 milliards de dollars. Nokia est revendu pour seulement 350 millions de dollars.

Une des conséquences de ces multiples diversifications est l’explosion des effectifs de Microsoft, qui passent de 61 000 personnes en 2005 à 228 000 en 2024. De nombreux conflits internes éclatent entre les différentes divisions, qui refusent de travailler ensemble.

Ces guerres de territoires, doublées d’une bureaucratisation envahissante et d’une rentabilité sans effort (pour chaque installation de Windows, les fabricants de PC payent environ 50 dollars, alors que le coût marginal de cette licence est virtuellement nul), brident la capacité d’innovation de Microsoft. Ses logiciels, notamment Internet Explorer 6 ou Windows Vista, sont bientôt moqués par les utilisateurs pour leurs imperfections, constamment colmatées par de fréquentes mises à jour. Comme le font remarquer certains, Windows est équipé d’un mode « sans échec », ce qui laisse supposer que son mode normal est « avec échec ».

Quatrième époque : Microsoft à nouveau cool grâce au Cloud et à OpenAI ?

En 2014, Satya Nadella remplace Steve Ballmer à la tête de Microsoft. Venu de la division des services en ligne, il va réorienter la stratégie de Microsoft dans cette direction, en développant notamment l’activité d’hébergement Azure. En 2024, Azure est ainsi devenu le deuxième service de Cloud au monde, derrière AWS d’Amazon, et plus de 56 % du chiffre d’affaires de Microsoft proviennent de ses services en ligne. Satya Nadella modifie à cette occasion le modèle économique de l’entreprise : désormais, les logiciels ne doivent plus être vendus, mais accessibles par abonnement, ce qui donne naissance, par exemple, à Office 365 et à Xbox Live.

Parallèlement, Microsoft acquiert le jeu en ligne Minecraft en 2014, puis le réseau social professionnel LinkedIn en 2016 pour 26,2 milliards de dollars (ce qui constitue sa plus grosse acquisition à ce jour), et la plateforme de développement en ligne GitHub en 2018 pour 7,5 milliards de dollars.

Enfin, entre 2023 et 2025, Microsoft investit plus de 14 milliards dans OpenAI, la société à l’origine de ChatGPT, ce qui lui donne une position particulièrement enviable dans la révolution de l’intelligence artificielle. Les modèles de ChatGPT viennent enrichir l’IA interne de Microsoft, Copilot.

Au total, en 50 ans, grâce à une série de paris téméraires, de rachats opportuns, mais aussi de diversifications ratées, Microsoft a connu une évolution significative de sa stratégie, que ce soit en matière de périmètre, d’avantage concurrentiel ou de modèle économique. Un temps étouffée par son opulence et ses conflits internes, l’entreprise semble redevenir attractive, notamment pour les jeunes diplômés. Pour autant, rien ne dit que Microsoft existera encore pendant 50 nouvelles années. D’ailleurs, Bill Gates lui-même a annoncé le contraire.The Conversation

L’histoire de Microsoft : Bill Gates et Paul Allen, de Stéphane Malterre, Imineo Documentaires, 2014.

Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Piratage, hameçonnage, sextorsion : la cybercriminalité explose et touche tous les publics selon le rapport de la plateforme Cybermalveillance

cyber

Plus la société française se numérise et plus elle est exposée à une recrudescence de cybermenaces. Tel est l’enseignement que l’on pourrait tirer de la présentation, hier, du rapport d’activité 2024 de la plateforme gouvernementale Cybermalveillance.gouv.fr. Une plateforme, née en 2017, qui est de plus en plus fréquentée par les Français puisque l’an dernier, elle a reçu 5,4 millions de visiteurs uniques (+47 %) et enregistré plus de 420 000 demandes d’assistance en 2024 (+49,9 %). Une fréquentation en nette hausse qui peut notamment s’expliquer par de nouveaux contenus (170), services proposés ou initiatives menées par Cybermalveillance.gouv.fr tels que la déclinaison du programme d’e-sensibilisation SensCyber pour le grand public, l’opération Cactus auprès des collégiens et lycéens ou encore le lancement du guichet unique 17Cyber lancé en collaboration avec le ministère de l’Intérieur.

L’hameçonnage – via des courriels de plus en plus sophistiqués et parfois dopés à l’intelligence artificielle – demeure la menace prédominante tout public confondu avec 1,9 million de consultations d’articles et 64 000 demandes d’assistance.

cybermenaces

Phénomène marquant de l’année 2024, des violations de données personnelles massives ont touché de nombreuses organisations (Viamedis-Almerys, France Travail, Fédération Française de Football, Free…). « Ces fuites de données suscitent de fortes inquiétudes de la part des publics concernés sur l’utilisation qui pourraient en être faite (hameçonnage, piratage de compte, tentative d’escroquerie ou d’usurpation d’identité…) », note la plateforme. Les violations de données personnelles sont la 4e menace pour les particuliers avec 706 000 consultations d’articles et 12 400 demandes d’assistance (+82 %).

En progression constante (+55 % de recherches d’assistance), le piratage de compte occupe toujours la 2e place pour les particuliers et les entreprises (la 3e pour les collectivités).

Prolifération des arnaques en ligne

Les rançongiciels, qui touchent essentiellement les professionnels, tiennent la 2e place pour les collectivités et la 3e pour les entreprises. « S’ils représentent ainsi plus d’un tiers des recherches d’assistance, les rançongiciels sont néanmoins en baisse et au niveau le plus bas des quatre dernières années. » Enfin, avec 136 500 consultations d’articles et 13 500 recherches d’assistance, l’arnaque au faux support technique (3e menace pour les particuliers) perdure, ainsi que les modes opératoires plus agressifs apparus en 2022 qui s’attaquent aux comptes bancaires des victimes.

La plateforme observe aussi des évolutions dans les menaces comme la sextorsion qui concernerait de plus en plus les jeunes publics. Le cyberharcèlement qui touchait principalement les particuliers (en hausse de 31 % ), affecte également les professionnels avec une menace qui se positionne respectivement en 9e place pour les collectivités (+533 %) et 10e pour les entreprises (+566 %).

Mais 2024 aura aussi été marquée par « une véritable prolifération des arnaques en ligne, due en partie à la facilité d’accès aux outils malveillants par une cyberdélinquance sans compétence particulière. »

La plateforme a présenté sa stratégie 2025-2030 qui s’articule autour de trois axes : l’assistance aux victimes avec le 17 Cyber, développer une marque dont l’identité reste à définir pour les actions de prévention cyber, et enfin développer un parcours de signalement plus clair pour les victimes.

Pourquoi l’unité transfrontalière est essentielle pour les data centers dans un monde fragmenté

datacenter

Par Sami Slim, CEO de Telehouse France

Les câbles sous-marins étaient autrefois les autoroutes invisibles de l’Internet, transportant discrètement des données entre les continents. Mais aujourd’hui, ils sont sous le feu des projecteurs. Les conflits dans des zones maritimes clés menacent de couper ces liens vitaux, obligeant les entreprises à rediriger leur trafic critique ou à contourner certaines régions.

Parallèlement, les disparités dans la réglementation des infrastructures de data centers entre les pays ajoutent une complexité supplémentaire. Les opérateurs doivent naviguer dans un patchwork de restrictions pour répondre aux demandes des clients et soutenir la prochaine vague de services numériques.

Ces tensions sont un signal d’alarme : une approche plus unifiée de la connectivité mondiale est nécessaire. Sans une coopération accrue, l’industrie pourrait faire face à des lacunes critiques dans le développement de l’économie numérique et à un ralentissement des services basés sur l’IA.

Gérer les tensions géopolitiques

L’une des menaces les plus immédiates pour cette vision provient de la montée des tensions géopolitiques. Si elles ne sont pas résolues, elles risquent de fragmenter l’économie numérique mondiale. Les câbles sous-marins, qui constituent l’épine dorsale du trafic Internet mondial, sont devenus des cibles, qu’il s’agisse de négociations politiques ou d’attaques délibérées.

En 2024, quatre câbles sous-marins ont été sectionnés en mer Rouge lors d’un présumé sabotage, impactant environ 25 % du trafic entre l’Asie et l’Europe. HGC Global Communications a dû réagir rapidement en redirigeant son trafic. La situation a atteint un point où certaines entreprises posent désormais des câbles évitant certaines régions. Par exemple, Meta a décidé de contourner l’Europe avec l’un de ses nouveaux projets de câbles sous-marins, reliant directement l’Asie aux États-Unis via l’Afrique. Ce système de 24 paires de fibres offre une capacité accrue pour soutenir les projets d’IA.

Si cette tendance se poursuit, elle pourrait entraîner une augmentation des coûts et de la latence, alors que la connectivité doit être universelle. À long terme, des continents entiers risquent d’être privés d’accès à l’économie numérique mondiale. Une plus grande collaboration entre les fournisseurs de technologies et les opérateurs de data centers est essentielle pour faire face à ces risques et garantir que les nouveaux câbles atteignent un maximum de régions.

Au-delà de la connectivité, la diversité des réglementations des data centers représente un autre défi majeur. Même au sein de l’Europe, des disparités entre les politiques nationales, notamment en matière d’objectifs de durabilité, créent des obstacles pour les opérateurs. Toutefois, l’UE a récemment mis en place un système obligeant les opérateurs de data centers à déclarer leurs indicateurs de performance clés dans une base de données européenne. Cette réglementation vise à harmoniser les objectifs de durabilité entre les pays et à garantir que les opérateurs puissent continuer à se développer tout en répondant aux exigences des nouvelles technologies, comme l’IA.

Le rôle des data centers dans le développement de l’IA

Les restrictions sur l’exportation de GPU avancés vers certaines régions ont généré de l’incertitude, compliquant la planification des investissements dans les infrastructures IA. Toute perturbation des chaînes d’approvisionnement peut freiner l’innovation et le développement de nouvelles applications et services. Une approche coopérative de la gouvernance technologique est donc essentielle, car l’IA et le calcul haute densité sont indispensables pour des domaines comme l’analyse complexe des données, les systèmes autonomes, la science des matériaux et la découverte de médicaments. Cette technologie en pleine expansion renforce encore la nécessité d’une connectivité mondiale stable et unifiée.

Par exemple, l’entraînement des modèles d’IA n’est pas particulièrement sensible à la latence, mais le traitement en temps réel des tâches d’IA (l’inférence) nécessite des environnements ultra-faibles latence. Les charges de travail IA doivent donc être hébergées au plus près des utilisateurs finaux, rendant l’infrastructure mondiale encore plus cruciale.

Dans ce contexte, une collaboration mondiale est également nécessaire pour standardiser les déploiements de refroidissement liquide. Ce type de refroidissement est essentiel pour prendre en charge des infrastructures IA plus puissantes et énergivores, notamment les systèmes basés sur des GPU, permettant aux data centers d’atteindre des densités de rack allant jusqu’à 300 kW. Alors que l’adoption des solutions IA progresse, le refroidissement liquide devra suivre la même dynamique.

Cependant, les fournisseurs de matériel développent actuellement leurs propres solutions de refroidissement propriétaires, rendant difficile la mise en place d’une infrastructure standardisée. Sans une meilleure collaboration entre fabricants pour créer des normes communes, les data centers risquent de faire face à des coûts plus élevés et à des inefficacités opérationnelles.

La nécessité d’une réponse coordonnée

Les facteurs géopolitiques influencent directement la disponibilité du trafic Internet mondial, et de grandes entreprises choisissent désormais de rediriger leurs câbles loin de certaines régions stratégiques. Par ailleurs, les disparités réglementaires compliquent les opérations des data centers, et le manque de standardisation freine l’adoption des nouvelles technologies. L’économie numérique mondiale risque donc de devenir inefficace, plus coûteuse et de voir les opportunités liées à l’IA réduites. Il est plus urgent que jamais d’assurer une coopération transfrontalière.

Les opérateurs de data centers, les fournisseurs technologiques et les décideurs politiques doivent travailler ensemble pour établir des objectifs communs. Par exemple, la collaboration est essentielle pour garantir que le déploiement des câbles sous-marins couvre un maximum de régions, que la connectivité reste résiliente et que le développement des infrastructures soit optimisé, permettant à l’innovation alimentée par l’IA de se déployer sans entrave. À mesure que le monde dépend de plus en plus du traitement en temps réel des données, une connectivité mondiale fluide peut accélérer l’innovation technologique et favoriser la croissance économique dans toutes les régions.

Les fondations Airbus et Solar Impulse signent un partenariat au service de l’innovation durable

 

Guillaume Faury, Julie Kitcher et Bertrand Piccard.
Guillaume Faury, Julie Kitcher et Bertrand Piccard. Photo Airbus SAS

Airbus et la Fondation Solar Impulse unissent leurs forces pour accélérer le développement de solutions durables à l’échelle mondiale. Annoncé le 24 mars, ce partenariat de trois ans repose sur une ambition commune : tirer parti des technologies aérospatiales pour favoriser l’adoption de projets à fort impact environnemental.

À l’heure où la crise climatique impose des réponses immédiates, l’innovation technologique s’affirme comme un levier décisif. Ce constat est au cœur de la collaboration entre la Fondation Airbus et la Fondation Solar Impulse, qui visent à identifier et à soutenir des initiatives capables de répondre aux défis environnementaux et sociétaux majeurs. Parmi les outils mis à disposition, l’imagerie satellitaire et les hélicoptères permettront de surveiller les écosystèmes, d’améliorer la gestion des ressources en eau et d’évaluer les risques liés aux catastrophes naturelles.

« En combinant la technologie aérospatiale avec des solutions fondées sur la nature, nous pouvons transformer l’innovation en impact », explique Bertrand Piccard, président de la Fondation Solar Impulse. « Notre partenariat avec la Fondation Airbus démontre comment des capacités avancées comme l’imagerie satellitaire peuvent contribuer à restaurer les écosystèmes, soutenir le développement économique et renforcer la résilience climatique là où elle est le plus nécessaire. »

Des ressources au service des innovateurs

Les candidats sélectionnés dans le cadre de ce programme auront accès à un financement d’amorçage de 10 000 euros, ainsi qu’à une expertise technique pour maximiser leur impact. Cette initiative s’inscrit dans la mission de la Fondation Airbus, qui cherche à mettre en valeur les capacités uniques du secteur aéronautique pour répondre aux enjeux environnementaux.

« Les technologies aérospatiales nous permettent d’accéder à des informations sur notre planète inaccessibles depuis le sol », précise Julie Kitcher, directrice du développement durable d’Airbus et présidente de la Fondation Airbus. « Grâce à notre expertise en matière de satellites et d’hélicoptères, nous nous engageons à donner aux innovateurs et aux chercheurs les moyens de développer des solutions pour répondre aux défis environnementaux et sociaux urgents. »

À partir du 1er avril, les deux fondations lanceront un appel à projets pour sélectionner les initiatives les plus prometteuses. Les innovations retenues bénéficieront d’un accompagnement stratégique et technique afin de favoriser leur déploiement à grande échelle.

Bertrand Piccard, un explorateur engagé pour la planète

Depuis plusieurs décennies, Bertrand Piccard s’est imposé comme une figure emblématique de l’innovation durable. En 2021, il avait été le parrain du Forum Le Monde Nouveau, organisé par La Dépêche du Midi, où il avait plaidé pour une approche pragmatique de la transition écologique, s’appuyant sur les technologies existantes pour accélérer le changement.

Aujourd’hui, il poursuit son engagement à travers un nouveau défi ambitieux : Climate Impulse, un tour du monde sans escale à bord d’un avion propulsé à l’hydrogène vert. Après avoir révolutionné l’aviation en 2016 avec Solar Impulse, le premier avion solaire à accomplir un tour du monde, Piccard entend une nouvelle fois démontrer que des solutions viables existent pour rendre l’aéronautique plus respectueuse de l’environnement.

Le projet Climate Impulse, mené en collaboration avec Raphaël Dinelli et soutenu par Syensqo, l’Université Mohammed VI Polytechnique et OCP Group, a déjà franchi des étapes majeures. En 2024, la finalisation du cockpit et l’optimisation de l’aérodynamisme marquent une avancée significative. En 2025, les essais des systèmes de propulsion et des piles à hydrogène confirmeront la faisabilité du vol, avant un premier décollage prévu en 2026.

Les Français et les réseaux sociaux : à chaque âge sa plateforme

 

reseaux

Les réseaux sociaux font désormais partie intégrante du quotidien des Français. Une étude réalisée par l’institut Flashs pour Hostinger dresse un panorama des habitudes numériques et met en lumière des tendances marquées par une forte segmentation générationnelle, une personnalité parfois transformée en ligne, mais aussi un besoin croissant de régulation.

Entre les 18-24 ans et les seniors, à chacun son réseau social

Les plateformes les plus prisées varient considérablement selon l’âge des utilisateurs. Si Facebook demeure le réseau social le plus fréquenté des Français (61 %), il est en perte de vitesse chez les plus jeunes. Seuls 22 % des 18-24 ans l’utilisent encore, préférant de loin Instagram (83 %), TikTok (79 %) et Snapchat (74 %). En revanche, les plus de 35 ans restent fidèles à Facebook, avec une adoption de 74 %.

réseaux

Certains réseaux parviennent toutefois à transcender les générations. Ainsi, Instagram affiche une popularité constante, oscillant entre 83 % chez les jeunes et 39 % chez les plus de 50 ans. WhatsApp est la seule plateforme qui présente une distribution homogène entre toutes les tranches d’âge, avec une utilisation régulière variant de 37 % à 50 %.

Lien interne vers l’article n°12585025

D’autres plateformes connaissent un déclin ou une segmentation radicale. Twitter/X, autrefois lieu de débats et d’actualité, chute drastiquement après 35 ans : il passe de 24 % chez les 25-34 ans à seulement 6 % chez les plus de 50 ans. Twitch suit une trajectoire similaire, rassemblant 13 % à 15 % des moins de 35 ans, mais devenant quasi inexistant chez les seniors (1 %).

Des interactions quotidiennes

Second enseignement de l’étude : la présence en ligne est devenue une norme sociale. Deux tiers des Français (67 %) interagissent quotidiennement sur les réseaux sociaux en publiant, commentant ou réagissant aux contenus. Ce chiffre grimpe à 89 % chez les 18-24 ans et 78 % chez les 25-34 ans. Même les plus de 50 ans sont loin d’être absents : 53 % d’entre eux participent activement aux conversations en ligne.

réseaux

Cette hyper-connexion s’accompagne d’une évolution de la personnalité des internautes. Près d’un Français sur deux (43 %) affirme être différent en ligne, un phénomène particulièrement marqué chez les 18-24 ans (63 %). Cette transformation s’exprime par une empathie accrue (57 %), une communication plus directe (48 %) ou encore un ton plus audacieux (38 %).

Entre liberté d’expression et regrets de ses publications

L’illusion d’un espace de liberté résonne chez de nombreux utilisateurs : 57 % des Français disent se sentir plus libres d’exprimer leurs opinions en ligne. Pourtant, cette impression de maîtrise s’accompagne d’un besoin d’adaptation aux codes des plateformes (57 %) et d’un sentiment de vulnérabilité face aux interactions agressives. Seuls 43 % des utilisateurs se disent en sécurité lorsqu’ils s’expriment en ligne.

Les regrets sont une réalité bien présente, notamment chez les jeunes. 63 % des 18-24 ans et 55 % des 25-34 ans avouent avoir déjà regretté une publication, contre 44 % des 35-49 ans et 28 % des plus de 50 ans. Parmi les principales causes : les critiques reçues (44 %), les publications impulsives (41 %) ou encore le manque de réactions attendues (32 %).

Les Français tentent de modérer leur usage

Face aux effets parfois négatifs de cette exposition constante, les Français adoptent des stratégies de modération. Près d’un utilisateur sur deux (45 %) veille à bien distinguer sa vie privée de sa présence en ligne, et 37 % limitent volontairement leur temps d’écran. « Plus de 7 Français sur 10 (72 %) ont déjà réduit leur activité numérique ou envisagent de le faire. Cette tendance est particulièrement marquée chez les jeunes : 87 % des 18-24 ans et 80 % des 25-34 ans cherchent à réduire leur présence en ligne », explique Chaimaa Chakir, spécialiste du référencement et du marketing de contenu chez Hostinger.

Loin d’une simple lassitude, cette réflexion traduit une réelle prise de conscience des risques d’une hyper-connexion : anxiété (16 %), frustration (20 %) et stress (22 %) sont des émotions régulièrement évoquées. Parallèlement, le besoin de déconnexion et de filtrage des contenus indésirables se fait de plus en plus sentir, en particulier chez les jeunes (35 % des 18-24 ans bloquent ou masquent des publications).

Le temps est venu de reprendre le contrôle de notre cybersécurité

 

souveraineté

Par Mathieu Isaia, Directeur Général de TheGreenBow

Depuis 2021, j’alerte sur l’urgence de reconquérir notre indépendance technologique, un enjeu stratégique que je mettais déjà en avant dans un article publié dans S&D Magazine. Aujourd’hui, les bouleversements géopolitiques ne font que confirmer cette réalité : notre dépendance technologique aux États-Unis nous expose à des risques majeurs. Chaque nouvelle crise nous rappelle brutalement qu’un sursaut est indispensable. Il ne s’agit plus de simples alertes, mais d’un impératif stratégique.

Dans son allocution télévisée du mercredi 5 mars, le président E. Macron a rappelé que « L’indépendance économique, technologique, industrielle et financière sont des nécessités ». L’heure est venue de traduire les paroles en actes en nous mettant réellement en capacité de disposer de cette liberté de choix pour « renforcer notre indépendance en matière de défense et de sécurité ».

Le débat sur la souveraineté ne date pas d’aujourd’hui et a toujours été très clivant. La prise de conscience de l’importance du sujet pour notre économie et notre sécurité nationale a progressé à petits pas, certainement parce que ses partisans brandissaient des menaces potentielles et incertaines. 

D’autre part, les pays européens ont bien volontiers accepté le confort du parapluie américain pour assurer leur défense. La France avait même fini par réintégrer le commandement de l’OTAN en 2009. Or le contexte géopolitique de ce début d’année montre que ces menaces sont désormais bien réelles et concrètes. 

A l’évidence, l’attitude de notre allié historique outre-Atlantique démontre que nous ne partageons plus les mêmes priorités ni les mêmes ennemis. La décision de suspendre les opérations cyber offensives à l’encontre de la Russie est une parfaite illustration de ce changement majeur de stratégie de la part des Etats-Unis.

L’heure du choix est arrivé

Dans ce nouvel ordre multipolaire qui se dessine, l’Europe ne peut maintenant compter que ses propres forces. L’heure des choix et des renoncements est arrivée pour les entreprises et les organisations publiques françaises et européennes. 

Deux options s’offrent clairement à nous : la première consiste à nous complaire dans nos illusions en acceptant notre dépendance aux solutions américaines, une réalité régulièrement mise en lumière par les rapports de la Commission Européenne. Par exemple, le rapport publié le 21 février 2022 (EU strategic dependencies and capacities: second stage of in-depth reviews) pointe l’asservissement technologique de l’Europe dans plusieurs domaines, à commencer par la cybersécurité. Un chiffre de ce rapport laisse particulièrement pantois : 70% des achats de produits et services des pays membres de l’UE dans le domaine de la cybersécurité, proviennent de pays non membres (Etats-Unis et Chine en particulier). Par ailleurs, ce rapport alerte sur les conséquences néfastes de cette fragilité stratégique à savoir le risque de sécurité des informations, le risque de pénurie ou de blocage à l’export ou encore l’import de vulnérabilités.

Le maintien du statu quo serait clairement un renoncement définitif et implicite à la confidentialité de nos données, qui viendrait s’ajouter à un autre risque déjà perceptible et subi par les RSSI : la sécurité des informations. En effet, étant hégémoniques, les solutions logicielles américaines sont les premières cibles des cyberattaques et révèlent par ailleurs de plus en plus de vulnérabilités (voir le rapport 2024 Trends in Vulnerability Exploitation). Ces solutions mettent déjà à rude épreuve les nerfs des professionnels de la sécurité informatique qui doivent enchaîner les mises à jour à un rythme infernal. Tout le monde a encore en tête, la mise à jour défectueuse distribuée par CrowdStrike et qui a causé des pannes massives sur les systèmes Microsoft Windows. Plusieurs millions de systèmes ont été affectés à travers le monde, entraînant des perturbations importantes dans divers secteurs d’activités, notamment dans les transports, les services financiers, les services gouvernementaux et les soins de santé.

La seconde option consiste à se tourner vers les solutions alternatives françaises ou à défaut européennes. Ces alternatives existent dans tous les domaines. Pour s’en convaincre, il suffit de consulter les nombreuses initiatives de mappings et de listings de solutions qui fleurissent sur les réseaux sociaux. Par exemple, le mapping édité en début d’année par l’European Champions Alliance recense 832 entreprises proposant des solutions dans de nombreux domaines comme la cryptographie, la détection et la prévention des fraudes, la protection du cloud et des données ou encore la gouvernance cyber. 

Outre la perspective de prise d’indépendance, ce choix présente l’avantage de donner leur chance aux solutions européennes et françaises, leur offrant ainsi l’opportunité de se développer davantage et, par conséquent, d’améliorer continuellement leur qualité.

Passer des paroles aux actes

Cette seconde voie ne peut être emprunté sans choix politiques majeurs à plusieurs niveaux. Tout d’abord au niveau national. L’État français, qui devrait incarner l’exemplarité en matière de souveraineté numérique, dispose encore d’une marge de progression importante. L’exemple emblématique de l’hébergement des données de santé françaises via le Health Data Hub, confié à Microsoft Azure en 2020, est l’exemple criant de cette contradiction. Malgré la vive controverse suscitée lors de cette décision et les questions légitimes soulevées concernant la protection de ces données sensibles, ce choix stratégique n’a toujours pas été réellement remis en cause, témoignant du décalage persistant entre les discours officiels prônant l’autonomie technologique et les pratiques concrètes de l’administration.

Lorsque des données personnelles sont en jeu, la commande publique devrait privilégier les solutions souveraines. De même, au niveau européen, toutes les initiatives visant à encourager l’achat de produits et services européens dans le domaine de la défense et de la cybersécurité devraient être développées. A l’heure où l’administration Trump menace d’augmenter les droits de douane sur les produits et services européens, la mise en place d’un « Buy European Act » apparait comme une nécessité.

La remise en question doit être profonde et l’action rapide car en matière de cybersécurité comme en matière d’armement le poids de dépendance aux équipements américains a atteint des niveaux très élevés et affecte sans nul doute notre capacité d’action. Rappelons ici que près des deux tiers des dépenses d’armement des États de l’Union Européenne sont destinées à des équipements américains. Pourtant lorsqu’elle le veut, l’Europe est capable de renforcer ses défenses. Pour des raisons de sécurité nationale, elle a su agir pour limiter l’utilisation des équipements de Huawei et ZTE. Onze pays européens parmi lesquels l’Allemagne et la France ont ainsi décidé d’exclure ou de limiter les équipements télécoms chinois de leurs réseaux 5G. SFR et Bouygues Telecom, les deux opérateurs à avoir déployé des équipements Huawei, ont jusqu’au 31 décembre 2031 pour retirer près de 11 000 antennes.

Faut-il appliquer le même niveau de méfiance aux solutions technologiques américaines qu’aux solutions chinoises ? Peut-être pas, a minima une méfiance équivalente, une analyse de risque et le développement d’une souveraineté numérique européenne dans les secteurs critiques comme la défense et la cybersécurité s’imposent comme une évidence. 

La bonne nouvelle est que nous avons les moyens de mettre en œuvre cette souveraineté. Les capacités technologiques, le cadre réglementaire, le financement et la recherche sont déjà là pour alimenter un écosystème local riche comme le démontre le mapping de l’ECA. La France est même le leader de cet écosystème avec près de 40% des 832 entreprises identifiés par l’ECA et des champions internationaux comme Thales, Atos ou Stormshield.  Cette dynamique s’appuie sur un tissu technologique en pleine expansion et une réglementation qui encourage l’innovation.

Pourtant, si ces solutions existent, elles restent sous-exploitées. Il ne manque qu’un véritable sursaut stratégique pour les imposer comme des références incontournables au niveau européen et international.

La BITD française a déjà montré la voie

L’industrie de défense prouve que la souveraineté n’est pas un idéal, mais un choix stratégique réalisable. La France a démontré qu’une indépendance technologique est possible lorsque convergent volonté politique et solutions interopérables. C’est ce qu’ont accompli les industriels français de la Base Industrielle et Technologique de Défense (BITD) en matière de communications sécurisées. Ils ont su développer et déployer des solutions souveraines, garantissant l’autonomie de nos forces armées et de nos infrastructures critiques. TheGreenBow, avec ses solutions VPN de sécurité avancée, illustre cette capacité à se libérer des alternatives étrangères.

Avec l’Intelligence Artificielle, l’autre défi pour ces acteurs est, la maîtrise des technologies quantiques. La souveraineté technologique est l’un des objectifs affichés du projet PROQCIMA (Programme Quantique pour la Cybersécurité et l’Intelligence Militaire Avancée) lancé en mars 2024 par la Direction générale de l’armement (DGA) en collaboration avec le Secrétariat général pour l’investissement (SGPI). Ce programme qui vise à développer des ordinateurs quantiques universels pour répondre aux besoins de la défense française, mobilise cinq start-up innovantes françaises. Le soutien à la recherche et les partenariats public-privé dans le quantique, contribuent à faire émerger un écosystème industriel performant.

Dans le domaine défensif de la cryptographie résistante au quantique, l’enjeu se situe au niveau européen. Pour le moment c’est une nouvelle fois l’Amérique qui ouvre la voie en déterminant les premiers standards d’algorithmes résistants au quantique. Bien que les chercheurs et industriels européens soient très impliqués dans la recherche et la mise au point de ces nouveaux algorithmes, c’est bien l’organisme de normalisation américain (le NIST) qui les sélectionne et définit les standards. De son côté, la Chine vient d’annoncer qu’elle lançait également une initiative ambitieuse pour développer ses propres standards. Cette décision découle d’un manque de confiance mais également d’une volonté affirmée d’assurer son indépendance technologique dans un domaine qu’elle considère comme capital pour sa sécurité nationale et sa souveraineté.

Face à cette dynamique mondiale, l’Europe doit s’appuyer sur ses forces et prendre son indépendance numérique. Ne plus subir, ne plus être tributaire, mais imposer nos propres standards, encourager nos champions technologiques et faire de la cybersécurité un pilier de notre souveraineté. L’heure n’est plus aux constats : nous devons agir dès maintenant, à tous les niveaux – politique, industriel et technologique – pour garantir un avenir numérique sécurisé et autonome pour l’Europe.


L'avenir de la cartographie est-il immersif ?

tomtom

Par Léo Sei, VP Product chez TomTom

Dans un monde toujours plus connecté, la cartographie connaît une évolution fulgurante en visant notamment l'immersion totale. Cette approche, qui promet de redéfinir notre manière de percevoir et d'interagir avec les espaces géographiques, puise largement son inspiration dans l'industrie du jeu vidéo. Elle ouvre des perspectives nouvelles pour de nombreux secteurs, de l'automobile aux assurances, en passant par la sécurité routière. Une révolution technologique aux enjeux multiples, prête à transformer notre compréhension de l'espace.

Une nouvelle dimension géographique

Contrairement aux cartes traditionnelles, la cartographie immersive se distingue par sa capacité à créer des représentations tridimensionnelles et interactives des environnements réels. Ces cartes immersives offrent ainsi une expérience permettant d'explorer des lieux de manière plus intuitive et précise.

Par exemple, les technologies de réalité augmentée (AR) et de réalité virtuelle (VR) sont utilisées pour superposer des informations contextuelles en temps réel sur des cartes numériques. Et l’on est loin d’un simple sont gadget : il s’agit là d’un saut quantique dans la manière dont nous percevons et utilisons les données géographiques.

L'impact sur la sécurité routière

La cartographie immersive est particulièrement prometteuse en ce qui concerne la sécurité routière. En intégrant des données en temps réel sur le trafic, les conditions météorologiques et les travaux routiers, ces cartes permettent aux conducteurs d'anticiper et de réagir plus sereinement aux dangers. Selon un rapport de MarketsandMarkets, le marché de la réalité augmentée, qui inclut des applications de cartographie immersive, doit atteindre 72,7 milliards USD en 2024. A la clé, des innovations telles que l’affichage des alertes de sécurité directement sur le pare-brise du véhicule, ce qui offre une vue augmentée améliorant la vigilance et réduisant le risque d'accidents.

Pour développer ce genre de solutions, l'industrie du jeu vidéo joue un rôle crucial. Les moteurs graphiques avancés, tels qu'Unity et Unreal Engine, permettent de créer des environnements virtuels réalistes et interactifs. Ces technologies, initialement conçues pour le divertissement, sont désormais appliquées à la cartographie pour offrir des expériences utilisateur plus engageantes. Un exemple frappant est l'utilisation de simulations en VR pour la formation des conducteurs, leur permettant de pratiquer la conduite dans des conditions variées et difficiles sans aucun risque réel.

Des applications variées et innovantes

Outre la sécurité routière, la cartographie immersive trouve des applications dans de nombreux autres domaines. Dans le secteur de l'assurance, par exemple, des cartes détaillées et interactives permettent d'évaluer plus précisément les risques et de planifier des interventions plus efficaces. La cartographie avancée aide à prévenir les sinistres en fournissant des données précises sur les zones à risque.

Dans l'urbanisme et la gestion des villes intelligentes, la cartographie immersive facilite la planification et l'optimisation des infrastructures. Les urbanistes peuvent simuler l'impact de nouveaux projets sur l'environnement urbain et ajuster leurs plans en conséquence, améliorant ainsi la qualité de vie des citoyens.

Une collaboration interdisciplinaire essentielle

L'essor de la cartographie immersive repose sur une collaboration étroite entre diverses disciplines : ingénierie, design UX/UI, intelligence artificielle et géomatique. Cette interdisciplinarité est essentielle pour développer des solutions qui soient à la fois technologiquement avancées et centrées sur l'utilisateur. Par exemple, l'intégration de l'IA dans les systèmes de cartographie permet de traiter et d'analyser des volumes massifs de données géographiques en temps réel, offrant ainsi des informations précieuses pour la prise de décision.

L'avenir de la cartographie sera-t-il immersif ? Sûrement, même s’il ne s’y limitera pas. En adoptant les innovations issues de l'industrie du jeu vidéo et en intégrant des technologies avancées comme l'AR, la VR et l'IA, la cartographie immersive redéfinira notre interaction avec les environnements géographiques pour un monde plus sûr, plus connecté et plus intelligible.

Quand les IA font des rapprochements trompeurs


Une image générée par IA pour illustrer les erreurs d’apprentissage. Microsoft Copilot, prompté par Pierre-Emmanuel Arduin et Myriam Merad, Fourni par l'auteur
Par Pierre-Emmanuel Arduin, Université Paris Dauphine – PSL et Myriam Merad, Université Paris Dauphine – PSL

Connaissez-vous les « corrélations fallacieuses » ? Si les humains apprennent à ne pas se laisser berner par ces liens logiques apparents, les IA ont plus de mal.


Et si les ventes de dictionnaires en Allemagne étaient liées au nombre d’inscriptions à des cours de natation au Japon ? Et si la production d’énergie solaire à Taïwan influençait le cours en bourse de Netflix ?

On apprend très tôt qu’il y a une distinction entre corrélation et causalité : un lien n’explique toujours pas une cause. Notre cerveau cherche malgré tout un sens et des explications logiques lorsqu’il analyse des données : des lignes qui suivent la même inclinaison, des barres qui s’élèvent ensemble, ou encore des points qui se regroupent dans un diagramme. Instinctivement, il semble peu probable que la consommation de chocolat par habitant d’un pays soit corrélée au nombre de ses lauréats du prix Nobel : il s’agit là d’une « corrélation fallacieuse ».

Une équipe de recherche d’Apple a publié en septembre 2024 un article illustrant comment une banale modification de prénoms ou d’attributs des personnages d’un énoncé mathématique diminuait jusqu’à 10 % la part de réponses correctes fournies par diverses intelligences artificielles génératives. Ces liens, apparemment logiques, entraînent des corrélations fallacieuses. Imaginez un peu demander à une IA : « Adam a une pomme et Eve en a deux, combien ont-ils de pommes ? », puis lui demander ensuite : « Ada a une pomme et Evan en a deux, combien ont-ils de pommes ? » et obtenir des réponses différentes ! Pour un enfant, il parait clair que la présence d’Adam plutôt qu’Ada dans l’énoncé du problème ne change pas la réponse. Pour une IA, ce n’est pas si simple.

Comment se fait-il que nous arrivions à comprendre instantanément qu’il s’agit là de corrélations fallacieuses, là où les IA peuvent manifestement se laissent berner ?

Ce problème n’est pas anecdotique, puisque certains types d’IA sujettes à ces méprises logiques sont utilisés pour des systèmes critiques de sécurité informatique. Elles sont vulnérables à un type d’attaque appelé parfois apprentissage antagoniste ou « adversarial attacks ».

Pour pallier au problème, les chercheurs développent des méthodes qui permettent de corriger les processus d’apprentissage des IA en identifiant les caractéristiques parasites qui mènent à des corrélations fallacieuses.

Comment les IA de type « GPT » apprennent-elles des corrélations fallacieuses ?

Pour comprendre comment les « GPT », ces IA qui semblent si prometteuses, se prennent les pieds dans le tapis des corrélations fallacieuses, il faut comprendre comment elles fonctionnent.

Parmi les modèles évalués dans la publication de septembre 2024 d’Apple, il y a GPT-4o, alors dernière création de la société OpenAI. Derrière le succès du GPT-4o, il y a un réseau de neurones Transformeur-Génératif-Pré-entraîné (les fameux GPT).

Génératif car il vise à générer du texte, préentraîné car il peut être réentraîné pour traiter des corpus documentaires spécialisés : contrats, composition mathématique ou analyse de code logiciel par exemple.

Les GPT appartiennent une plus grande famille de modèles appelés grands modèles de langage (LLM pour Large Language Model). Les LLM ont contribué à transformer les interactions humain-machines. Ils permettent à l’utilisateur d’interagir avec la machine via des instructions en langage naturel, appelées « prompts ». Ainsi, « écris-moi un article pour The Conversation sur le thème de l’IA Générative » est une instruction valide. En retour, le LLM répondra lui aussi en langage naturel, mais l’article en question ne serait pas publié car cela serait contraire à la charte éditoriale de The Conversation !

Pour préentraîner, les modèles, les chercheurs d’OpenIA ont utilisé un jeu de séquences de texte (de l’ordre du trillion de mots). Puis, à la manière d’un jeu de devinette, le transformeur doit analyser les séquences dont une partie est masquée, et prédire le contenu manquant. À chaque essai, les paramètres du modèle sont réajustés pour corriger la prédiction, c’est l’apprentissage.

Après l’entraînement, les paramètres appris permettent de représenter numériquement les relations sémantiques entre les mots (c’est le modèle de langage). Pour répondre à un utilisateur (c’est l’inférence), c’est le même processus : analyser la séquence (le prompt), prédire le mot suivant, puis le suivant, puis le suivant, etc.

Pour un utilisateur étranger au mécanisme à l’œuvre, le résultat sera bluffant, mais une fois encore, il ne s’agit que d’intelligence simulée par une machine. La syntaxe semble exacte, le raisonnement logique, les applications infinies : mathématiques, littérature, histoire ou géographie. Il ne faudra pas longtemps pour que les LLM se mettent à générer les copies des élèves, les mémoires des étudiants, ou soulager les chercheurs dans l’exécution de tâches fastidieuses.

Pourquoi est-ce dangereux en pratique ?

S’il existe des liens fallacieux dans les séquences d’entraînement, ces derniers seront intégrés lors de la phase d’apprentissage et régénérés dans la phase d’inférence. Ce phénomène de « corrélation fallacieuse » ne concerne pas que les LLM, mais plus globalement les réseaux de neurones profonds utilisant de grandes quantités de données à l’entraînement.

Dans le domaine de la sécurité informatique, des chercheurs avaient déjà alerté en janvier 2024 sur des symptômes similaires pour des LLM spécialisés dans la recherche de vulnérabilités logicielles : leur recherche montre comment une modification des noms de variables, pourtant sans impact sur la logique du code analysé, vient affecter jusqu’à 11 % la capacité du modèle à correctement identifier du code vulnérable. Tout comme dans le cas d’une modification des prénoms dans l’énoncé du problème mathématique des pommes ci-dessus, l’un des LLM audités a par exemple appris à associer les fonctions faisant appel à des variables nommées « maVariable » (souvent donné dans les exemples adressés aux débutants) et leur vulnérabilité. Pourtant, il n’existe aucune relation de cause à effet entre le nom de cette variable et la sûreté du logiciel. La corrélation est fallacieuse.

Ces LLM sont aujourd’hui utilisés dans les entreprises pour relire le code écrit par des développeurs, supposés garantir la détection des bugs logiciels. Les IA permettent d’identifier les vulnérabilités ou les comportements malveillants en sécurité informatique, ce travail d’analyse est donc crucial. Sans cela, un attaquant subtil pourrait profiler le système de détection pour identifier ces biais, le manipuler et jouer sur ces derniers pour le contourner.

C’est pourquoi, à l’instar des travaux sur l’analyse de code source, nous sommes en train d’explorer l’application des méthodes d’inférence causale pour améliorer la robustesse des réseaux de neurones utilisés par les systèmes de détection d’intrusions dans les réseaux informatiques.

Les travaux de Judea Pearl, prix Turing d’Informatique 2011, indiquent en effet que sous certaines conditions, il est possible de distinguer les corrélations probablement issues d’une relation causale de celles qui sont fallacieuses.

En travaillant sur un système de détection d’intrusions, outil qui surveille le trafic réseau pour détecter des activités suspectes, il est possible d’identifier les corrélations qui pourraient être à l’origine de biais. Nous pouvons ensuite les perturber (à l’instar d’un changement de prénom) et entraîner à nouveau le modèle de détection. Mathématiquement, la corrélation fallacieuse se retrouve marginalisée dans la masse d’exemples perturbés et le nouveau modèle est dé-biaisé.

L’IA est un outil, ne le laissons pas penser à notre place !

Qu’elles soient génératives ou non, les IA ayant appris des corrélations fallacieuses exposent leurs utilisateurs à des biais plus ou moins importants. Si les corrélations fallacieuses peuvent apparaître amusantes de par leur absurdité, elles peuvent également être source de discriminations.

Plus globalement, les récentes avancées en apprentissage profond, qui vont bien au-delà des IA génératives, bénéficient et vont bénéficier à de nombreux domaines, dont la sécurité informatique.

Néanmoins, bien que prometteuses, ces IA doivent être reconsidérées à leur juste place : elles peuvent certes permettre d’augmenter les capacités d’expertise, mais aussi induire des aveuglements dont les conséquences peuvent être dramatiques si l’on en vient à déléguer notre capacité de penser à des algorithmes.

Ainsi, il convient de nous éduquer au fonctionnement de ces systèmes — et à leurs limites — pour ne pas les suivre aveuglément. Le problème n’est pas tant l’absurdité d’un changement de prénom provoquant une baisse de performance, que le crédit que nous pouvons accorder au contenu généré par une IA.The Conversation

Pierre-Emmanuel Arduin, Maître de conférences en informatique, Université Paris Dauphine – PSL et Myriam Merad, Directeur de Recherche CNRS - Prévention des risques de catastrophe, sûreté, sécurité, résilience, responsabilité sociétale - Aide à la décision, Université Paris Dauphine – PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Protéger les données, un impératif stratégique pour les éditeurs de veille

datacenterr

Par Arnaud Marquant, directeur des opérations chez KB Crawl SAS

Pour les éditeurs de solutions de veille, la Journée mondiale de la sauvegarde des données informatiques, ce 31 mars, rappelle l’importance cruciale de la protection des informations, particulièrement dans un monde marqué par l’instabilité géopolitique et les cyberattaques.

Jamais, sans doute, la question de la sécurisation des données n’a-t-elle été aussi cruciale. Alors que le monde traverse actuellement des crises géopolitiques majeures, la protection de l’information est devenue une priorité absolue pour les entreprises et les gouvernements. Cette réalité s’impose avec une acuité particulière aux éditeurs de solutions de veille stratégique, dont les outils traitent quotidiennement des volumes massifs de données sensibles. Confrontés à la montée des menaces et aux exigences croissantes des régulations (RGPD, Cloud Act, normes ISO…), les éditeurs de veille doivent démontrer un engagement sans faille en matière de sécurisation et de résilience des données qu’ils manipulent.

La donnée, un actif stratégique en pleine mutation

L’explosion des volumes de données (de 64 zettaoctets en 2020 à 149 zettaoctets en 2024, à l’échelle mondiale) a profondément modifié la gestion de l’information au sein des entreprises. Dans le domaine de la veille, ces évolutions sont d’autant plus marquantes que les données collectées et traitées sont non seulement nombreuses, mais également sensibles et souvent confidentielles.

Autre élément de contexte : ces dernières années, les cyberattaques visant les infrastructures de données se sont multipliées, incitant les éditeurs de veille à renforcer drastiquement leurs protocoles de sécurité. Dans de telles conditions, la question n’est plus seulement de stocker les données, mais aussi de les protéger contre les intrusions, la corruption ou la fuite d’informations critiques. Ainsi, les entreprises spécialisées dans la veille doivent désormais intégrer des solutions avancées de cybersécurité, incluant le chiffrement systématique des données, la gestion rigoureuse des accès et la mise en place de systèmes de surveillance continue.

En parallèle, la gestion du cycle de vie des données est devenue un enjeu majeur. Une information obsolète peut encombrer les serveurs et ralentir les performances des outils de veille. C’est pourquoi les éditeurs les plus avisés intègrent des mécanismes de nettoyage automatique des bases de données, supprimant les informations périmées tout en gardant celles qui conservent une valeur analytique ou stratégique.

L’infrastructure de stockage, un levier de confiance et de performance

Ce n’est pas tout. Pour un éditeur de solutions de veille, la maîtrise de l’infrastructure de stockage est un élément clé de la stratégie de sécurisation des données. Il ne s’agit pas seulement de garantir un stockage fiable, mais aussi d’assurer la disponibilité et l’intégrité des données en toute circonstance.

Les meilleurs acteurs du secteur adoptent des approches multisites, avec des data centers redondants et des systèmes de sauvegarde synchronisée en temps réel. Cette organisation permet d’assurer une reprise rapide des services en cas d’incident majeur, grâce à des Plans de Reprise d’Activité (PRA) qui réduisent au maximum les interruptions de service. Certains éditeurs proposent même des offres premium permettant une bascule instantanée d’un data center à un autre, garantissant une continuité opérationnelle totale pour leurs clients.

Un autre enjeu crucial est celui de la souveraineté des données. Dans un monde où la dépendance aux infrastructures étrangères pose des questions stratégiques, de plus en plus d’éditeurs font le choix de centres de données situés en France ou en Europe, garantissant ainsi un meilleur contrôle sur les conditions de stockage et une protection accrue contre les réglementations extraterritoriales comme le Cloud Act américain. Cette approche est devenue un critère de différenciation fort pour les entreprises soucieuses de la confidentialité et de la maîtrise de leurs données.

Au moment où les menaces cybernétiques et les incertitudes géopolitiques s’intensifient, les éditeurs de solutions de veille stratégique n’ont d’autre choix que d’adopter une politique exemplaire en matière de protection des données. Au-delà des enjeux techniques, il en va de leur crédibilité et de leur pérennité sur un marché où la confiance des clients est primordiale.

Garantir la sécurité des informations, mettre en place des infrastructures robustes et assurer une gouvernance rigoureuse des données sont autant d’impératifs devant guider l’évolution des solutions de veille. À l’ère du numérique, protéger la donnée ne relève plus du simple impératif légal, mais constitue un levier stratégique majeur pour toute entreprise souhaitant se développer en toute sérénité.

Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs

microsoft

Par Kevin Witzenberger, Queensland University of Technology et Michael Richardson, UNSW Sydney

En déplaçant les coûts des grands modèles d’IA générative sur les utilisateurs, les grandes entreprises de la tech cherchent à trouver un modèle d’affaire viable.

Au delà, une stratégie consisterai à faire porter les calculs non par leurs centres de données, comme c’est le cas actuellement, mais par les ordinateurs, smartphones et autres montres connectées des utilisateurs. Un changement de fonctionnement qui ne serait pas sans conséquences.


Après avoir passé un an à intégrer l’IA générative dans ses produits phares, Microsoft tente de rentrer dans ses frais en augmentant les prix, en insérant des publicités dans les produits et en annulant les baux de centres de données. Google prend des mesures similaires, en ajoutant des fonctionnalités d’IA incontournables à son service Workspace tout en augmentant les prix.

La tendance est-elle en train de s’inverser ? Les investissements massifs des dernières années dans l’IA générative vont-ils s’amenuiser ?

La situation n’est en fait pas si simple. Les entreprises technologiques sont pleinement engagées dans le déploiement d’outils d’IA générative, mais elles cherchent encore un modèle d’affaire viable – en l’occurrence, comment faire payer les utilisateurs pour ces services.

Évolution des coûts

La semaine dernière, Microsoft a annulé sans préavis certains baux de centres de données. Cette décision fait suite à l’augmentation des prix d’abonnement à sa suite phare de logiciels, 365 – jusqu’à 45 % d’augmentation. Microsoft a également lancé des versions de certains produits désormais financées par la publicité.

Le PDG du géant de la technologie, Satya Nadella, a également suggéré récemment que l’IA n’a jusqu’à présent pas produit beaucoup de valeur.

Ces actions peuvent sembler étranges dans le contexte actuel de battage médiatique autour de l’IA, qui s’accompagne d’annonces retentissantes telles que le projet de centre de données Stargate d’OpenAI, d’une valeur de 500 milliards de dollars.

À y regarder de plus près cependant, rien dans les décisions de Microsoft n’indique un recul vis-à-vis de la technologie en elle-même. Il s’agirait plutôt d’un changement de stratégie visant à rentabiliser le développement des systèmes d’IA en répercutant les coûts de manière discrète sur les consommateurs.

Le coût de l’IA générative

L’IA générative coûte cher. OpenAI, le leader du marché avec 400 millions d’utilisateurs mensuels actifs, dépense sans compter. L’année dernière, OpenAI a réalisé un chiffre d’affaires de 3,7 milliards de dollars, mais a dépensé près de 9 milliards de dollars, soit une perte nette d’environ 5 milliards de dollars.

Microsoft est le principal investisseur d’OpenAI, et fournit actuellement à l’entreprise des services de cloud computing, de sorte que les dépenses d’OpenAI coûtent également de l’argent à Microsoft.

Alors, pourquoi l’IA générative est-elle si coûteuse ? Outre la main-d’œuvre humaine, deux types de coût sont associés à ces modèles d’IA : la phase d’apprentissage (construction du modèle) et celle d’inférence (utilisation du modèle).

Si l’apprentissage représente une dépense initiale souvent importante, les coûts d’inférence augmentent avec le nombre d’utilisateurs. De surcroît, plus le modèle d’IA générative est grand, plus son exécution coûte cher.

Des alternatives plus petites et moins chères

Ainsi, une unique requête sur les modèles les plus avancés d’OpenAI peut coûter jusqu’à 1 000 dollars US, rien qu’en puissance de calcul. En janvier, le PDG d’OpenAI, Sam Altman, a déclaré que même l’abonnement de l’entreprise à 200 dollars par mois n’était pas rentable. En d’autres termes, l’entreprise perd de l’argent avec ses modèles gratuits, mais aussi avec ses modèles payants.

Photo aérienne d’un grand bâtiment industriel au milieu de champs verdoyants
Le coût croissant de l’exploitation des centres de données pour les produits d’IA générative pousse les grandes entreprises de la tech à chercher des moyens de rentrer dans leurs frais. Aerovista Luchtfotografie/Shutterstock

En pratique, l’apprentissage et l’inférence ont généralement lieu dans des centres de données. Les coûts sont élevés car les puces nécessaires à leur fonctionnement sont chères, mais c’est aussi le cas de l’électricité, des systèmes de refroidissement et de l’amortissement du matériel.

À ce jour, une grande partie des progrès en matière d’IA générative a été obtenu en visant toujours plus grand. OpenAI décrit sa dernière mise à jour comme un « modèle gigantesque et coûteux ». Néanmoins, de nombreux signes indiquent aujourd’hui que cette approche – qui consiste à faire des modèles de plus en plus grand à tout prix – pourrait même ne pas être nécessaire.

Par exemple, la société chinoise DeepSeek a fait des vagues au début de l’année en révélant qu’elle avait construit des modèles comparables aux produits phares d’OpenAI pour une infime partie du coût d’apprentissage. De même, des chercheurs de l’Allen Institute for AI (Ai2), à Seattle, et de l’université de Stanford affirment avoir entraîné un modèle pour 50 dollars seulement.

Pour résumer, il se pourrait bien que les systèmes d’IA développés et fournis par les géants de la tech ne soient pas rentables. Les coûts importants liés à la construction et à l’exploitation des centres de données sont une des raisons principales.

Que fait Microsoft ?

Après avoir investi des milliards dans l’IA générative, Microsoft tente de trouver le modèle économique qui rendra cette technologie rentable.

Au cours de l’année écoulée, le géant de la technologie a intégré le chatbot d’IA générative Copilot dans ses produits destinés aux consommateurs et aux entreprises. Et il n’est plus possible d’acheter un abonnement Microsoft 365 sans Copilot. En conséquence, les abonnés constatent des hausses de prix importantes.

Comme nous l’avons vu, exécuter les calculs nécessaires au fonctionnement des modèles d’IA générative dans les centres de données est coûteux. Il est probable que Microsoft cherche donc des moyens d’effectuer davantage ce travail directement sur les appareils des utilisateurs — ce qui déplace le coût du matériel et de son fonctionnement.

Un indice fort de cette stratégie est le petit bouton que Microsoft a commencé à mettre sur ses claviers l’année dernière, où une touche dédiée à Copilot est apparue.

Apple poursuit une stratégie similaire : la plupart des services d’IA d’Apple ne sont pas disponibles sur le cloud. Au lieu de cela, seuls les nouveaux appareils de la marque offrent des capacités d’IA. Le fait que les calculs soient effectués directement sur l’appareil commercialisé est vendu comme une fonction visant à préserver la confidentialité des données, qui n’ont pas besoin de quitter l’environnement local de l’utilisateur.

Pousser les coûts vers l’utilisateur final

Il y a des avantages à pousser le travail d’inférence de l’IA générative sur les ordinateurs, smartphones et autres montres intelligentes. Cette technique s’appelle le « edge computing », car les calculs sont faits sur les bords, à l’extrémité du réseau.

Elle peut permettre de réduire l’énergie et les ressources de calculs utilisées dans les centres de données et de diminuer le gaspillage des centres de données. Ceci a pour effet de diminuer l’empreinte carbone, thermique et hydrique de l’IA générative ; et pourrait également réduire les besoins en bande passante et accroître la confidentialité des utilisateurs.

Mais il y a aussi des inconvénients. L’edge computing transfère les coûts de calcul aux consommateurs, ce qui stimule la demande de nouveaux appareils — en dépit des préoccupations économiques et environnementales qui visent à décourager le renouvellement de nos appareils. Avec l’apparition de modèles d’IA générative plus récents et plus conséquents, cette tendance pourrait s’intensifier.

Photo des mains d’une personne triant des déchets électroniques
Effectuer les calculs d’inférence directement sur l’appareil de l’utilisateur pourrait augmenter le problème des déchets électroniques. SibFilm/Shutterstock

Et les problèmes ne s’arrêtent pas là. Quand les déchets électroniques sont répartis sur tout le territoire, plutôt que concentrés dans un centre de données, le recyclage est encore plus difficile. On peut aussi questionner un accès équitable aux outils d’intelligence artificielle, en particulier dans le domaine de l’éducation, si la qualité des calculs dépend du prix de votre smartphone.

Enfin, si l’edge computing peut sembler « décentralisée », elle peut également conduire à des monopoles commerciaux sur le matériel informatique. Dans le cas où une poignée d’entreprises seulement contrôlerait cette transition vers des IA génératives « délocalisées » sur nos appareils électroniques individuels, la décentralisation risque de ne pas être aussi ouverte qu’il y paraît.

À mesure que les coûts des infrastructures d’IA augmentent et que le développement des grands modèles évolue, une stratégie attrayante pour les entreprises d’IA est de répercuter les coûts sur les consommateurs. Mais si les grands utilisateurs, tels que les ministères et les universités, pourraient faire face à ces coûts, de nombreuses petites entreprises et consommateurs individuels pourraient avoir des difficultés.The Conversation

Kevin Witzenberger, Research Fellow, GenAI Lab, Queensland University of Technology et Michael Richardson, Associate Professor of Media, UNSW Sydney

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Covid, réseaux sociaux : comment la culture complotiste a fait son nid en France

 

covid

Par Olivier Guyottot, INSEEC Grande École

Selon un certain nombre d’enquêtes, l’épidémie mondiale de Covid-19, associée à l’usage des réseaux sociaux, aurait joué un rôle clé dans la diffusion de la culture complotiste. Désormais, cette dernière n’est plus strictement minoritaire. En 2023, 51 % des électeurs de Marine Le Pen et 50 % de ceux de Jean-Luc Mélenchon déclaraient croire aux théories du complot. Aux États-Unis, 55 % des citoyens adhèrent à ces théories.


Le Covid-19 a donné lieu à une multiplication des thèses complotistes en France et partout dans le monde. On peut citer par exemple celle affirmant que le virus a été volontairement élaboré en laboratoire ou celle imputant le développement de la pandémie au déploiement de la 5G.

Les thèses complotistes (ou conspirationnistes) ne sont pas nouvelles et de nombreux chercheurs ont mis en lumière, en particulier depuis les années 2000, les modes de structuration, les mécanismes rhétoriques, les logiques d’adhésion ou les conditions du développement de la théorie du complot. La pandémie mondiale a néanmoins semblé marquer comme, avant elle, les attentats du 11 septembre 2001 une accélération de sa diffusion.

L’étude « YouGov Cambridge Globalism Project – Conspiracy Theories » montre ainsi qu’en 2021, 28 % des personnes en France pensaient qu’une minorité d’élite gouverne secrètement le monde, contre 21 % juste avant l’apparition du Covid. Deux ans plus tard, une enquête menée par l’IFOP et le site Amb-USA.fr montre que 29 % des Français croient toujours en l’efficacité du traitement anti-Covid à la chloroquine du professeur Raoult et que 35 % adhèrent désormais aux théories du complot (ces données atteignent respectivement 39 % et 55 % pour les citoyens des États-Unis).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


C’est la raison pour laquelle nous essayons de comprendre, dans cet article inspiré d’un projet de recherche pour le centre de recherche de l’Inseec Grande École et du groupe d’enseignement supérieur européen OMNES Education, les éléments qui peuvent expliquer une telle progression. Nous mettons notamment en lumière les caractéristiques qui renvoient aux racines historiques de ce phénomène et les attributs qui illustrent les spécificités de ses formes les plus récentes.

Des liens très forts avec les fondamentaux des thèses complotistes passées

Le complotisme politique peut se définir comme une théorie affirmant qu’il existe des minorités, aux activités souterraines et secrètes, qui parviennent à dissimuler la vérité et à déterminer le cours de l’histoire grâce aux complots qu’elles fomentent. Ces complots sont mis en place par une élite qui en tire ainsi profit au détriment des intérêts de la majorité.

La force du complotisme tient dans sa logique. L’absence d’éléments permettant de mettre au jour le complot démontre justement son existence. L’irruption de preuves démontrant son inexistence ne prouve rien, car ces dernières ne font que dissimuler un complot plus large.

Les « Protocoles des sages de Sion », exemple marquant de la théorie du complot, illustrent parfaitement cette logique. Ce soi-disant pacte secret scellé par les juifs pour arriver à dominer le monde est un faux inventé par la police russe au sortir de la Première Guerre mondiale. Pourtant, quand le Times révèle, le 18 août 1921, que ce document est un montage, Jacques Bainville, l’un des dirigeants de l’Action française, justifie malgré tout son existence et affirme :

« Il est possible que les Protocoles ne soient qu’un faux… Et alors… Qu’est-ce que cela prouve au sujet des bolchéviques et des juifs ? Absolument rien. »

La théorie du complot interroge ainsi les conceptions de l’histoire et de la vérité. Pour la chercheuse Valérie Igounet, le complotisme propose

« un récit “alternatif” qui prétend bouleverser de manière significative la connaissance que nous avons d’un événement et donc concurrencer la “version” qui en est communément acceptée, généralement stigmatisée comme “officielle” ».

Le complotisme apparu depuis le Covid ne diffère pas vraiment de ses versions passées et corrobore l’affirmation de Valérie Igounet selon laquelle les thèses se renouvellent « pour l’essentiel par l’actualisation de mythes complotistes préexistants ». Selon les réseaux complotistes, le refus des autorités médicales françaises d’utiliser le traitement à la chloroquine du professeur Raoult pour soigner le Covid n’était ainsi pas un hasard. Ce rejet d’un remède peu coûteux visait en réalité à laisser le champ libre à la commercialisation d’un nouveau vaccin synonyme d’énormes gains financiers pour une industrie pharmaceutique agissant au service de supposés intérêts financiers juifs. Et faisait ainsi écho au mythe antisémite associant les juifs à l’appât du gain.

Les théories du complot post-Covid ont aussi conservé la même logique. Tout élément posant question ou éveillant la surprise est élevé au rang de preuve irréfutable et est perçu comme forcément intentionnel. Loin de proposer une version alternative claire et cohérente au récit des médias traditionnels, le complotisme inspiré par le Covid se nourrit de « coïncidences prétendument troublantes » pour contredire et discréditer la vérité officielle, qu’il s’agisse de l’origine du virus, du port du masque ou des effets secondaires du vaccin.

À l’instar des thèses conspirationnistes portant par exemple sur les origines de la Révolution française, l’affaire Dreyfus ou la Seconde Guerre mondiale, le complotisme lié au Covid possède aussi une importante dimension politique. Les nouvelles théories du complot continuent ainsi d’exercer un pouvoir d’attraction plus fort que la moyenne sur les franges de droite et de gauche les plus extrêmes de l’échiquier politique. Selon l’enquête de 2023 de l’IFOP, 51 % des électeurs de Marine Le Pen à l’élection présidentielle de 2022 et 50 % de ceux de Jean-Luc Mélenchon déclarent ainsi croire aux théories du complot.

L’extrême droite reste un acteur clé du développement de la « complosphère ». À travers, par exemple, les théories complotistes véhiculées par Donald Trump remettant en cause les fondements de la démocratie étatunienne. Ou des plateformes conspirationnistes comme le site consacré aux écrits d’Alain Soral Égalité & Réconciliation (E&R) en France.

Ce que le Covid a révélé de nouveau et spécifique

Mais le complotisme a aussi évolué au moment du Covid avec un élargissement de son audience et une banalisation et une instrumentalisation politique toujours plus fortes.

Le complotisme se distingue des périodes antérieures en raison de ses liens avec Internet à une époque où les réseaux sociaux sont devenus une des principales sources d’information. Pour le chercheur Alessandro Leiduan, les réseaux sociaux ont réduit « le temps nécessaire à l’incubation sociale » des thèses complotistes et ont élargi « l’espace territorial soumis à leur influence ».

Des chercheurs états-uniens ont étudié l’impact des liens entre la pandémie et les réseaux sociaux sur les populations et ont conclu à une perturbation généralisée des structures cognitives et sociales. Face aux incertitudes, les individus se sont majoritairement tournés vers les réseaux sociaux pour s’informer et se rassurer. Ce moment les a rendus plus ouverts au rejet des récits officiels et de la parole des experts.

Pour le sociologue Laurent Cordonier, le succès du complotisme inspiré par le Covid est aussi lié à la peur que ce dernier a générée, à sa médiatisation et au fait qu’il ait affecté les individus dans leur vie quotidienne. Ceux-ci ont eu à la fois peur pour leur santé et pour leur emploi tout en ayant la sensation de ne rien pouvoir contrôler. La forte médiatisation de la crise a augmenté ce que Laurent Cordonier nomme « la surface de contact » entre la réalité vécue par les gens et les théories conspirationnistes.

Les questions et les incertitudes, légitimes, qui ont entouré le Covid ont aussi changé le rapport des citoyens à la parole scientifique et à la parole publique. Comme le montre Alessandro Leiduan, dans un entretien « La théorie du complot à l’heure de la pandémie de Covid », ces doutes ont été la source d’une méfiance généralisée à l’encontre des scientifiques et des autorités, qui perdure aujourd’hui. Ce faisant, la sensibilité aux thèses complotistes dépasse désormais les cercles des individus psychologiquement instables, ou en situation de vulnérabilité, et des groupuscules politiques et concerne une frange plus large de la population.

Au-delà de sa banalisation, le complotisme est aussi devenu « un nouvel outil de disqualification de la parole adverse », comme le souligne la chercheuse Camille Némeau. Depuis le Covid, l’accusation de complotisme est désormais reprise par l’ensemble des forces politiques de tous bords pour discréditer opposants et contradicteurs. Cette évolution témoigne de l’importance prise par ce phénomène. Mais aussi de son instrumentalisation politique croissante et des difficultés qu’il faudra surmonter pour le voir reculer.The Conversation

Olivier Guyottot, Enseignant-chercheur en stratégie et en sciences politiques, INSEEC Grande École

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.