Technomedia

Numérique · médias · sciences · intelligence artificielle

Et si votre prochain collègue était un agent IA ?

AIAgent

Par Stéphanie Gauttier, Grenoble École de Management (GEM)

Les agents d’IA sont capables d’effectuer différentes tâches de façon plus ou moins autonome. À mesure qu’ils sont intégrés à nos outils et à nos échanges personnels et professionnels, c’est toute la société qui doit décider ce qu’elle souhaite déléguer… et ce qu’elle préfère préserver.


En arrivant au bureau, un mail vous attend. Votre client voulait une mise à jour sur sa commande. Mais un agent IA a déjà consulté les données de livraison et envoyé un message de suivi. Vous n’avez rien eu à faire.

Ce n’est pas de la science-fiction. Les agents IA sont sur le point de transformer en profondeur nos façons de travailler. L’entreprise américaine de conseil Gartner estime que 15 % des décisions professionnelles quotidiennes seront prises par des agents IA d’ici 2028, et 33 % des entreprises utiliseront des agents IA (contre 1 % en 2024). Ces agents ne sont pas de simples assistants mais des entités capables d’agir, décider et parfois collaborer entre elles. Leur émergence pose des questions fondamentales sur le rôle des humains au travail.

Que sont les agents IA ?

Un agent IA est un logiciel (semi)-autonome qui utilise des techniques d’intelligence artificielle pour percevoir, prendre des décisions, accomplir des tâches et atteindre des objectifs prédéterminés, dans des environnements physiques ou numériques. Un agent IA peut agir pour le compte d’un utilisateur ou d’un autre système, par exemple un autre agent logiciel, en concevant son processus de travail et utilisant les outils disponibles.

Certains agents suivent une logique strictement scriptée, tandis que d’autres sont dotés d’une plus grande autonomie : ils déterminent eux-mêmes le bon moment pour agir en fonction du contexte, des objectifs et des informations disponibles. C’est cette autonomie qui caractérise l’« IA agentique ». Cette forme particulièrement autonome d’agent IA, qui ouvre de nouvelles possibilités mais soulève également des enjeux inédits en matière de conception, de contrôle et d’usage. Tous les agents IA ne forment pas une IA agentique, bien que la tendance aille en ce sens.

Par exemple, un « agent IA agentique » pourrait envoyer de lui-même un message aux clients de manière proactive si un message de retard du fournisseur est arrivé. Dans le contexte européen, une telle autonomie n’est pas interdite, mais elle relève des obligations de supervision humaine et de transparence imposées par l’AI Act (2024). Dans ce cadre, supervision ne signifie pas validation systématique de chaque action, mais capacité à tracer, contrôler et reprendre la main à tout moment.

Le marché mondial des agents IA, agentiques ou non, devrait représenter 47,1 milliards de dollars en 2030, 1,896 milliard de dollars en France en 2030.

Les agents IA s’appuient sur différentes briques d’intelligence artificielle : compréhension de requêtes, recherche d’informations, planification, action dans les systèmes, génération de texte. Parmi ces briques, les grands modèles de langage (LLM) jouent un rôle central, mais sont désormais utilisés par les agents IA de manière autonome, sans intervention humaine.

Les agents IA : vers une hyper automatisation du travail ?

Les agents IA fonctionnent en continu, sans fatigue ni pause. Ils permettent aux organisations d’étendre considérablement leur capacité d’action. À ce titre, ils incarnent la promesse d’une productivité accrue et d’une réduction des coûts.

Mais cette automatisation radicale réactive des craintes anciennes : déqualification, dilution des responsabilités, dépendance technologique, perte de contrôle. Ainsi, 75 % des citoyens français pensent que l’IA détruira plus d’emplois qu’elle n’en créera, et 63 % refusent aujourd’hui de se former à ces outils selon le Labo Société Numérique 2024. Aux États-Unis, seuls 23 % des adultes pensent que l’IA améliorera leur façon de travailler, contre 73 % des experts de l’IA.

La rupture est donc aussi sociale que technologique.

Les agents d’IA permettront-ils d’innover davantage ?

Automatiser les processus peut figer une manière de faire, plutôt que d’innover. Selon Eril Brynjolfsson, le véritable potentiel de l’IA réside dans son pouvoir d’augmenter les capacités humaines pour faire de nouvelles choses, pas de les remplacer.

Ainsi, plutôt que de remplacer les humains, les agents IA pourraient élargir leur champ d’action créatif, en leur suggérant des idées nouvelles, en automatisant l’exploration de variantes ou en testant rapidement des pistes qu’un humain seul n’aurait pas le temps d’examiner… par exemple pour ouvrir la voie à des avancées majeures, notamment dans le domaine de la biomédecine.

Mais pour cela, il faut qu’ils soient dignes de confiance. Le fait que 93 % des employés de bureau doutent encore de la fiabilité des résultats produits par l’IA ne relève pas seulement d’un problème d’adoption : cette méfiance renvoie à des failles concrètes des systèmes actuels, qu’il s’agisse d’erreurs, de biais, ou d’un manque de traçabilité et d’explicabilité.

Quelle responsabilité pour les agents d’IA ?

Face à des systèmes capables d’agir de manière autonome tout en faisant des erreurs, qu’il s’agisse de biais, de décisions inadaptées ou d’hallucinations, une question demeure : qui est responsable du résultat ?

Les agents, par nature, ne peuvent ressentir ni assumer la responsabilité de leurs actes. Pourtant, leur rôle peut rester invisible aux yeux des utilisateurs : les employés peuvent ignorer qu’un agent a pris une décision à leur place, ou se retrouver démunis face à un raisonnement biaisé qu’ils ne comprennent pas. Un autre risque tient à l’imprécision des consignes données par l’utilisateur, ou à la manière dont l’agent les comprend. Une interprétation erronée peut amener ce dernier à sélectionner un outil inadéquat ou à en faire un usage détourné, avec des effets indésirables. Ce type de dérive est parfois qualifié d’ « hallucination d’appel de fonction ». Enfin, une étude publiée dans Nature montre que les agents IA sont plus enclins que les humains à suivre des instructions manifestement non éthiques, ce qui demande la mise en place de garde-fous prohibitifs. Lorsque les agents travaillent en mode agentique, en toute autonomie et auto-orchestration, ces questions ont d’autant plus de poids.

Ce sont donc les organisations qui doivent prendre l’initiative de mettre en place des mécanismes de gouvernance robustes, pour assurer à la fois la conformité éthique des usages et le bien-être des salariés exposés à ces systèmes. Les actions des agents IA peuvent aussi des conséquences imprévues, dont les organisations restent responsables, ce qui impose de se doter d’un cadre de gouvernance adéquat. Cela suppose des actions concrètes : une gouvernance robuste de l’IA dans l’entreprise, un niveau suffisant de transparence, et des cadres réglementaires établis.

En pratique, il est essentiel de définir explicitement les responsabilités respectives des humains et des machines, et de former les employés — notamment à la littératie algorithmique — pour leur permettre d’agir en connaissance de cause. Il faut également permettre une collaboration contradictoire, avec un agent IA qui interroge et affine les recommandations de l’agent humain.

D’un point de vue technique, le recours à des audits indépendants et la mise en place de dispositifs d’alerte en cas de dysfonctionnement constituent des garanties indispensables pour un contrôle pertinent des agents IA.

Collaborer… sans humains ? Les limites d’un avenir de systèmes multiagents

Certaines entreprises envisagent de faire collaborer plusieurs agents IA spécialisés pour atteindre des objectifs communs : ce sont les systèmes multiagents. Par exemple, des agents IA pourraient travailler ensemble pour suivre votre réclamation client sur votre dernière commande en ligne, faire des recommandations, remonter la solution, et ajuster votre facture.

Pour y arriver, il reviendra à l’entreprise de bien orchestrer la collaboration entre les agents IA. Elle peut créer un réseau centralisé, avec un serveur qui contrôle les actions et informations des agents et qui peut prendre la main sur le système ; ou alternativement, un réseau décentralisé où les agents IA contrôlent leurs interactions entre eux. Outre les risques d’échec de coordination, l’organisation peut être confrontée à des conflits informationnels entre agents IA et des collusions, et des risques de sécurité.

Plus l’autonomie des agents est élevée, plus il devient essentiel de maintenir une forme de contrôle sur les tâches accomplies. Le règlement européen sur l’intelligence artificielle insiste sur l’importance qu’un humain dans la boucle puisse intervenir pour corriger, interrompre ou valider les actions de l’IA.

Mais le marché de l’agentique propose une autre solution. Des agents gardiens qui peuvent surveiller, guider, et intervenir dans le comportement des autres agents lorsque nécessaire. Ces agents-gardiens, ou contremaîtres, représenteraient 10 à 15 % du marché de l’IA agentique.

Faut-il alors imaginer un futur où les humains deviendraient les contrôleurs des contrôleurs ? Or, ce rôle de supervision sans implication directe dans l’action est loin d’être satisfaisant : il est souvent associé à une baisse de l’engagement et de l’épanouissement professionnel. Pire encore, plus nous déléguons les tâches formatrices à des systèmes automatisés, plus il devient difficile pour les humains d’intervenir efficacement lorsque l’IA échoue, faute d’entraînement ou de compréhension fine de la tâche.

La prochaine fois que vous engagerez une nouvelle tâche… prenez un instant pour vous demander : est-ce vous qui l’accomplirez encore d’ici peu, ou un agent IA à votre place ? Et surtout, en quoi cela changerait-il le sens que vous tirerez de votre travail ? À mesure que les agents IA s’installent dans nos outils et nos échanges, c’est toute la société qui doit décider de ce qu’elle souhaite déléguer… et de ce qu’elle préfère préserver.The Conversation

Stéphanie Gauttier, Professeur Associée en Systèmes d'Information, Responsable de l'équipe de recherche 'Systèmes d'Information pour la société' Chaire Digital Organization & Society, Grenoble École de Management (GEM)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

"Le désert de nous-mêmes" : la critique radicale d’Éric Sadin face aux illusions de l’intelligence artificielle

IA

 

Dans son nouvel essai Le désert de nous-mêmes, le philosophe Éric Sadin analyse la montée en puissance de l’intelligence artificielle et ses effets sur nos sociétés. Entre pseudo-langage hégémonique, prolifération des deepfakes et automatisation des tâches intellectuelles, il met en garde contre un projet non démocratique qui menace notre rapport au monde et appelle à une réflexion critique urgente.

L’irruption de l’intelligence artificielle dans nos vies quotidiennes, personnelles comme professionnelles, au creux de nos smartphones avec les applications de ChatGPT, Claude ou Gemini, va bien au-delà d’une simple nouvelle technologie. Elle constitue un tournant intellectuel et créatif qui bouleverse des pans entiers de nos sociétés et sur lesquels il est urgent de s’interroger.

Là où Donald Trump et de nombreux PDG de sociétés d’IA de la Silicon Valley – mais pas tous – rêvent de se développer sans frein, sans garde-fous, sans modération, sans filtre, peu importent les conséquences, il faut urgemment opposer une lecture critique, la seule à même d’imaginer un cadre.

Dans son nouveau livre, « Le désert de nous-mêmes », le philosophe Eric Sadin, qui décrypte depuis plusieurs années les dessous et les enjeux des technologies numériques qui irriguent et changent nos sociétés, fait cette lecture critique de l’IA à l’heure où nombreux sont ceux qui, par ignorance ou cynisme, bad
ent ces nouveaux outils.


Eric Sadin

Ce n’est pas la première fois que l’écrivain, qui est à l’initiative du Contre-sommet de l’IA de février 2025, aborde l’intelligence artificielle. En 2018, quatre ans avant le phénomène ChatGPT, il décortiquait « L’Intelligence artificielle ou l’enjeu du siècle : anatomie d’un antihumanisme radical » et, en 2023, avec « La vie spectrale : penser l’ère du métavers et des IA génératives », il s’intéressait au métavers qui avait suscité un emballement monstre – Facebook s’est rebaptisée Meta – qui s’est essoufflé.

Avec son nouveau livre, il dégage les trois grandes conséquences de l’IA : des technologies générant un pseudo-langage appelé à devenir hégémonique ; l’impossibilité de déterminer l’origine des images – surtout avec la facilité de création de deepfake – ; et enfin la capacité des IA à réaliser plus rapidement que les humains un nombre croissant de tâches à haute compétence cognitive – même si l’IA générale qui surpassera l’Homme n’est pas encore là.

En cinq chapitres denses, Eric Sadin décrit l’évolution de notre perception de l’IA – l’enthousiasme des débuts a laissé place à des inquiétudes grandissantes – souligne combien l’IA n’est aucunement un projet démocratique et, surtout, appelle au sursaut pour que l’humanité continue à exercer sans les déléguer ses facultés pour façonner le monde de demain.


Article publié dans La Dépêche du Midi du dimanche 28 septembre 2025

Lunettes connectées : le nouvel eldorado des géants de la tech

 

meta

En 2025, le marché des lunettes connectées explose : Meta, Apple, Google et d’autres multiplient les annonces pour faire de ces accessoires high-tech la nouvelle interface du quotidien, alors que les ventes de smartphones plafonnent.

Après avoir saturé le marché du smartphone – qui plafonne faute de nouveautés réellement significatives qui pousseraient les utilisateurs à changer leur mobile –– les géants du numérique misent désormais sur… nos yeux. Meta, Apple, Google, Samsung et d’autres redoublent d’efforts pour transformer les lunettes connectées en produit grand public, avec l’ambition d’en faire l’interface quotidienne entre le monde réel et le numérique.

Le mouvement s’est accéléré cette année. Meta (maison mère de Facebook), déjà leader avec ses Ray-Ban Meta, a dévoilé les Ray-Ban Display, des lunettes dotées d’un écran couleur intégré. Plus épaisses que le modèle classique mais toujours légères (69 g), elles affichent discrètement des notifications ou des contenus AR (réalité augmentée). L’autonomie atteint six heures, extensible à 30 heures via un étui de recharge. Les verres Transitions compatibles avec une correction optique, l’intégration audio et la capture photo et vidéo confirment l’objectif de Meta : faire des lunettes une extension naturelle du smartphone.

Un marché en hausse de 110 % à 250 %

Cette offensive s’inscrit dans un marché en plein boom. Selon Counterpoint, les livraisons mondiales de lunettes intelligentes ont bondi de 110 % au premier semestre de cette année. Meta occupe 73 % du marché, loin devant Xiaomi, TCL-RayNeo ou Thunderobot. Surtout, le segment des lunettes dopées à l’intelligence artificielle (IA) – et donc capables de reconnaître des objets, traduire à la volée une conversation ou répondre par assistant vocal – a progressé de plus de 250 % en un an ! Les Ray-Ban Meta AI Glasses y jouent un rôle moteur, grâce à Luxottica qui assure la production et la distribution à grande échelle.

Face à Meta, la concurrence prépare la riposte. Apple planche sur une version plus abordable de son Vision Pro, cette fois sous forme de lunettes, pour démocratiser l’AR. Google, qui avait essuyé un revers il y a quelques années avec ses Glass, revient avec Android XR et l’intégration de Gemini, son IA maison. Samsung a prévu son lancement Galaxy pour 2025, tandis qu’Amazon teste en interne « Jayhawk », un prototype équipé de micros, d’un haut-parleur et d’un écran couleur monoculaire. S’y ajoutent des acteurs spécialisés comme Vuzix, Lenovo ou Microsoft avec HoloLens.

Des fonctionnalités nombreuses et diversifiées

Les fonctions de ces lunettes connectées son nombreuses et se diversifient : affichage de navigation ou d’informations contextuelles, contrôle domotique, transcription et traduction en direct, réseaux sociaux, musique ou encore affichage des directions du GPS. Les modèles haut de gamme visent la réalité augmentée immersive et la productivité professionnelle, quand l’entrée de gamme (80 à 120 €) se limite à l’audio et aux notifications. Les lunettes sportives Oakley Meta Vanguard, ou les Snap Spectacles pour les créateurs de contenus, illustrent aussi une segmentation de ce marché naissant.

Cette dynamique rappelle celle du smartphone il y a quinze ans : miniaturisation, design plus fin, montée en puissance logicielle, apparition de modèles abordables, segmentation par usage (pro, social, gaming, santé).
Mais des freins persistent à commencer par des prix élevés (souvent 500 € à 1 000 €), une autonomie encore limitée en usage intensif, le besoin d’inventer de vrais cas d’usage quotidiens, et l’adaptation aux verres correcteurs.

Mais pour les industriels, les lunettes connectées sont un nouveau relais de croissance face aux ventes de smartphones qui stagnent. Reste à voir si le grand public suivra et acceptera ces lunettes qui peuvent être perçues comme trop intrusives – pour soi et les autres.

Intelligence artificielle : l’OCDE salue des avancées en matière de transparence de la part des concepteurs

datacenter

Alors que des ONG réclament à l’ONU des règles contraignantes pour éviter des dérives irréversibles de l’intelligence artificielle, un rapport de l’OCDE révèle que les grands développeurs de la filière renforcent leurs pratiques de gestion des risques et de transparence.

À New York, lors de l’assemblée générale des Nations unies, un collectif d’ONG et de personnalités a lancé un appel sans détour : il est urgent de définir des « lignes rouges » internationales pour encadrer l’intelligence artificielle. Selon ce texte, sans cadre juridique contraignant, l’humanité s’expose à des périls majeurs, allant de pandémies artificielles à la manipulation de masse, en passant par des déstabilisations géopolitiques ou la perte de contrôle sur des systèmes autonomes.

Les signataires s’inspirent des précédents historiques ayant conduit à l’interdiction des armes biologiques ou du clonage humain, et plaident pour l’instauration de limites « claires et vérifiables » à certains usages jugés universellement inacceptables en raison de risques « extrêmes et irréversibles ».

L’OCDE observe des efforts de transparence croissants chez les principaux développeurs de systèmes d’IA

Ce cri d’alarme, relayé au plus haut niveau diplomatique, illustre la montée des inquiétudes autour d’une technologie en déploiement accéléré. Mais en parallèle de ces mises en garde, un rapport publié par l’OCDE apporte un éclairage sur les efforts déjà entrepris par les principaux développeurs d’IA pour limiter ces menaces. L’étude, intitulée How are AI developers managing risks ? Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct (Comment les développeurs d’IA gèrent-ils les risques ? Enseignements tirés des réponses au cadre de reporting du Code de conduite du processus d’IA d’Hiroshima) analyse les rapports de transparence volontaires remis par plusieurs entreprises et institutions, parmi lesquelles Anthropic (Claude), Google (Gemini), Microsoft (Copilot), NTT, OpenAI (ChatGPT), Salesforce et Fujitsu.

Le document met en évidence une sophistication croissante des méthodes de gestion des risques. Les acteurs majeurs recourent de plus en plus à des tests dits « d’équipe rouge », consistant à soumettre les systèmes à des attaques simulées afin d’en déceler les vulnérabilités. Ils mobilisent également des outils automatisés, parfois eux-mêmes fondés sur l’IA, pour analyser le comportement des modèles et renforcer leur fiabilité. Ces pratiques sont particulièrement avancées chez les grandes entreprises technologiques, qui s’efforcent d’intégrer dans leurs processus une évaluation non seulement des risques techniques, mais aussi des impacts systémiques et sociétaux.

Conforter des garde-fous face à la désinformation et aux manipulations

Le rapport note toutefois que certaines dimensions demeurent embryonnaires, notamment l’usage de dispositifs de traçabilité technique comme les tatouages numériques, les signatures cryptographiques ou les métadonnées d’authentification de contenus. Leur adoption reste limitée en dehors d’un cercle restreint d’acteurs, alors même que ces outils pourraient constituer des garde-fous cruciaux face à la désinformation et aux manipulations.

Au-delà des techniques employées, le rapport insiste sur l’importance stratégique de la transparence. Le partage d’informations sur les approches de gestion des risques, explique-t-il, favorise la confiance, stimule l’apprentissage mutuel et crée un environnement plus prévisible pour l’innovation et l’investissement. L’OCDE souligne que le cadre mis en place dans le cadre du Processus d’Hiroshima sur l’IA — initié en 2023 sous présidence japonaise du G7 puis consolidé en 2024 sous présidence italienne — offre une base de référence précieuse. À terme, ce mécanisme pourrait aider les organisations à répondre aux nouvelles obligations réglementaires, dans un contexte de gouvernance mondiale en construction.

Ainsi, entre l’alerte lancée par la société civile et les initiatives menées par les entreprises technologiques, deux dynamiques convergent : l’une plaide pour un verrouillage politique des usages les plus dangereux, l’autre travaille à rendre les systèmes existants plus robustes, sûrs et transparents.


Malgré des investissements records, seul un projet d'IA sur 10 est pleinement déployé

 

IA

Les entreprises accélèrent leurs investissements dans l’intelligence artificielle appliquée aux opérations informatiques (AIOps), mais peinent à franchir le cap du déploiement à grande échelle. C’est l’un des constats majeurs de l’enquête mondiale 2025 menée par Riverbed, qui met en lumière un déficit de préparation, des faiblesses persistantes dans la qualité des données et un écart marqué entre dirigeants et experts techniques.

L’étude, conduite en juillet 2025 auprès de 1 200 décideurs dans sept pays, confirme l’intérêt stratégique porté à l’IA : les organisations ont presque doublé leurs budgets, de 14,7 millions de dollars en 2024 à 27 millions cette année. Les résultats semblent encourageants, avec 87 % des entreprises estimant que leurs initiatives AIOps répondent à leurs attentes. Pourtant, seuls 12 % des projets ont atteint un déploiement complet, signe d’un goulet d’étranglement entre expérimentation et industrialisation.

Le premier obstacle identifié concerne la préparation organisationnelle. Seules 36 % des entreprises se déclarent prêtes à mettre en œuvre l’IA, un niveau en recul par rapport à 2024 (37 %). Le décalage entre perception des dirigeants et expertise technique accentue cette fragilité : 42 % des décideurs estiment leur organisation prête, contre seulement 25 % des spécialistes. Cette divergence traduit un manque d’alignement interne qui freine la concrétisation des projets.

La qualité des données constitue le second frein majeur. Si 88 % des entreprises en reconnaissent l’importance, moins de la moitié (46 %) jugent leurs données suffisamment fiables et complètes. Les chiffres révèlent des lacunes persistantes : seulement 34 % des organisations qualifient leurs données d’excellentes en pertinence, 35 % en cohérence et 37 % en sécurité. Dans ces conditions, l’entraînement de modèles IA à grande échelle reste compromis.

Le troisième écueil réside dans le manque de visibilité sur les systèmes. Les organisations utilisent en moyenne 13 outils d’observabilité issus de neuf fournisseurs. Cette fragmentation complique l’analyse et le diagnostic. Pour y remédier, 96 % des entreprises engagent des efforts de consolidation et 93 % envisagent une plateforme unifiée, afin d’améliorer la productivité et réduire les délais de résolution des incidents.

Les difficultés s’étendent aux outils de communication unifiée, désormais essentiels dans un monde du travail hybride. Or, 43 % des organisations rapportent des problèmes de performance sur ces solutions, qui occupent 42 % du temps de travail hebdomadaire des employés. La gestion des tickets associés mobilise des ressources significatives : 43 minutes en moyenne par incident, un sur cinq nécessitant plus d’une heure.

Pour tenter de surmonter ces blocages, les entreprises se tournent vers des standards ouverts tels qu’OpenTelemetry (OTel). Déjà adopté par 88 % des organisations, ce cadre vise à normaliser la collecte de données et préparer le terrain à l’automatisation par l’IA. Toutefois, même sur ce point, un décalage demeure : 41 % des dirigeants considèrent OTel comme obligatoire, contre 27 % des spécialistes techniques.

Enfin, la question du flux et du stockage des données reste critique. Si 91 % des organisations jugent leur circulation essentielle à la stratégie IA, elles anticipent une forte redistribution : recul du stockage sur site (de 23 % à 17 % d’ici 2028) au profit du cloud public (de 36 % à 39 %) et de l’edge (de 9 % à 13 %). Or, coûts de transfert (95 %), sécurité et conformité (94 %) ainsi que performances réseau (94 %) apparaissent comme des enjeux déterminants pour réussir cette transition.

Kaspersky révèle que les services de génération de deepfake sont désormais 400 fois moins chers

 

deepfake

L'équipe mondiale de recherche et d'analyse (GReAT) de Kaspersky a découvert des publicités sur le Darknet proposant des services de deepfake vidéo et audio en temps réel. Les prix commencent à 50 dollars pour les vidéos falsifiées et à 30 dollars pour les messages vocaux fabriqués, les coûts augmentant en fonction de la complexité et de la durée du contenu. Ces conclusions ont été tirées de l'analyse de plusieurs plateformes en russe et en anglais.

Plus tôt, Kaspersky avait identifié des services de création de deepfakes sur des plateformes du Darknet avec des prix variant entre 300 et 20 000 dollars par minute de contenu. Contrairement à ces services, les offres actuelles permettent aux acteurs malveillants de générer du contenu audio et vidéo falsifié en temps réel à un prix nettement inférieur. Les publicités proposent plusieurs options, notamment la permutation de visages en temps réel lors d'appels vidéo sur des plateformes de visioconférence ou de messageries instantanées, le remplacement de visages à des fins de vérification et le remplacement de flux vidéo sur les appareils.

Les auteurs des publications analysées affirment pouvoir fournir un logiciel qui synchronise les expressions faciales d'une personne dans une vidéo avec du texte, même en langues étrangères, ainsi que des outils permettant de cloner la voix et d'ajuster le ton et le timbre pour transmettre des émotions spécifiques. Cependant, il est fort probable que bon nombre de ces annonces soient des escroqueries visant à arnaquer les potentiels acheteurs.

« Nous voyons non seulement des annonces proposant des “deepfakes-en-tant-que-service”, mais aussi une demande indéniable pour ces outils. Des acteurs malveillants expérimentent activement avec l'IA et l'intègrent dans leurs opérations. Certaines plateformes offrent des fonctionnalités plus sophistiquées : par exemple, des LLM malveillants créés entièrement à partir de zéro, indépendants des modèles accessibles au public, qui fonctionnent localement. Bien que ces technologies n'introduisent pas de cybermenaces fondamentalement nouvelles, elles peuvent considérablement améliorer les capacités des attaquants. Dans ce contexte, les experts en cybersécurité doivent travailler d'arrache-pied pour contrer ces menaces. L'un des moyens les plus prometteurs pour relever ce défi consiste à tirer parti de l'IA pour améliorer à la fois la productivité des professionnels de la sécurité et l'efficacité des mesures défensives », commente Dmitry Galov, responsable de l'équipe mondiale de recherche et d'analyse de Kaspersky en Russie et dans la CEI.

Télévision, YouTube et WhatsApp : les Français face à un paysage médiatique hybride

 

media

Le rapport mondial MARCO 2025 confirme la singularité française : la télévision demeure le média le plus influent, tandis que YouTube et WhatsApp gagnent du terrain. Mais 76 % des citoyens reconnaissent avoir été exposés à de fausses informations, révélant un environnement où confiance et scepticisme coexistent.

En 2025, la consommation médiatique en France s’inscrit dans une dynamique hybride comme le montre le rapport mondial Marco, publié ce mardi 23 septembre. Celui-ci met en évidence la solidité persistante de la télévision, tout en soulignant la montée en puissance des plateformes numériques. Avec une fréquence d’utilisation de 11,8 %, la télévision conserve un rôle central, notamment auprès des générations plus âgées, et demeure perçue comme une source d’information fiable par une large partie du public.

Face à ce socle traditionnel, les plateformes numériques s’imposent. YouTube atteint 10,6 % et WhatsApp 10,5 % de fréquence d’utilisation, confirmant leur statut de canaux prioritaires pour l’information et le divertissement. Facebook (9,8 %) et Instagram (9,4 %) complètent ce panorama, traduisant un basculement vers des usages davantage mobiles et interactifs. Dans le même temps, les médias plus spécialisés ou écrits, tels que LinkedIn (4,2 %), la presse imprimée ou encore Twitter/X (4 %), occupent un rôle secondaire, mobilisés essentiellement dans des contextes où crédibilité et expertise sont attendues.

Le rapport souligne que ces tendances françaises s’inscrivent dans un cadre global. Dans la majorité des pays étudiés – Espagne, Portugal, Italie, Allemagne, Mexique et Brésil – WhatsApp, YouTube et Instagram dominent la consommation numérique. Pourtant, la France se distingue par une fidélité accrue à la télévision, en contraste avec l’Espagne et le Portugal où les plateformes sociales prennent le dessus, ou encore avec l’Italie et le Mexique où l’équilibre entre numérique et télévision est plus marqué.

76,6 % des répondants déclarent avoir été exposés à de la désinformation

L’étude s’intéresse également à la question des fausses informations. À l’échelle mondiale, 76,6 % des répondants déclarent avoir été exposés à de la désinformation au cours des six derniers mois. Le Portugal (85 %) et l’Espagne (84 %) apparaissent comme les pays les plus touchés, suivis du Mexique (83 %) et du Brésil (73 %).

En France, la majorité reconnaît également cette exposition, mais le nombre relativement élevé de réponses négatives – 241 personnes – révèle une certaine difficulté ou réticence à identifier clairement les contenus trompeurs. L’Allemagne présente un profil similaire, avec une part de scepticisme également élevée.

« Ces résultats montrent que les marques, les institutions et les médias doivent redoubler d’efforts pour fournir des informations transparentes et vérifiables, adaptées aux habitudes médiatiques de chaque pays. Dans un contexte où les citoyens reconnaissent avoir été exposés à des fausses informations, la confiance devient la nouvelle monnaie d’échange dans la communication », explique David Martín, responsable des relations avec les marques et les médias chez Marco.


IA et cybersécurité : quand l’arme des attaquants doit devenir le bouclier des défenseurs

 

Security

L’intelligence artificielle bouleverse déjà les règles de la cybersécurité. Outil redoutable entre les mains des attaquants, elle doit aussi devenir l’alliée indispensable des défenseurs pour bâtir une résilience durable.

Par Olivier Arous, CEO d’OGO Security

Le numérique est en perpétuelle mutation et les cyberattaques ne cessent de se multiplier et de se complexifier. Hier encore, les menaces prenaient la forme d’injections SQL ou de scripts XSS exploitant des failles apparemment anodines. Aujourd’hui, elles se diversifient, se professionnalisent et visent des cibles toujours plus critiques : collectivités territoriales, services publics, entreprises stratégiques. Dans ce contexte, l’intelligence artificielle apparaît comme un accélérateur puissant… pour les deux camps.

L’IA, nouvel arsenal des cyberattaquants

Les cybercriminels savent s’adapter à chaque contexte, qu’il s’agisse de défigurer un site institutionnel, de lancer une attaque DDoS en pleine période de tension internationale ou d’exploiter une vulnérabilité encore non corrigée. Avec l’IA, cette capacité prend une tout autre dimension. Désormais, des modèles automatisés peuvent générer des codes malveillants capables de se transformer pour échapper aux défenses classiques. Des campagnes de phishing peuvent être produites en masse, avec des messages contextualisés et crédibles, rendant la détection par l’utilisateur toujours plus difficile. Dans le e-commerce, déjà fragilisé par les bots et la fraude automatisée, l’IA permet aux attaquants de tester des millions de combinaisons en quelques secondes pour contourner les mécanismes de sécurité. Résultat : la menace est plus rapide, plus polymorphe et plus accessible, y compris pour des groupes aux moyens limités.

La même technologie, mise au service de la défense

Pour autant, réduire l’IA à une arme d’attaque serait une erreur stratégique. Comme le rappelle l’exemple du WAAP, l’intégration du machine learning dans les solutions de cybersécurité offre une capacité de détection et d’adaptation inédite. L’IA permet d’analyser en temps réel d’immenses volumes de données issues des journaux systèmes, des flux réseaux ou des comportements utilisateurs. Elle identifie des schémas inhabituels, alerte en cas d’anomalie et peut déclencher automatiquement des contre-mesures. Cette rapidité de réaction devient décisive, car chaque minute compte lors d’une intrusion. Au-delà de la réaction, l’IA offre une capacité d’anticipation : elle apprend des attaques passées pour prévoir les prochaines et renforcer les défenses avant même que la menace ne se concrétise. Elle devient ainsi un véritable bouclier intelligent, capable d’évoluer au rythme des assauts numériques.

Des enjeux qui dépassent la technique

Mais l’adoption de l’IA en cybersécurité ne se limite pas à une innovation technologique. Elle s’inscrit dans un cadre plus large, où la confiance et la souveraineté sont en jeu.

Les attaques visant les collectivités territoriales ont montré combien la cybersécurité est une exigence démocratique. Lorsqu’un service public est paralysé, ce sont les citoyens eux-mêmes qui en subissent les conséquences directes : impossibilité d’accéder à des démarches essentielles, fuite de données sensibles, perte de confiance envers leurs institutions.

Dans l’e-commerce, la logique est similaire : chaque transaction repose sur la confiance entre le client et la plateforme. Une faille technique ne met pas seulement en danger des données bancaires, elle peut briser la réputation d’une marque en quelques heures. Dans ces deux cas, l’IA peut contribuer à restaurer et renforcer cette confiance en rendant la cybersécurité plus proactive et plus transparente.

Construire une cybersécurité agile et souveraine

Face à des menaces globales et polymorphes, il ne suffit plus d’ajouter une nouvelle couche de protection. Il faut concevoir une cybersécurité agile, capable de s’adapter en temps réel, et souveraine, pour garantir la maîtrise et la confiance dans un environnement géopolitique instable. L’intégration de l’IA doit donc s’accompagner d’une réflexion stratégique : comment développer des solutions européennes ou nationales robustes, qui garantissent la conformité réglementaire (notamment face aux évolutions comme NIS2), tout en assurant une protection de bout en bout ? Cette transformation exige également un investissement dans la formation et la sensibilisation. L’IA ne doit pas remplacer l’humain, mais le renforcer : un agent public formé ou un employé sensibilisé reste la première ligne de défense face aux tentatives d’ingénierie sociale.


 


L’intelligence artificielle place les organisations face à un défi inédit : l’outil qui fragilise leurs défenses est aussi celui qui peut les renforcer. Refuser cette transformation, c’est accepter de subir. L’embrasser, c’est construire une cybersécurité plus agile, plus résiliente et plus digne de la confiance que citoyens et clients attendent.

Et si l’on remplaçait les politiques par une intelligence artificielle ?

 

Diella

 

De la Suède, où le Premier ministre consulte ChatGPT, à l’Albanie, qui vient de nommer une IA ministre des marchés publics, l’intelligence artificielle s’invite désormais au cœur du pouvoir politique. Une évolution que l’OCDE analyse de près, entre opportunités concrètes pour les services publics et risques majeurs liés à la transparence, aux biais et au contrôle démocratique.

Face aux blocages institutionnels, à la polarisation du débat public, aux lois adoptées bien que massivement contestées ou à la difficulté de prendre des décisions dans un monde plus complexe que jamais, et si on remplaçaient les femmes et les hommes politiques… par des intelligences artificielles ?

Poser la question à brûle-pourpoint ferait passer pour de dangereux démagogues et pourtant l’IA investit la sphère publique comme elle a déjà investi l’entreprise ou l’école. Discrètement ou plus franchement comme l’ont montré deux récentes affaires depuis cet été.

Le Premier ministre suédois, ChatGPT et Le Chat

En août dernier, le Premier ministre suédois, Ulf Kristersson, confessait lors d’une interview au journal économique Dagens Industri, qu’il utilisait régulièrement ChatGPT, ainsi que le chatbot français Le Chat de Mistral AI, comme « deuxième avis » pour réfléchir sur les décisions à prendre au gouvernement.

D’abord perçu comme une marque de modernité, l’usage de l’IA par le Premier ministre a ensuite suscité un tollé dans la presse et les milieux universitaires suédois, alarmés par la dépendance à l’IA du dirigeant et le risque qu’il prenne des décisions politiques influencées par des algorithmes conçus à l’étranger et qu’il confie des données sensibles à des serveurs informatiques étrangers…

Le cabinet du Premier ministre a précisé que ces outils étaient utilisés pour des consultations mineures et qu’aucune donnée confidentielle ou stratégique n’était partagée, sans vraiment convaincre ni rassurer.

En Albanie, la ministre est une IA

Ce mois-ci, l’Albanie a franchi un pas nettement plus spectaculaire en nommant ministre une intelligence artificielle ! Une première mondiale. Nommée ministre chargée spécifiquement des marchés publics, cette IA baptisée « Diella » était déjà connue des citoyens albanais comme assistante virtuelle pour leurs démarches administratives.

Le Premier ministre albanais Edi Rama a promu « Diella » pour lutter contre la corruption chronique dans l’attribution des marchés publics du pays. L’IA-ministre est désormais censée rendre le processus plus transparent, objectif et totalement « incorruptible » selon le gouvernement albanais, même si sa nomination soulève – comme en Suède – de nombreux débats sur la neutralité réelle des algorithmes et les modalités de contrôle humain sur ses décisions.

Entre un dirigeant qui utilise ChatGPT en catimini et un gouvernement qui propulse ministre une IA, il y a évidemment toute une gamme d’applications beaucoup plus pertinentes sur lesquelles vient de se pencher l’Organisation de coopération et de développement économiques (OCDE).

« Gouverner avec l’intelligence artificielle »

Dans un rapport intitulé « Gouverner avec l’intelligence artificielle », l’OCDE constate une montée en puissance des usages, mais alerte sur les freins qui empêchent encore de passer du stade expérimental à une mise en œuvre généralisée. L’étude, fondée sur plus de 200 cas recensés et plusieurs dizaines d’initiatives nationales, constitue la première analyse systématique des fonctions étatiques dans lesquelles l’IA est mobilisée. Elle distingue onze grands domaines d’action publique, avec des avancées notables dans la fourniture de services aux citoyens, la justice et les consultations publiques, mais des retards marqués dans la gestion des ressources humaines ou l’évaluation des politiques.

Les bénéfices apparaissent concrets : agents conversationnels pour assister les usagers dans leurs démarches, systèmes prédictifs pour anticiper les catastrophes naturelles, plateformes d’analyse de contributions citoyennes pour faciliter la recherche de consensus. Mais ces réussites restent fragilisées par des obstacles structurels : rareté des compétences spécialisées, difficultés d’accès et de partage de données de qualité, coûts élevés de déploiement, cadre réglementaire inadapté et systèmes informatiques publics parfois obsolètes.

À ces contraintes s’ajoutent des risques propres aux technologies elles-mêmes. Résultats biaisés, pannes techniques, atteintes potentielles à la protection des données ou exclusion de certaines catégories de population. L’OCDE avertit que l’inaction n’est pas une option. Un refus d’adopter l’IA exposerait, en effet, les administrations à une perte d’efficience et à un décrochage vis-à-vis du secteur privé, déjà engagé dans une généralisation des usages.

L’organisation recommande la mise en place de cadres stratégiques et de garde-fous adossés au « Cadre de l’OCDE pour une IA digne de confiance » qui comprend sept leviers d’action.

 

Internet : Elon Musk veut faire de Starlink un opérateur mobile mondial

 

musk

Après un accord de spectre de 17 milliards de dollars, Elon Musk projette de transformer Starlink en opérateur sans fil capable de connecter directement chaque smartphone à sa constellation de satellites. Un bouleversement qui questionne la souveraineté numérique européenne et l’avenir des télécommunications terrestres.

Le fantasque milliardaire Elon Musk se lance dans un nouveau projet qui pourrait bouleverser l’écosystème mondial des télécommunications. SpaceX, maison-mère de la constellation de satellites Starlink, a, en effet, acquis cette semaine auprès d’EchoStar des droits de spectre sans fil pour 17 milliards de dollars. Cet accord offre à l’entreprise l’accès aux fréquences AWS-4 et H-block, situées entre 1,9 GHz et 2 GHz. Elon Musk y voit la clé pour faire de Starlink non plus un fournisseur d’accès Internet par satellite, mais un opérateur mondial capable de connecter directement les smartphones.

La fin des zones blanches

Le projet repose sur une idée radicale : chaque utilisateur disposerait d’un compte unique Starlink, combinant accès domestique et connectivité mobile en tout point du globe. Dans ce scénario, la distinction entre réseau fixe et réseau mobile n’existe plus. Les zones blanches, qui restent un problème majeur dans nombre de pays – dont le nôtre –, seraient effacées d’un trait. Pour un randonneur perdu, un marin isolé ou un habitant d’une vallée mal couverte, la promesse est simple : avoir une barre de réseau, partout, sans dépendance aux antennes terrestres.

Là où Apple, qui a introduit une fonction de messagerie d’urgence par satellite sur ses derniers iPhone, propose un filet de sécurité, Elon Musk entend bâtir un service complet. En supplantant des systèmes comme Iridium, jusqu’ici utilisés pour les communications satellitaires spécialisées, Starlink viserait directement les géants historiques du mobile tels qu’AT & T, T-Mobile ou Verizon.

L’urgence d’accélérer pour l’Europe

Wall Street a immédiatement mesuré l’onde de choc. L’action EchoStar a bondi de plus de 20 %, tandis que les principaux opérateurs mobiles perdaient du terrain. Les analystes, toutefois, soulignent deux obstacles. D’abord, la technologie : les smartphones actuels devraient être modifiés pour fonctionner avec les nouvelles bandes de fréquences. Elon Musk estime à deux ans le délai d’adaptation. Ensuite, l’économie : dans les zones urbaines denses, où les réseaux terrestres sont déjà puissants, la pertinence d’une alternative satellitaire se pose.

Mais l’enjeu dépasse la seule équation technique. Elon Musk a déjà démontré, avec Starlink en Ukraine, sa capacité à ouvrir ou fermer un service selon ses propres décisions. Confier à une entreprise privée américaine le pouvoir d’assurer – ou de couper – la connectivité mondiale pose une question directe de souveraineté. Pour l’Europe, qui cherche à bâtir sa propre constellation sécurisée avec IRIS2 – une constellation de 300 satellites opérationnels en 2030 –, l’urgence se précise. Ne pas investir massivement reviendrait à abandonner ce levier stratégique à un acteur unique, capable de remodeler à lui seul l’écosystème mondial des télécommunications.

Commerce : les consommateurs français restent attachés au magasin malgré l’essor de l’IA

 

ecommerce

Les résultats de la nouvelle enquête internationale menée par Akeneo, leader mondial de la gestion de l’information produit (PIM) et de l’expérience produit (PX), éclairent une réalité contrastée. Si l’intelligence artificielle et les outils numériques progressent dans le commerce, les consommateurs français continuent de privilégier le magasin physique, tout en exigeant une information produit de plus en plus rigoureuse.

Malgré la diffusion rapide des solutions d’intelligence artificielle et l’évolution des pratiques digitales, le point de vente reste central dans l’acte d’achat en France. L’« Akeneo B2C Survey : L’évolution du consommateur moderne », conduite auprès de 1 800 consommateurs dont 250 Français, montre que 64 % des acheteurs hexagonaux choisissent le magasin pour leurs dépenses d’au moins 100 euros. La raison principale tient à l’expérience client : 20 % recherchent avant tout le conseil d’un professionnel et des informations produits précises, gages de confiance.

Le recours aux canaux numériques s’impose toutefois comme un complément décisif. Trois quarts des Français (76 %) consultent des informations en ligne avant de finaliser leur achat en boutique. Plus de six sur dix (64 %) commandent un article sur Internet pour ensuite le retirer en magasin. Les retours de produits traduisent la même hybridation : 70 % préfèrent la voie digitale contre 27 % qui se déplacent en point de vente.

Cette combinaison illustre l’importance de l’information produit comme pivot de la décision. Dans un contexte d’inflation persistante, bien que ralentie depuis 2024, 64 % des consommateurs se disent plus attentifs qu’auparavant à la qualité et à l’exactitude des données fournies. Le prix demeure le critère dominant pour 42 % des acheteurs, une proportion en baisse par rapport à 2023 (51 %), signe d’une légère détente mais aussi d’une hiérarchisation plus fine des attentes.

Les défaillances en matière d’information produisent des effets immédiats. Près de deux tiers des sondés (65 %) abandonnent leur recherche si les contenus sont jugés insuffisants, et 67 % changent de produit face à des données lacunaires. Au-delà de l’acte d’achat, la fidélisation des clients est directement concernée : 69 % affirment perdre confiance dans une marque après une mauvaise expérience liée à l’information produit.

Les canaux plébiscités pour accéder à ces informations traduisent une hiérarchie nette. Les marketplaces arrivent en tête (95 %), suivies des magasins physiques (90 %) et des agents IA (88 %). A contrario, les applications mobiles (27 %) et les plateformes de marques de luxe (39 %) apparaissent en retrait, incapables de répondre aux attentes de clarté et de précision.

L’étude d’Akeneo confirme également que l’IA agentique, si elle transforme déjà les processus internes des entreprises, peine encore à s’imposer auprès des consommateurs. Seuls 4 % des Français déclarent avoir réalisé un achat via un agent d’IA, contre 7 % aux États-Unis. Le potentiel reste néanmoins considérable : 68 % se disent intéressés par l’usage de chatbots ou d’agents IA pour bénéficier de conseils personnalisés, et 55 % affirment qu’ils seraient plus fidèles à une marque en mesure de leur proposer une expérience adaptée à leurs besoins.

Les chiffres révèlent par ailleurs des évolutions significatives par rapport à 2023. La perception de l’exhaustivité des informations produit recule de dix points : 83 % des Français jugent les données satisfaisantes en 2025, contre 93 % deux ans plus tôt. La sensibilité environnementale persiste mais se stabilise : 61 % déclarent être conscients de l’impact écologique des retours, et 42 % disent avoir déjà renvoyé un article en raison d’informations imprécises, une proportion quasi identique à celle observée l’an dernier.

Enfin, l’étude met en évidence une reconfiguration des arbitrages liés aux gammes de produits. Si 21 % des Français excluent les entrées de gamme malgré leur coût plus faible, la mode reste le secteur le plus affecté par l’essor de ce segment : 36 % des consommateurs se disent prêts à réduire leurs exigences qualitatives si le prix est compétitif. En revanche, la question de la durabilité suscite un intérêt décroissant : seuls 10 % réclament davantage d’informations sur ce sujet, contre 40 % qui, deux ans plus tôt, se disaient prêts à payer plus pour aligner leurs achats sur leurs valeurs.

Au total, l’enquête souligne une double dynamique. Le magasin conserve une position forte, mais adossée à des usages numériques devenus structurels. L’information produit apparaît comme le socle incontournable de la relation de confiance, condition de la fidélisation à long terme. Quant à l’intelligence artificielle, elle reste en phase d’adoption progressive : largement acceptée dans ses principes, encore marginale dans ses usages.

Cyberattaques dopées à l’IA : l’Europe face à une menace sans précédent

 

IA

Le rapport State of Cybersecurity d’HarfangLab révèle une inquiétude croissante en Europe : 58 % des entreprises placent désormais la cybercriminalité alimentée par l’intelligence artificielle en tête de leurs menaces. Entre sophistication des offensives et manque de ressources humaines, les équipes de défense cherchent à s’adapter.

L’essor fulgurant de l’intelligence artificielle transforme en profondeur le paysage de la cybersécurité européenne. Le rapport State of Cybersecurity, publié par HarfangLab le 4 septembre 2025, dresse un constat clair : les entreprises doivent désormais composer avec une vague d’attaques plus rapides, automatisées et difficiles à détecter. Pour 58 % d’entre elles, la cybercriminalité dopée à l’IA est devenue la menace numéro un, contre 46 % seulement l’an dernier. Cette progression souligne un changement de perception rapide, alimenté autant par l’intensification des offensives que par les failles internes persistantes.

La défiance à l’égard des fournisseurs complique encore la situation. Près de six décideurs IT sur dix (59 %) estiment que les éditeurs exagèrent les capacités de leurs solutions basées sur l’IA. Dans un marché foisonnant, où promesses technologiques et discours marketing se confondent, la prudence domine. Les responsables sécurité reconnaissent pourtant les atouts de ces outils : 82 % considèrent qu’ils apportent une réelle valeur ajoutée, notamment dans la détection et l’automatisation des tâches répétitives. Mais 79 % rappellent que l’expertise humaine demeure indispensable, car seule l’analyse critique des spécialistes permet de contextualiser une menace et d’y répondre efficacement.

L’IA doit être envisagée comme un levier d’appui

La pénurie de compétences renforce cette dépendance à l’humain. L’étude souligne un contraste marqué entre pays : en Allemagne, 47 % des entreprises interrogées jugent le manque d’experts qualifiés comme leur principale inquiétude, contre 37 % en France. Derrière ce déficit se cache une faiblesse structurelle : sans ressources humaines suffisantes, même les outils les plus performants peinent à déployer leur plein potentiel. Pour HarfangLab, l’IA doit être envisagée comme un levier d’appui, à condition de définir des cas d’usage précis, transparents et encadrés par des dispositifs de contrôle.

Cette vulnérabilité se reflète aussi dans la nature des attaques. L’exemple du groupe russe Gamaredon illustre cette tendance : ses campagnes récentes, proches des offensives assistées par IA, combinent vitesse, modularité et discrétion. Changement quotidien d’adresses de commande, malwares adaptatifs, propagation via supports amovibles : la sophistication de ces méthodes brouille les pistes et épuise les défenses traditionnelles. L’équilibre penche désormais en faveur des attaquants, capables d’exploiter l’automatisation à une échelle inédite.

Face à ce déséquilibre, la réponse ne peut se limiter à une surenchère technologique. HarfangLab insiste sur une approche articulée autour de trois piliers : technologie robuste, transparence dans les mécanismes de détection et expertise humaine au cœur du dispositif. Sans cette combinaison, les entreprises risquent de multiplier les outils sans renforcer réellement leur sécurité. L’enjeu est donc double : restaurer la confiance dans les solutions basées sur l’IA et combler le déficit de compétences qui mine les capacités de réaction.

La menace ne se réduit pas à des algorithmes hostiles

Au-delà des chiffres, le rapport rappelle que la menace ne se réduit pas à des algorithmes hostiles. Elle résulte aussi de la fragmentation croissante des environnements informatiques, de la prolifération des appareils connectés et de la dépendance accrue aux fournisseurs tiers. Autant de facteurs qui accroissent la surface d’attaque et placent les RSSI dans une position d’alerte permanente.

Dans ce contexte, l’intelligence artificielle ne saurait être perçue comme une solution miracle. Elle constitue un outil puissant, mais exigeant, qui ne produit de valeur durable que s’il s’appuie sur des cadres clairs et sur l’expérience humaine. Pour les entreprises européennes, la bataille contre les cybercriminels assistés par IA ne fait que commencer.


Robotique : Milo, première étudiante IA de France, a fait sa rentrée

 

Milo

L’ECE inaugure une rentrée inédite en intégrant Milo, intelligence artificielle conçue comme camarade de promotion. Première du genre en France, elle participera aux cours, projets et à la vie étudiante, tout en incarnant un modèle d’innovation pédagogique.

Cette rentrée 2025 est un peu particulière pour l’École Centrale d’Électronique (ECE). L’établissement, membre du groupe OMNES Education, accueille officiellement Milo, première intelligence artificielle (IA) intégrée comme étudiante dans une école d’ingénieurs. Développée au sein de l’Intelligence Lab de l’ECE, Milo a été pensée non comme un outil d’assistance ponctuelle, mais comme une véritable camarade de promotion, destinée à apprendre, interagir et accompagner les étudiants dans leur quotidien.

Conçue de manière éthique, souveraine et frugale, cette IA de type Small Language Model a été entraînée sur le corpus pédagogique propre à l’école. Elle assistera aux cours à côté des professeurs (elle mesure 50 cm), produira des synthèses, détectera les erreurs fréquentes, générera des quiz et favorisera des méthodes d’apprentissage plus actives. En parallèle, elle s’intègre à la vie associative, en lien avec les outils du Bureau des élèves, pour proposer événements, bons plans et défis étudiants.

« Milo n’est pas un gadget. Elle incarne notre vision stratégique : faire de l’IA un levier d’apprentissage et d’innovation », souligne François Stephan, directeur général de l’ECE. Cette expérimentation grandeur nature vise à mesurer l’impact concret de l’IA sur la pédagogie : nouvelles postures d’enseignement, transformation des interactions, évolution des pratiques.

Nouvelles missions en 2026

Le projet, piloté par l’école mais aussi par ses propres étudiants, illustre la culture d’innovation revendiquée par l’ECE. La structure physique robotisée de Milo a été conçue par l’association de robotique ECE BORG. Paul Nouaille Degorce, élève-ingénieur en quatrième année, assure la responsabilité du projet et du déploiement de l’Intelligence Lab. L’initiative prévoit également un rôle d’« IA-sitter », confié à des étudiants chargés de déplacer, recharger et mettre à jour Milo selon les emplois du temps.

L’expérience ne s’arrêtera pas là. Dès 2026, Milo devrait élargir ses missions : accompagner les familles dans le choix de formation, proposer des simulateurs de parcours et intervenir dès la phase d’admission.

Ce déploiement s’inscrit dans une dynamique plus large : en 2024, deux modèles d’IA générative développés par les étudiants de l’ECE – « Le Triomphant-ECE-TW3 » (72 milliards de paramètres) et « Prymma » (7 milliards) – figuraient déjà parmi les meilleurs mondiaux selon le classement de Hugging Face.

Avec Milo, l’ECE franchit une étape supplémentaire, en démontrant que l’intelligence artificielle ne se limite pas à une prouesse technique mais peut devenir un outil de transformation pédagogique et un lien entre recherche, enseignement et société.

Sécurité des identités : l’IA, menace et rempart selon le rapport Cisco 2025

 

IA

Le rapport Cisco DUO « 2025 State of Identity Security », fondé sur une enquête menée auprès de 325 responsables IT et sécurité européens, met en lumière une inquiétude croissante : l’intelligence artificielle amplifie les risques de phishing, tout en constituant un atout majeur pour renforcer la protection des identités.

L’intelligence artificielle s’impose comme un facteur ambivalent dans la cybersécurité. Selon le rapport Cisco DUO « 2025 State of Identity Security », 34 % des dirigeants européens estiment que le phishing dopé à l’IA sera l’une des principales menaces pesant sur les identités en 2025. Les capacités de génération de contenus crédibles, d’usurpation vocale ou de manipulation de données renforcent la puissance des cyberattaques. Cette vulnérabilité s’ajoute à des systèmes d’identités jugés trop complexes et insuffisamment transparents.

Le rapport souligne que seuls 34 % des décideurs considèrent leur fournisseur d’identité comme capable de prévenir les attaques liées aux identités. Cette défiance reflète une fragmentation des outils et un manque de visibilité globale. En moyenne, cinq solutions différentes sont mobilisées par les équipes IT pour traiter un même problème, ce qui alourdit les processus et multiplie les angles d’attaque.

Les dirigeants interrogés s’inquiètent des coûts induits par ces failles. Près de la moitié (48 %) déclarent avoir subi des pertes financières liées à des vols d’identité. Face à cette réalité, 76 % prévoient d’augmenter leurs investissements en 2025. Toutefois, 96 % estiment qu’une infrastructure d’identité trop complexe affaiblit la sécurité globale, et 88 % reconnaissent ne pas disposer d’une vision complète des risques associés aux identités.

La protection des accès reste marquée par des limites structurelles. Si 88 % des responsables IT considèrent que la MFA résistante au phishing est incontournable, seuls 32 % se disent confiants dans leurs systèmes actuels. Le recours aux jetons FIDO2, déployés par 42 % des entreprises, constitue une avancée. Ces clés matérielles, conformes aux standards FIDO Alliance, stockent localement la clé privée et offrent une authentification robuste. Mais leur usage reste souvent restreint aux utilisateurs privilégiés, en raison de contraintes de gestion (59 %), de coûts (47 %) et de formation (44 %).

Evolution vers l’accès sans mot de passe

L’évolution vers l’accès sans mot de passe (« passwordless ») constitue un axe stratégique. 52 % des dirigeants envisagent cette transition, tout en anticipant des difficultés de déploiement. La consolidation des fournisseurs apparaît comme une autre réponse. 70 % des organisations déclarent vouloir rationaliser leur écosystème, tandis que 53 % ont déjà adopté la télémétrie des identités et des appareils pour obtenir une visibilité en temps réel.

Cette recherche de transparence s’impose comme un impératif. 70 % des dirigeants attendent désormais de leurs fournisseurs un reporting instantané, gage de confiance et de réactivité. Le rapport note par ailleurs que 80 % des solutions de sécurité identitaire sont encore intégrées a posteriori, plutôt qu’en amont de la conception des infrastructures, ce qui accroît les coûts et la complexité.


IA : le rapport Booking.com révèle un enthousiasme mondial contrasté par la prudence française

 

IA

Selon une enquête menée auprès de plus de 37 000 consommateurs dans 33 pays, 91 % des répondants se disent enthousiastes face à l’intelligence artificielle. Mais en France, si l’intérêt est réel, la confiance demeure limitée : seuls 4 % des sondés lui accordent une confiance totale.

Booking.com a publié le 3 septembre 2025 son dernier rapport mondial sur la perception de l’intelligence artificielle (IA). Réalisée auprès de 37 325 consommateurs dans 33 pays, l’étude met en évidence un engouement marqué pour l’IA, tout en révélant de fortes disparités régionales et une prudence notable du public français.

Au niveau mondial, 91 % des personnes interrogées se déclarent enthousiastes face à l’IA et 79 % disent s’y sentir à l’aise. En France, ces proportions s’élèvent respectivement à 81 % et 65 %. Un écart qui illustre la prudence hexagonale face à une technologie dont l’adoption progresse rapidement. Cette réserve se confirme sur le terrain de la confiance : 6 % des répondants dans le monde disent faire pleinement confiance à l’IA, contre seulement 4 % des Français. Parallèlement, 91 % des participants, toutes régions confondues, expriment des inquiétudes sur ses implications.

Les Français prudents

La typologie des usagers esquissée par Booking.com reflète cette ambivalence. À l’échelle mondiale, 36 % se définissent comme des “Adeptes de l’IA” et 13 % comme des “Défenseurs de l’IA”. En France, ces profils descendent à 25 % et 4 %. Près d’un quart des Français (24 %) se classent parmi les “Prudents”, 11 % comme “Sceptiques”, et 46 % se considèrent comme “Détracteurs”. Cette dernière proportion, presque deux fois plus élevée que la moyenne mondiale (25 %), confirme une réticence marquée.

IA

Les usages quotidiens progressent néanmoins. Dans le monde, 98 % des consommateurs déclarent utiliser la recherche alimentée par IA, 86 % recourent aux recommandations automatisées et 77 % testent des outils génératifs. En France, les taux sont légèrement inférieurs : 94 %, 72 % et 58 %. Mais la question de l’autonomie de l’IA cristallise les réserves : seuls 12 % des répondants au niveau mondial accepteraient de laisser une IA prendre des décisions indépendantes, et seulement 7 % des Français.

Le rôle croissant de l'IA pour les voyages

Le rapport met aussi en avant le rôle croissant de l’IA dans le secteur du voyage. Près de neuf voyageurs sur dix dans le monde (89 %) souhaitent l’utiliser pour planifier leurs séjours. Les assistants IA sont désormais perçus comme plus fiables (24 %) que les blogs de voyage (19 %) ou les influenceurs (14 %). En France, l’adhésion est moindre : 79 % des sondés souhaitent recourir à l’IA, mais seuls 11 % la considèrent plus fiable qu’un blog de voyage (8 %) ou un influenceur (4 %). En pratique, 42 % des Français ont déjà utilisé l’IA pour un aspect de leur voyage, souvent pour la planification (97 %) ou en cours de séjour (95 %).

L’étude souligne aussi les variations régionales. L’Amérique latine affiche l’enthousiasme le plus marqué (98 %), suivie de la zone Asie-Pacifique (95 %). L’Europe et l’Amérique du Nord se distinguent au contraire par une prudence accrue, avec des taux de méfiance envers les informations générées par l’IA atteignant 29 % en EME et 32 % en NORAM. La France se situe dans ce registre sceptique : 35 % des personnes interrogées disent rarement, voire jamais, faire confiance aux résultats fournis.

Ces chiffres traduisent une attente forte en matière de transparence et de garanties. Si l’IA est perçue comme un outil prometteur pour gagner du temps, améliorer la productivité ou favoriser l’apprentissage, une ligne rouge demeure : l’absence de validation humaine. L’avenir de l’IA semble donc se dessiner moins comme une substitution que comme un accompagnement des décisions humaines, en particulier dans le domaine du voyage où la demande pour des services personnalisés et fiables reste centrale.


Le fact-checking suffit-il à garantir une objectivité journalistique ?

Vérifier les faits est essentiel, car certaines informations sont tout simplement fausses. Mais la manière dont les faits sont sélectionnés et racontés implique un tri, et aucun choix n’est jamais neutre. beast01/Shutterstock
Par Fabrice Flipo, Institut Mines-Télécom Business School

Les médias mettent en avant la vérification des faits (« fact checking ») face aux fausses informations (« fake news »). Ils questionnent moins souvent la façon dont les récits sont élaborés (« storytelling »). Quelle pourrait-être la méthode pour construire un discours journalistique objectif et impartial ?


Chacun a entendu parler des fake news, qui seraient supposément propagées par les réseaux sociaux. Nombreux sont les médias qui s’équipent de cellules de « fact checking » censées les contrer. Mais sont-elles efficaces ? Leur critère est souvent de « revenir aux faits ». Pourtant, c’est loin d’être suffisant.

Trois normes sont centrales, en réalité : l’objectivité, la neutralité et l’impartialité. Or, elles sont largement méconnues.

Comment dire le vrai ? Le problème traverse déjà les écrits de Platon, quand il dénonce la rhétorique des sophistes, qu’il juge manipulatrice. C’est encore le cas quand Socrate pointe les limites de l’écrit, qui coupe le lecteur de la réponse possible du rédacteur. L’intelligence artificielle et les réseaux sociaux reconfigurent les enjeux, étant de nouvelles manières d’écrire et d’échanger. Ils ne les inventent pas. La présence de cellules de « fact checking » est à double tranchant, dans la mesure où elles jettent aussi un doute sur la production médiatique restante. Leurs méthodes doivent-elles en effet être réservées à une émission parmi des dizaines d’autres ? Produire le vrai n’est-il pas la raison d’être du journaliste, de tous les instants ? Et les réseaux sociaux ne sont-ils pas aussi une manière d’informer sur ce que les médias dominants négligent ? A qui faire confiance, alors ? Sur quels critères ? Le problème est pratique et concret.

Vérifier les faits, oui mais lesquels ?

Face aux « fake news », la réponse la plus courante consiste à « vérifier les faits ». On parle alors de « fact checking », à l’exemple des « Vérificateurs » sur TF1. Vérifier les faits est essentiel, en effet, car certaines informations sont tout simplement fausses. Les conséquences peuvent être immenses, à l’exemple des « armes irakiennes de destruction massives », qui n’existaient pas, mais ont servi à justifier l’entrée en guerre des États-Unis face à l’Irak, en 2003. Mais ce n’est pas le seul problème. La manière dont les faits sont sélectionnés et racontés est une difficulté distincte. La sélection est inévitable, du fait des formats, et aucun choix n’est neutre.

Ne montrer que les points de deal, dans une cité, n’est pas plus neutre que de ne montrer que le chômage massif qui pousse les jeunes vers l’argent facile. La manière d’enchaîner les faits est également déterminante.

Par exemple, enchaîner les faits divers dramatiques à l’exclusion de toute autre considération enferme le public dans une histoire : celle de l’insécurité. Le besoin de sécurité peut ainsi être fabriqué, sans que l’insécurité objective n’ait changé. L’histoire ainsi construite est-elle vraie, est-elle fictive ? Il n’y a souvent pas très loin de la narration des faits au storytelling ou art de raconter à un public les histoires qu’il a envie d’entendre.

Une autre réponse est possible. Elle prend appui sur un fait saillant caractéristique des questions qui sont abordées dans les médias : leur caractère controversé. Un fait divers, tel qu’une attaque au couteau de la part d’un jeune, est diversement interprétable : insécurité ou résultat inévitable de suppression des budgets de l’éducation populaire ? Les explications sont diverses et ont généralement un lien avec les intérêts de celles et ceux qui les formulent – femmes, jeunes, commerçants, associations, etc. Comprendre le fait et pouvoir l’expliquer implique de faire une place à l’interprétation, laquelle procède de la confrontation de points de vue antagoniques. Les faits ne parlent pas d’eux-mêmes de manière univoque.

La méthode des juges

Comparons avec ce qui se passe dans un tribunal. Aucun juge ne se prononce sur le simple établissement des faits. Qui serait capable de les présenter de manière neutre ? Personne.

Le juge écoute donc, tour à tour, la défense, l’accusation et les témoins. Chacun d’entre eux produit les faits qui leur paraissent pertinents et significatifs. Un arbitre procède de la même manière, quand il doit rendre une décision. Il ne se contente pas de constater. Il écoute un point de vue, un autre, fait appel éventuellement au replay, etc. et finit par trancher.

L’interprétation prend du temps, et c’est elle qui passe à la trappe avec la prétention de « s’en tenir aux faits » ou, pis, avec la tentation de verser dans la chasse au scoop et le souci de « faire de l’audience ». Tout fait un peu complexe implique qu’une enquête soit menée pour pouvoir être compris. C’est la règle. Sans cela, ce n’est pas le tribunal de la vérité qui est dressé, mais la conclusion hâtive, voire le procès stalinien.

La question de la formation du jugement en situation controversée se pose aussi pour les enseignants. La question a donc fait l’objet d’un travail de deux ans impliquant une vingtaine d’enseignants de l’Institut Mines-Télécom, enquêtant, par exemple, sur les normes sur lesquelles s’appuient les juges, les arbitres, ou encore les enseignants confrontés à des controverses.

Trois normes procédurales se dégagent de l’analyse. La première est la neutralité. Un bon jugement ne doit pas chercher à changer les faits ni même les interprétations que les diverses parties en donnent. Il s’interdit d’interagir avec eux. La seconde est l’impartialité. À la manière d’un juge ou d’un arbitre, elle enjoint d’écouter tous les points de vue afin de construire une vision partagée de la situation. Ce résultat ne se trouvait dans aucun d’entre eux, pris de manière isolée. C’est pourquoi l’impartialité ne se confond pas avec la neutralité. Le troisième critère est l’objectivité. Les faits sur lesquels les points de vue raisonnent doivent tous être solides, à la manière des preuves jugées recevables dans un tribunal. Et leur solidité dépend de la manière dont le sujet et l’objet ont interagi.

Quelle est la méthode, alors ? Tout d’abord, ne pas confondre l’information avec le militantisme, le fait d’informer avec le fait de vouloir changer la situation. C’est la neutralité.

Ensuite, confronter les principaux points de vue, sans négliger les « signaux faibles ». Quand un point n’est traité qu’avec un seul expert, et plus encore si cet expert est toujours le même, ou quand des faits similaires sont abordés en donnant toujours la parole aux mêmes, alors nous sortons des critères d’un bon jugement. Par exemple, ne s’intéresser à une grève qu’en donnant la parole aux usagers mécontents revient à dresser un argumentaire à charge contre les grévistes, dont la parole n’est pas relayée. Et cela vaut aussi pour les scientifiques. L’océan du climatologue est bien différent de celui du spécialiste des requins.

Enfin, s’assurer de la solidité des faits, de leur résistance, en ayant en tête que les scientifiques sont bien souvent en désaccord entre eux. Ces trois normes sont ce que Kant appelait des « idées régulatrices », c’est-à-dire des idéaux qui indiquent des directions mais ne peuvent jamais être parfaitement réalisés.

Les médias classiques assurent-ils une information de meilleure qualité que les réseaux sociaux ?

Chacun pourra constater à l’aune de ces trois normes que les médias classiques (télévision, presse) ne sont pas forcément de meilleure qualité que les réseaux sociaux. Ils ont une ligne éditoriale, c’est-à-dire une manière générale d’interpréter la réalité, qui diffère d’un média à un autre. Ils vont donc avoir tendance à inviter les experts qui la confortent, à accumuler les faits qui vont dans leur sens et à mettre en doute ceux qui la remettent en cause.

Le gendarme de l’information veille, certes, aux abus les plus évidents. Ainsi, c’est pour avoir trop réduit la diversité de ses sources que la chaîne C8 a été interdite d’antenne.

En réalité, il est rare que les médias mentent ouvertement. La ficelle est trop grosse, et nuirait très fortement au média dès lors qu’elle serait dévoilée. C’est par le manque de neutralité et d’impartialité que passe la plus grosse des fake news. Les règles du storytelling le savent bien, d’ailleurs. Une bonne histoire doit être crédible, du point de vue du public récepteur. Et une belle histoire est bien plus difficile à remettre en cause qu’un fait qui se révélerait erroné.

Le raisonnement qui vaut pour les médias vaut aussi pour l’expertise, puisque celle-ci a pour but d’éclairer la décision. Si l’information apportée n’est ni neutre, ni impartiale, ni objective, alors la décision ne le sera pas non plus. Les mêmes règles doivent donc procéder au choix des experts dans une prise de décision.The Conversation

Fabrice Flipo, Professeur en philosophie sociale et politique, épistémologie et histoire des sciences et techniques, Institut Mines-Télécom Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Baromètre Ecolhuma : 7 professeurs sur 10 utilisent l’IA, surtout pour gagner du temps

 

IA


Selon le premier baromètre Ecolhuma, près de 70 % des enseignants français ont déjà recours à l’intelligence artificielle, principalement pour créer des ressources ou préparer des évaluations. Si l’IA séduit par son gain de temps, son impact pédagogique reste limité, tandis que persistent de fortes inquiétudes quant à l’usage non encadré qu’en font les élèves.

Alors que la ministre de l’Education nationale Elisabeth Borne lance en cette rentrée un dispositif de formation des enseignants à l’intelligence artificielle, s’appuyant sur un « Cadre d’usage de l’IA en éducation » publié en juin, le baromètre Ecolhuma sur l’IA dans l’éducation montre que les professeurs se sont déjà largement emparés de ce nouvel outil.

Ce premier baromètre, mené auprès de 1962 enseignants entre le 14 et le 31 mai 2025, révèle, en effet, un double constat. D’un côté, près de sept enseignants sur dix ont déjà testé un outil d’IA dans leur pratique professionnelle, et la moitié déclare l’utiliser chaque semaine. De l’autre, les usages demeurent concentrés sur des tâches périphériques, loin des promesses de transformation pédagogique.

L’IA sert aux enseignants à gagner du temps

62 % des enseignants déclarent recourir à l’IA pour trouver des idées, 53 % pour créer des ressources, et 50 % pour générer des évaluations. En revanche, seuls 24 % l’utilisent pour des tâches administratives et à peine 8 % pour de l’apprentissage adaptatif. Autrement dit, l’IA sert avant tout à gagner du temps – 67 % des répondants citent cet objectif comme bénéfice majeur – bien plus qu’à repenser en profondeur les modalités d’enseignement.

Cette appropriation inégale reflète les profils distincts identifiés par l’étude : « convaincus » (38 %), « pragmatiques » (41 %) et « réticents » (21 %). Si les premiers perçoivent l’IA comme un levier pédagogique puissant, les seconds l’envisagent surtout comme un outil d’efficacité. Les plus réticents, eux, en redoutent les dérives et en minimisent les bénéfices. La régularité des usages illustre ces écarts : seuls 18 % des enseignants réticents utilisent l’IA de manière hebdomadaire, contre 66 % des convaincus.

Inquiète quant à l’usage de l’IA par les élèves

Au-delà des pratiques déclarées, une inquiétude persiste face aux usages autonomes des élèves. Dans le secondaire, 93 % des enseignants affirment que leurs élèves recourent à l’IA pour « aller vite sans comprendre », et 87 % pour réaliser leurs devoirs à leur place. Ces comportements, souvent invisibles ou non déclarés, nourrissent la prudence des enseignants et soulignent l’absence d’encadrement institutionnel.

C’est précisément sur ce terrain que se cristallisent les attentes. Près de 80 % des enseignants réclament une formation technique et pédagogique à l’IA, afin d’en maîtriser les usages sans les subir. Ils demandent également la mise en place d’un cadre clair pour l’usage des outils par les élèves et les enseignants (59 %), et une gouvernance publique garantissant des solutions open source (59 %). Enfin, l’équité d’accès aux outils et la recherche sur leurs impacts sont perçues comme des priorités complémentaires.

Le rôle central de l’humain dans l’acte éducatif

Face aux projections d’une école transformée par l’IA, les enseignants réaffirment le rôle central de l’humain dans l’acte éducatif. Le baromètre met en évidence la hiérarchisation des compétences jugées essentielles à transmettre : l’esprit critique arrive en tête, bien avant les savoir-faire techniques. Plus qu’une adoption naïve des technologies, les enseignants revendiquent une appropriation encadrée, exigeante et alignée avec leur mission fondamentale.

En définitive, l’IA progresse dans l’éducation française, mais elle demeure confinée à des usages de confort. L’absence de politique publique lisible et de dispositifs de formation généralisés limite pour l’heure son potentiel pédagogique. Si l’adhésion croît, elle reste conditionnée à une appropriation collective et institutionnelle. La demande est claire : maîtriser l’outil pour qu’il reste au service de l’école, et non l’inverse.