Technomedia

Numérique · médias · sciences · intelligence artificielle

Et si on apprenait enfin à bien utiliser son smartphone pour faire des photos ?

 

photo

L’appareil photo n’est pas mort, il a changé de forme. Longtemps compagnon de voyage ou de moments familiaux, le boîtier numérique classique s’est effacé sans bruit devant un rival inattendu : le téléphone portable. En une décennie, les usages se sont inversés et selon les dernières données de Photutorial, plus de 92 % des photographies prises en 2025 le sont avec un smartphone, contre à peine 7 % pour les appareils dédiés.

photo

Autrefois emblème de la maîtrise technique, l’appareil photo grand public n’est plus que l’ombre de lui-même et les ventes s’effondrent. Mais la photographie, elle, reste.

C’est dans ce paysage transformé que s’inscrit l’ouvrage "Smart Photos" de Jo Bradford, publié aux éditions Eyrolles. Photographe de formation, militante de l’image populaire, l’autrice britannique entend répondre à un besoin clair : redonner du sens et de la méthode à ce geste devenu universel — prendre une photo avec son téléphone. La photographe entend expliquer les potentialités du nouvel outil omniprésent, souvent sous-estimé et parfois mal utilisé.

Un manuel exigeant pour un outil devenu banal

Le projet de Jo Bradford n’est ni techniciste, ni élitiste mais repose sur la conviction simple que la qualité d’une photographie ne dépend pas du matériel, mais du regard. À rebours des manuels de photographie mobile empilant astuces et effets, "Smart Photos" propose une grammaire des bons gestes. Il s’agit moins de "faire de belles images" que de comprendre pourquoi certaines fonctionnent, comment les cadrer, les éclairer, les composer.

Jo Bradford aborde ainsi les règles fondamentales de la composition, la gestion de la lumière, la dynamique des lignes, le rôle des couleurs. Elle invite à regarder avant de déclencher, à penser la scène plutôt qu’à la capturer à la volée. Pas évident… À l’appui de son propos, le livre propose des visuels inspirants, des conseils concrets et une structure accessible sans être simpliste.

Eloge de la lenteur

Le livre s’adresse à un large public : voyageurs, créateurs de contenu, journalistes, enseignants, amateurs curieux. À l’heure où chaque jour voit défiler plus de 5 milliards d’images sur nos écrans, Jo Bradford plaide pour une photographie plus lente, plus pensée, plus juste.

Elle n’ignore pas la puissance des réseaux, ni la dimension virale de l’image mobile, mais elle refuse d’y voir une fatalité et estime au contraire que le smartphone peut devenir un instrument de narration, de documentation, d’expression personnelle.

IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions

IA


Par Mônica Macedo-Rouet, CY Cergy Paris Université

La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.

Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.


Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.

En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.

Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.

Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.

D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?

Le rôle des sources dans les écrits scientifiques… et dans les textes générés par l’IA

L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.

Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.

Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.

Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.

L’IA peut contredire ses sources : elle n’est pas conçue pour y être fidèle

Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.

À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.

Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.

Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.

Ne pas citer ses sources (correctement) est passible de sanctions

Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 (page 5289) :

« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »

Cependant, la même réponse précise que :

« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »

Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.

En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.

Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.

Une première piste : améliorer la détection des textes produits par l’IA

Une première piste serait d’améliorer la détection des textes produits par l’IA.

Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.

C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.

Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.

Former – toujours former ! – à l’évaluation des sources d’information

Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.

L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.

Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.The Conversation

Mônica Macedo-Rouet, Professeure des universités en psychologie de l'éducation, CY Cergy Paris Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Réseaux télécoms et intelligence artificielle : l'Arcep se penche sur une révolution silencieuse

network


L’intelligence artificielle ne transforme pas seulement nos usages mais redessine en profondeur l’architecture et la gouvernance des réseaux de télécommunications. Dans une note de synthèse publiée le 26 juin 2025, l’Arcep détaille les mutations en cours et à venir. En toile de fond, une interrogation centrale : qui maîtrisera les nouveaux équilibres techniques, économiques et politiques de cette transition numérique ?

Automatisation progressive, promesse d’autonomie

Loin des projections futuristes, l’intelligence artificielle est déjà à l’œuvre dans les télécoms. Dans les réseaux fixes, elle prend la forme d’une vision par ordinateur qui contrôle les raccordements à la fibre. À partir de simples photos, les opérateurs d’infrastructure peuvent désormais détecter des malfaçons avec une précision de 90 à 99 %. Le contrôle qualité, hier manuel, devient systématique, automatisé, intégré.

Côté mobile, l’IA est mobilisée pour surveiller les équipements (climatisation, batteries), prédire les pics de trafic ou réduire la consommation énergétique des antennes. Les réseaux se dirigent vers une autonomie croissante : jumeaux numériques capables de simuler des reconfigurations complexes ; réseaux dits « zero-touch » s’auto-réparant ; ou encore architectures « AI natives », où l’intelligence n’est plus une surcouche mais une colonne vertébrale.

Cette convergence provoque un changement de paradigme : l’intelligence n’est plus localisée dans les centres, elle irrigue l’ensemble de l’infrastructure, du cœur de réseau jusqu’à la boucle locale.

Vers de nouveaux services et de nouveaux rapports de force

Ces évolutions techniques ne sont pas neutres. Elles préparent, selon l'Arcep, l’arrivée de nouveaux services, déjà expérimentés : assistants IA embarqués dans les box, détection native des appels frauduleux, « accès VIP » à la 5G en un clic, ou retranscription automatique des appels professionnels. Le secteur, longtemps perçu comme saturé, trouve dans l’IA une respiration stratégique.

Mais cette innovation redistribue aussi les cartes entre acteurs. Les opérateurs cherchent à capitaliser sur leur accès privilégié aux données des abonnés ; les équipementiers intègrent de plus en plus de briques IA dans leurs offres ; les hyperscalers avancent leurs pions sur la couche logicielle et la puissance de calcul. Aucun ne détient seul les clés de cette recomposition et tous multiplient les alliances : Orange avec Mistral AI, Vodafone avec Microsoft, Bouygues avec Perplexity.

Pour l’Arcep, l’IA transforme la chaîne de valeur, mais ne crée pas encore de position dominante insurmontable. Le marché reste fragmenté, mouvant, ouvert – à condition d’un accès équitable aux données d’entraînement et aux capacités de calcul.

Des tensions montantes : trafic, sécurité, climat

Reste l’infrastructure. Les usages génératifs (images, vidéo, assistants IA, robotaxis…) changent la nature du trafic : hausse du volume, du trafic montant, des exigences en latence. Le modèle historique des réseaux – dimensionnés pour un téléchargement massif et centralisé – vacille. La montée en puissance de l’edge computing et du slicing permettrait de mieux absorber cette pression, mais l’ajustement ne sera ni immédiat, ni sans coût, selon l'Arcep.

L’IA améliore la résilience, identifie les incidents, anticipe les pannes, mais elle crée aussi de nouvelles vulnérabilités : attaques sur les données d’entrée, manipulation d’algorithmes, opacité des modèles. Une IA performante, mais non maîtrisée, pourrait devenir un facteur de déstabilisation systémique.

Enfin, l'Arcep aborde dans sa note la question environnementale. Peu d’opérateurs sont aujourd’hui capables de mesurer l’impact carbone précis de leurs usages IA. Et pourtant, l’Agence internationale de l’énergie anticipe un doublement de la consommation électrique des data centers entre 2022 et 2026, principalement du fait de l’IA. L’optimisation énergétique, autrefois un objectif secondaire, devient une condition de légitimité.

Newsletter : le canal que les marques redécouvrent

newsletter

Dans un univers saturé d’images, de contenus éphémères et de sollicitations incessantes, la newsletter fait figure d’exception. Sobre, régulière, discrète mais attendue, elle échappe à l’économie de la pulsion pour mieux cultiver celle de l’attention. Kessel, plateforme française dédiée à la publication de newsletters, vient d’en apporter une nouvelle démonstration. Aux côtés de l’agence d’études iligo, elle signe la première étude d’impact publicitaire spécifiquement consacrée à ce canal éditorial. Le verdict est sans appel : avec 79 % de taux de mémorisation, les newsletters s’imposent comme l’un des supports les plus puissants du paysage médiatique.

L’attention retrouvée : 55 % des lecteurs se concentrent sur la publicité

Dans la guerre pour capter l’attention des publics, les newsletters, souvent considérées comme des outils secondaires, déjouent les pronostics. L’étude menée auprès de 4 183 abonnés aux lettres TTSO et Voxe, deux publications gratuites mais ciblées, révèle que 55 % des lecteurs prêtent attention aux publicités présentes dans ces contenus — dont 20 % de manière soutenue. Ce chiffre place la newsletter devant les réseaux sociaux, là où la publicité est omniprésente mais souvent ignorée, parasitée ou subie. Ici, le lecteur choisit de lire, et consent à l’environnement publicitaire intégré.

Mieux encore, 30 % des répondants affirment se souvenir, a posteriori, du message promu. Cette donnée, bien qu’en deçà du score de mémorisation mesuré après exposition (79 %), illustre le rôle actif du public dans la réception : voir, comprendre, se souvenir.

Un média d’adhésion, non d’interruption

La force de la newsletter repose sur son mode de diffusion : intime, régulier, adressé. À rebours de l’interruption permanente, elle permet un espace où publicité et contenu éditorial coexistent sans se heurter. Ce n’est pas un hasard si 61 % des répondants affirment apprécier les publicités qu’ils y rencontrent. Pour Adrien Labastire, cofondateur de Kessel, « la newsletter permet de créer un contenu publicitaire plus appréciable : choisi et non subi, mieux intégré, respectueux du sens ».

Cette relation singulière entre lecteur et auteur, souvent nourrie de fidélité et de confiance, participe à la crédibilité des messages diffusés. Un constat confirmé par Emmanuel Ferry, directeur de la stratégie chez Kessel : « Le lien entre le créateur et le contenu est crucial. Il y a un engagement mutuel de respect intellectuel. »

Une intention d’achat qui dépend de l’offre… et de la confiance

Loin d’être un simple vecteur d’image, la newsletter agit aussi comme levier d’action. L’étude note que 20 % des lecteurs expriment une intention positive d’acheter ou d’en savoir plus après exposition publicitaire. Un taux qui peut atteindre 32 % selon la pertinence de l’offre ou le profil du créateur. Là encore, le format joue en faveur de la cohérence : dans la newsletter, le contenu publicitaire est rarement hors-sol. Il est souvent contextualisé, parfois commenté, toujours encadré.

Plusieurs marques l’ont bien compris. De Netflix à L’Oréal, de la SNCF à Dom Pérignon, les annonceurs réinvestissent ce média éditorial, porté par un effet de levier fort auprès d’un public CSP+, qualifié, fidèle. Kessel, qui fédère plus de 3 500 auteurs et 1,5 million d’abonnés, se place ainsi à l’intersection entre influence, information et publicité. Et ce n’est peut-être qu’un début.

Vers un nouvel âge de la publicité éditoriale ?

L’étude iligo-Kessel ne constitue pas qu’un rapport chiffré : elle acte un basculement. À l’heure où les plateformes modifient leurs algorithmes et où la défiance envers les formats publicitaires croît, la newsletter s’impose comme un îlot de confiance. Non pas le média du passé, mais peut-être celui d’un futur plus maîtrisé. Une reconquête de l’attention, patiente et durable.

L’IA prend-elle la place des artistes ou redéfinit-elle simplement ce qu’est la création artistique ?

 

IA

Par Céline Delaugère, fondatrice de My Data Machine

Aujourd’hui, l’intelligence artificielle s'immisce dans les domaines de l’art et de la création. Longtemps perçue comme un outil purement technique, elle devient peu à peu un acteur à part entière du processus artistique. Que ce soit dans la mode, la musique, le cinéma ou encore l’art visuel, l’IA ne se contente plus de faire. Aujourd’hui elle propose, elle inspire et surtout elle interroge.

La mode au coeur des transformations technologiques

L’un des domaines artistiques les plus touchés par ces évolutions est la mode. Les visages générés par IA, les vêtements conçus numériquement et les prototypes créés sans impact carbone sont des innovations bien réelles. Ces technologies, d’une part, permettent un gain de temps important, une réduction des coûts et une nouvelle liberté créative. Des innovations telles que qu’un support numérique pour tester des prototypes, réitérer sur le même support, sans jeter, ni surconsommer, c’est une révolution pour les designers. Ils peuvent explorer des esthétiques inédits sans limites, ni contraintes classiques. L’IA ne remplace pas l'humain mais elle diminue les tâches répétitives pour laisser plus de place à la création.

L’IA bouscule les codes sociétaux

Mais cette transformation ne pose pas la seule question de l’efficacité. L’Ia pousse l’art à se repenser. Elle interroge les normes, les représentations publiques, les critères de beauté. Aujourd’hui, des artistes créent des portraits générés par IA qui viennent troubler notre perception du réel. A travers des visages parfaits mais bien fictifs, les algorithmes révèlent l’artificialité et le manque de réalisme des standards de beauté actuels. En mêlant codage et émotions, mathématiques et ressentis, l’IA devient une expression artistique à elle seule.

Ce que cette société vit n'est pas une simple évolution technologique, c’est une transformation culturelle. L’IA ne se contente plus de produire ce qu’on lui dicte. Aujourd’hui, elle fait sens. Elle ouvre des brèches dans nos imaginaires et met en lumière les exclusions invisibles. L’IA est aujourd'hui un enjeu de société. Elle doit être capable d’être à la fois éthique et esthétique en prenant compte de la singularité et l’exception de chacun.

L’IA transforme l’art à condition de savoir l’encadrer

Il est tout de même évident de nuancer ces propos. Ce changement n’est pas sans risques. L’accès à l’intelligence artificielle a un coût. Si nous ne faisons pas attention, l’IA pourrait renforcer les inégalités, notamment dans l’accès à la connaissance, aux soins et à la création. Il est donc important de réfléchir à une IA responsable, inclusive et capable d’amplifier la créativité et la diversité.

L’IA : pas une remplaçante, mais un levier pour réinventer la création

Car finalement, la question n’est pas de savoir si l’IA va remplacer les artistes, elle ne le peut pas. Les freins à L’IA pour nous remplacer sont tout ce qu’elle n’a pas d’humain : l'intuition, le doute, le désir… Mais, cette nouvelle technologie peut devenir un grand levier et un terrain d’exploration créatif infini. L’IA n’automatise pas l’inventivité, elle la pousse pour aller plus loin.

Dans cette union entre données et émotions, entre machine et imagination humaine, il y a l’annonce d’un nouvel art. Ce nouvel art qui ne craint pas la technologie mais qui, au contraire, l’utilise pour se réinventer. Un art ou l’IA devient un outil artistique, ou le calcul mathématique devient une intuition et le virtuel devient émotion.

L’IA n’a pas d’intuition, pas de désir, et pourtant, elle ouvre de nouvelles voies à la création humaine. Ce changement représente peut-être le début d’une nouvelle ère. À nous de se l'approprier et d’en faire un art.

Fraude bancaire : les PME subissent dix tentatives d’attaque par an

 

cyberattaque

Une enquête publiée par l’Association nationale des Directeurs Financiers et de Contrôle de Gestion (DFCG) et Memo Bank montre combien les PME sont exposées aux fraudes bancaires. Près de 85 % des PME et ETI françaises interrogées déclarent avoir subi au moins une tentative de fraude au cours des douze derniers mois. Une progression spectaculaire de 25 points en cinq ans. Et surtout un basculement : le virement bancaire, pourtant outil fondamental du fonctionnement économique, devient le canal privilégié des escrocs.

La messagerie électrique : point d’entrée des cyberpirates

Dans 57 % des fraudes abouties, l’arnaque passe par ce vecteur. Rapide, souvent irréversible, le virement combine tous les risques : montants élevés, procédures parfois défaillantes, et surtout, une négligence préoccupante. Une entreprise sur deux ne vérifie pas systématiquement les IBAN de ses fournisseurs, selon l’étude. Une faille béante, d’autant plus que 23 % des entreprises subissent plus de dix tentatives d’attaque par an.

Le phishing – ou hameçonnage par messagerie – reste l’arme favorite des cybercriminels. Trois quarts des fraudes y trouvent leur point d’entrée. La messagerie électronique et les processus de validation interne forment un couple vulnérable. Ce n’est pas le système d’information dans sa globalité qui est pris pour cible, mais ses maillons humains, cognitifs, comportementaux.

Or, si les pertes directes restent modérées (inférieures à 50 000 euros dans 78 % des cas), les répercussions sont bien plus profondes : perturbation des équipes (75 %), tensions avec les partenaires (22 %), voire blocages d’activité (47 %). L’argent perdu ne revient presque jamais : deux tiers des entreprises ne parviennent pas à le récupérer.

Le levier de défense est dans une bonne gouvernance

Le diagnostic de la DFCG est sans appel : le véritable levier de défense ne se trouve pas dans la technologie seule, mais dans la gouvernance. Dans 42 % des cas, la responsabilité de la fraude remonte à la direction financière. Très loin devant les DSI (16 %). Un signal fort. Ce n’est pas seulement un problème de pare-feu ou de logiciels, c’est un enjeu de culture managériale et de rigueur procédurale.

Et pourtant, les fondamentaux ne sont pas tous en place. Moins de la moitié des entreprises disposent de procédures formalisées en cas d’attaque. À peine un quart sont assurées contre la fraude. Ce paradoxe, pointé par Christian Laveau (DFCG), résume l’état des lieux : la conscience du danger progresse, mais les actes ne suivent pas.

Montée en puissance de l’IA générative

La montée en puissance de l’intelligence artificielle (IA) générative et des deepfakes (vidéos truquées) ajoute une couche d’inquiétude : 83 % des directions financières considèrent cette menace comme prioritaire. Imitations de voix, vidéos falsifiées, usurpation de signature numérique : avec l’IA les techniques de manipulation prennent une nouvelle dimension. Et viennent amplifier les failles humaines, que 71 % des répondants désignent aussi comme risques majeurs.

enquete

Pourtant, certaines pratiques simples font leurs preuves : double validation des paiements (déployée dans 81 % des cas), formations annuelles (65 %), filtrage des e-mails suspects (65 %) et sensibilisation continue (57 %). Mais une mesure clé reste sous-utilisée : la double validation des bénéficiaires. Seules 53 % des entreprises y ont recours – précisément là où les fraudeurs concentrent leurs efforts, lors du changement de RIB.

enquete


Face à ces constats, DFCG et Memo Bank appellent à un sursaut. Une PME ne pourra pas affronter seule des menaces mondiales et sophistiquées, mais elle peut – et doit – mieux se défendre. Par la formation, la méthode et l’exigence.

La banque, elle aussi, est appelée à changer de posture. 87 % des entreprises attendent d’elle un rôle actif de veille sur les transactions anormales. Et 79 % souhaitent un système automatisé de vérification des IBAN.

Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?

IA

Par Antoine Pelissolo, Université Paris-Est Créteil Val de Marne (UPEC)

Depuis le lancement, en novembre 2022, de ChatGPT, l’agent conversationnel développé par OpenAI, les intelligences artificielles génératives semblent avoir envahi nos vies. La facilité et le naturel avec lesquels il est possible d’échanger avec ces outils sont tels que certains utilisateurs en font même de véritables confidents. Ce qui n’est pas sans risque pour la santé mentale.


Les grands modèles de langage, autrement dit les intelligences artificielles « génératives » telles que ChatGPT, Claude et autre Perplexity, répondent à de très nombreux besoins, que ce soit en matière de recherche d’informations, d’aide à la réflexion ou de résolution de tâches variées ; ce qui explique l’explosion actuelle de leur utilisation scolaire, universitaire, professionnelle ou de loisir.

Mais un autre usage de ces IA conversationnelles se diffuse à une vitesse impressionnante, en particulier chez les jeunes : l’équivalent de discussions entre amis, pour passer le temps, questionner ou échanger des idées et surtout se confier comme on le ferait avec un proche. Quels pourraient être les risques liés à ces nouveaux usages ?

Un terrain propice à une adoption rapide

La conversation par écrit avec les intelligences artificielles semble s’être banalisée très rapidement. À noter d’ailleurs que s’il existe des IA utilisant des échanges vocaux, elles semblent cependant moins utilisées que les échanges textuels.

Il faut dire que nous étions depuis de longues années déjà habitués à échanger par écrit sans voir notre interlocuteur, que ce soit par SMS, par e-mail, par « tchat » ou tout autre type de messagerie. Les IA génératives reproduisant remarquablement bien l’expression verbale des êtres humains, l’illusion de parler à une personne réelle est quasiment immédiate, sans avoir besoin d’un avatar ou d’une quelconque image simulant l’autre.

Immédiatement disponibles à toute heure du jour et de la nuit, conversant toujours sur un ton aimable, voire bienveillant, entraînées à simuler l’empathie et dotées, si ce n’est d’une « intelligence », en tout cas de connaissances en apparence infinies, les IA sont en quelque sorte des partenaires de dialogue idéales.

Il n’est dès lors pas étonnant que certains se soient pris au jeu de la relation, et entretiennent des échanges suivis et durables avec ces substituts de confidents ou de « meilleurs amis ». Et ce, d’autant plus que ces conversations sont « personnalisées » : les IA mémorisent en effet les échanges précédents pour en tenir compte dans leurs réponses futures.

Certaines plateformes, comme Character.ai ou Replika, proposent par ailleurs de personnaliser à sa guise l’interlocuteur virtuel (nom, apparence, profil émotionnel, compétences, etc.), initialement pour simuler un jeu de rôle numérique. Une fonctionnalité qui ne peut que renforcer l’effet de proximité, voire d’attachement affectif au personnage ainsi créé.

Voici à peine plus de dix ans, le réalisateur Spike Jonze tournait le film Her, décrivant la relation amoureuse entre un homme sortant d’une difficile rupture et l’intelligence artificielle sur laquelle s’appuyait le système d’exploitation de son ordinateur. Aujourd’hui, il se pourrait que la réalité ait déjà rejoint la fiction pour certains utilisateurs des IA génératives, qui témoignent avoir entretenu une « romance numérique » avec des agents conversationnels.

Des pratiques qui pourraient ne pas être sans risque pour l’équilibre mental de certaines personnes, notamment les plus jeunes ou les plus fragiles.

Des effets sur la santé mentale dont la mesure reste à prendre

Nous constatons aujourd’hui, dans tous les pays (et probablement bien trop tard…), les dégâts que l’explosion de l’usage des écrans a causés sur la santé mentale des jeunes, en particulier du fait des réseaux sociaux.

Entre autres facteurs, une des hypothèses (encore controversée, mais très crédible) est que la désincarnation des échanges virtuels perturberait le développement affectif des adolescents et favoriserait l’apparition de troubles anxieux et dépressifs.

Jusqu’à aujourd’hui, pourtant, les échanges menés par l’intermédiaire des réseaux sociaux ou des messageries numériques se font encore a priori principalement avec des êtres humains, même si nous ne côtoyons jamais certains de nos interlocuteurs dans la vie réelle. Quels pourraient être les conséquences, sur l’équilibre mental (émotionnel, cognitif et relationnel) des utilisateurs intensifs, de ces nouveaux modes d’échanges avec des IA dénuées d’existence physique ?

Il est difficile de les imaginer toutes, mais on peut concevoir sans peine que les effets pourraient être particulièrement problématiques chez les personnes les plus fragiles. Or, ce sont précisément celles qui risquent de faire un usage excessif de ces systèmes, comme cela est bien établi avec les réseaux sociaux classiques.

À la fin de l’année dernière, la mère d’un adolescent de 14 ans qui s’est suicidé a poursuivi les dirigeants de la plateforme Character.ai, qu’elle tient pour responsables du décès de son fils. Selon elle, son geste aurait été encouragé par l’IA avec laquelle il échangeait. En réponse à ce drame, les responsables de la plateforme ont annoncé avoir implémenté de nouvelles mesures de sécurité. Des précautions autour des propos suicidaires ont été mises en place, avec conseil de consulter en cas de besoin.

Une rencontre entre des personnes en souffrance et un usage intensif, mal contrôlé, d’IA conversationnelles pourrait par ailleurs conduire à un repli progressif sur soi, du fait de relations exclusives avec le robot, et à une transformation délétère du rapport aux autres, au monde et à soi-même.

Nous manquons actuellement d’observations scientifiques pour étayer ce risque, mais une étude récente, portant sur plus de 900 participants, montre un lien entre conversations intensives avec un chatbot (vocal) et sentiment de solitude, dépendance émotionnelle accrue et réduction des rapports sociaux réels.

Certes, ces résultats sont préliminaires. Il paraît toutefois indispensable et urgent d’explorer les effets potentiels de ces nouvelles formes d’interactions pour, si cela s’avérait nécessaire, mettre tout en œuvre afin de limiter les complications possibles de ces usages.

Autre crainte : que dialoguer avec un « fantôme » et se faire prendre à cette illusion puissent aussi être un facteur déclenchant d’états pseudo-psychotiques (perte de contact avec la réalité ou dépersonnalisation, comme on peut les rencontrer dans la schizophrénie), voire réellement délirants, chez des personnes prédisposées à ces troubles.

Au-delà de ces risques, intrinsèques à l’emploi de ces technologies par certaines personnes, la question d’éventuelles manipulations des contenus – et donc des utilisateurs – par des individus mal intentionnés se pose également (même si ce n’est pas cela que nous constatons aujourd’hui), tout comme celle de la sécurité des données personnelles et intimes et de leurs potentiels usages détournés.

IA et interventions thérapeutiques, une autre problématique

Pour terminer, soulignons que les points évoqués ici ne portent pas sur l’utilisation possible de l’IA à visée réellement thérapeutique, dans le cadre de programmes de psychothérapies automatisés élaborés scientifiquement par des professionnels et strictement encadrés.

En France, les programmes de ce type ne sont pas encore très utilisés ni optimisés. Outre le fait que le modèle économique de tels outils est difficile à trouver, leur validation est complexe. On peut cependant espérer que, sous de nombreuses conditions garantissant leur qualité et leur sécurité d’usage, ils viendront un jour compléter les moyens dont disposent les thérapeutes pour aider les personnes en souffrance, ou pourront être utilisés comme supports de prévention.

Le problème est qu’à l’heure actuelle, certaines IA conversationnelles se présentent d’ores et déjà comme des chatbots thérapeutiques, sans que l’on sache vraiment comment elles ont été construites : quels modèles de psychothérapie utilisent-elles ? Comment sont-elles surveillées ? et évaluées ? Si elles devaient s’avérer posséder des failles dans leur conception, leur emploi pourrait constituer un risque majeur pour des personnes fragiles non averties des limites et des dérives possibles de tels systèmes.

Les plus grandes prudence et vigilance s’imposent donc devant le développement ultrarapide de ces nouveaux usages du numérique, qui pourraient constituer une véritable bombe à retardement pour la santé mentale…The Conversation

Antoine Pelissolo, Professeur de psychiatrie, Inserm, Université Paris-Est Créteil Val de Marne (UPEC)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Des salariés connectés dès 6h, 153 mails par jour : Microsoft alerte sur la fin de la journée de travail classique et l’explosion des horaires étendus

 

numerique

Le dernier Work Trend Index Special Report de Microsoft, intitulé « Breaking down the infinite workday », dresse un état des lieux préoccupant du quotidien numérique des salariés. Fondé sur l’analyse de milliards de signaux issus de l’usage des outils Microsoft 365, croisés avec une enquête menée auprès de 31 000 actifs dans 31 pays, le rapport documente l’éclatement progressif de la journée de travail classique au profit d’un modèle fluide, sans début ni fin clairement délimités.

Des salariés connectés… dès 6 heures du matin !

Dès 6 heures du matin, près de 40 % des utilisateurs de la suite Microsoft 365 sont déjà actifs, principalement pour consulter leur boîte mail. En moyenne, un travailleur reçoit aujourd’hui 117 e-mails par jour, dont la majorité sont ouverts en moins d’une minute.

On observe par ailleurs une augmentation notable des messages collectifs envoyés à plus de vingt destinataires, tandis que les échanges individuels tendent à reculer.

153 courriels reçus en moyenne chaque jour

À partir de 8 heures, l’e-mail cesse d’être la première source de distraction. Teams prend le relais, avec 153 messages reçus en moyenne chaque jour par utilisateur. Le flux de notifications devient alors quasi constant, provoquant une interruption de l’attention toutes les deux minutes. Cette surcharge est d’autant plus marquée que la majorité des réunions se concentrent entre 9 et 11 heures, puis entre 13 et 15 heures, c’est-à-dire aux moments de la journée traditionnellement les plus propices à la concentration.

Cette organisation entraîne une fragmentation de l’attention. Près de la moitié des salariés – et 52 % des managers – décrivent leur journée comme chaotique et fragmentée. Le nombre de réunions non planifiées progresse : 57 % des échanges en visioconférence se déroulent sans invitation formelle, et 10 % des réunions programmées sont ajoutées à l’agenda à la dernière minute. Les grands rassemblements virtuels, réunissant plus de 65 personnes, sont en hausse. Dans les dix minutes qui précèdent une réunion, le volume de modifications apportées à des documents PowerPoint bondit de 122 %, illustrant une précipitation chronique.

Une "journée à triple pic" et des réunions organisées après 20 heures

La montée en puissance d’un phénomène décrit comme une "journée à triple pic" redéfinit les rythmes de productivité. Les périodes de forte activité ne se concentrent plus uniquement le matin et l’après-midi : elles s’étendent désormais jusque dans la soirée. Microsoft note une augmentation de 16 % des réunions organisées après 20 heures. À 22 heures, un tiers des utilisateurs sont encore connectés à leur messagerie. Le week-end n’est pas épargné : 20 % des salariés consultent leurs mails avant midi, et 5 % anticipent la reprise dès le dimanche soir.

Face à cette intensification, Microsoft met en garde : automatiser un processus chaotique revient souvent à en accélérer la désorganisation. L’intelligence artificielle ne constitue pas en soi une réponse suffisante, sauf à l’accompagner d’un véritable changement d’approche. L’éditeur recommande une répartition des tâches selon la règle des 80/20, qui consiste à déléguer à l’IA les missions à faible valeur ajoutée pour permettre aux équipes humaines de se concentrer sur les activités stratégiques. Il suggère également de repenser l’organisation du travail autour de “work charts” plus agiles, où des agents IA collaborent avec les humains au sein de petites cellules centrées sur des objectifs. Enfin, le rapport évoque l’émergence possible de nouveaux rôles managériaux chargés de superviser ces agents numériques.

La journée de travail traditionnelle de 9 heures à 17 heures devenue une fiction

Selon Microsoft, la journée de travail traditionnelle de 9 heures à 17 heures est aujourd’hui une fiction. Le temps de concentration est morcelé, le numérique en accélère l’érosion, et les frontières entre vie personnelle et vie professionnelle se brouillent. À défaut d’une réinvention structurelle du travail, la généralisation de l’intelligence artificielle pourrait bien accentuer la pression au lieu de l’alléger.

Notre avenir dépend-il de l’intelligence… artificielle ?

 

IA

Tribune de Constance Blanc, fondatrice de l'agence "Évidemment l'Agence"

Notre avenir dépend-il de la technique ? La question posée ce matin à plus de 500 000 candidats au bac philo semble aussi planer, en silence, au-dessus de toutes les professions dites « intellectuelles ». Car derrière la technique d’hier — le livre, l’imprimerie, l’ordinateur — se cache aujourd’hui un nom qui ne laisse personne indifférent : l’intelligence artificielle.

Et si cette intelligence-là n’était plus un simple outil, mais une nouvelle force motrice de sélection ? Une nouvelle manière de trier ce qui compte et ce qui ne compte pas, ce qui mérite d’être vu, diffusé, relayé… ou non. Ce qui est dit. Et ce qui est effacé.

Dans les relations presse, le bouleversement est total. L’IA n’est pas un simple assistant. Elle devient un filtre, un moteur, un juge silencieux. Elle scrute les mots-clés, hiérarchise les informations, décide qui « mérite » une visibilité. Et ce n’est plus seulement l’œil humain qui décide de l’actualité — ce sont les algorithmes qui amplifient, accélèrent, ignorent. Ce sont eux qui font exister, dans une temporalité toujours plus rapide, toujours plus technique.

Dans ce nouveau monde, ne pas être préparé, c’est disparaître. Un pitch qui ne contient pas les bons marqueurs ? Invisible. Une entreprise qui n’optimise pas ses prises de parole ? Inaudible. Un dirigeant qui n’alimente pas sa présence numérique ? Inexistant. L’IA ne crée pas le contenu, mais elle décide de ce qu’elle en fait.

Et pourtant, paradoxalement, jamais l’intelligence humaine n’a été aussi essentielle.

Car dans un écosystème où la forme prend parfois le pas sur le fond, où la rapidité l’emporte sur la nuance, la parole humaine — incarnée, pensée, stratégique — est un acte de résistance. Elle est ce qui donne du relief à l’information, ce qui crée de la mémoire, ce qui provoque le débat.

Les métiers de la communication, du journalisme, des contenus — longtemps pensés comme menacés par la technologie — sont en réalité appelés à muter. Pas à mourir. Ce sont ceux qui sauront faire dialoguer l’intelligence artificielle et l’intelligence sensible, l’intelligence émotionnelle et l’intelligence narrative, qui sortiront du lot. Non pas parce qu’ils seront les plus techniques. Mais parce qu’ils auront compris que l’IA ne remplace pas la voix : elle amplifie celle qui porte.

Alors oui, notre avenir dépend de l’intelligence. Mais pas seulement de celle qui code. De celle qui sent, qui pense, qui devine. De celle qui sait que derrière chaque algorithme, il faut une intention, un élan, une idée. L’IA est une main. Encore faut-il savoir quoi lui faire écrire.

Bilan de VivaTech 2025 : l’IA en étendard, la tech en convergence

vivatech

Jamais VivaTech n’avait autant misé sur l’intelligence artificielle : plus de 40 % des exposants présentaient cette année des solutions fondées sur des technologies d’IA, qu’elles soient génératives, prédictives, embarquées ou souveraines. L’AI Avenue, animée notamment par Salesforce, a vu défiler une foule dense autour des démonstrations de startups comme Buddyo, Vrai AI ou Next. Plusieurs annonces ont également rythmé ces quatre jours, à commencer par la création de “Mistral Compute” – une nouvelle infrastructure européenne de calcul IA lancée en partenariat entre NVIDIA et Mistral AI. Pour la première fois, le GTC Paris – grand-messe technologique de NVIDIA – s’est tenu dans le cadre de VivaTech, symbolisant la convergence des écosystèmes. 

Un carrefour mondial d’entrepreneuriat

Avec plus de 14 000 jeunes pousses venues de 120 pays et 50 pavillons nationaux, VivaTech s’est imposé comme le cœur battant du capital-risque européen. Les investisseurs les plus influents (Accel, Sequoia, KKR, Eurazeo, Google Ventures…) ont arpenté les allées à la recherche de la prochaine licorne. Quelque 640 000 connexions business ont été enregistrées sur la plateforme de mise en relation, un record. La présence de délégations entières – comme celle du Canada, pays invité d’honneur avec plus de 170 structures représentées – témoigne de l’attractivité croissante de l’événement à l’échelle mondiale.

Des figures de proue et des voix émergentes

La scène centrale a accueilli plus de 450 intervenants internationaux, mêlant figures tutélaires et nouveaux visages de la tech. Jensen Huang (NVIDIA), Arthur Mensch (Mistral AI), Yann Le Cun (Meta), Sarah Friar (OpenAI), Thomas Wolf (Hugging Face), Fidji Simo (Instacart), ou encore Emmanuel Macron – venu réaffirmer l’ambition française en matière d’IA – ont ponctué les débats. À leurs côtés, des responsables publics comme Clara Chappaz, ministre déléguée chargée de l’IA et du Numérique, ou Vanessa Wyche de la NASA ont illustré l’enchevêtrement croissant entre pouvoir politique, innovation scientifique et stratégies industrielles.

Une tech plus inclusive et à impact

S’il se veut vitrine des révolutions technologiques, VivaTech se positionne aussi en creuset des innovations à finalité sociale et environnementale. Sur 1500 m², l’Impact Bridge co-construit avec EDF a mis en lumière les projets les plus prometteurs de la “Tech for Change”, en cohérence avec la certification ISO 20121 du salon. La Global Awards Ceremony, organisée avec TechCrunch, a consacré des figures emblématiques de cette dynamique, à l’instar d’Hélène Briand (Verley), d’Adrienne de Malleray (Genesis) ou encore de la startup Reme-D.Inc, grande lauréate des AfricaTech Awards.

Une édition tous indicateurs au vert

Au-delà de l’affluence sur site, VivaTech 2025 aura connu un retentissement numérique sans précédent : +3,6 millions d’interactions sociales (+68 %), 7 millions de reach pour sa chaîne d’info éphémère VivaTech News (+10 %) et une dynamique d’engagement renforcée. Dans leur déclaration commune, les co-présidents Maurice Lévy, Pierre Louette et François Bitouzet ont salué “une édition qui a changé d’échelle” et donné rendez-vous en juin 2026 pour célébrer les 10 ans d’un salon qui n’a plus à prouver sa centralité dans le paysage mondial de l’innovation.

Peut-on laisser un chargeur branché en permanence ?


Un chargeur qui reste branché consomme en continu une petite quantité d’énergie dont une partie se perd sous forme de chaleur. YG PhotoArtWorks/Shutterstock
Glen Farivar, The University of Melbourne

Pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé, les Québécois ont un joli terme : l’« énergie vampire » ou « énergie fantôme ». Cette énergie est-elle un mythe ? Peut-on laisser les chargeurs branchés ? Y a-t-il d’autres risques – du vieillissement accéléré à la surchauffe, voire au départ de feu ?


Combien de chargeurs possédez-vous ? Nous sommes entourés d’appareils électroniques rechargeables : téléphones mobiles, ordinateurs portables, montres intelligentes, écouteurs, vélos électriques, etc.

Il y a peut-être un chargeur de téléphone branché à côté de votre lit, que vous ne prenez jamais la peine de le débrancher quand vous ne l’utilisez pas. Et un autre, d’ordinateur portable, près de votre bureau ?

Mais est-ce risqué ? Y a-t-il des coûts cachés liés au fait de laisser les chargeurs branchés en permanence ?

Que contient un chargeur ?

Bien sûr, tous les chargeurs sont différents. En fonction de leur application et de la puissance requise, leur structure interne peut varier et être très simple… ou très complexe.

Toutefois, un chargeur classique reçoit le courant alternatif (AC) de la prise murale et le convertit en courant continu (DC) à basse tension, qui est adapté à la batterie de votre appareil.

Pour comprendre la différence entre courant continu et alternatif, il faut considérer le flux d’électrons dans un fil. Dans un circuit à courant continu, les électrons se déplacent dans une seule direction et continuent de tourner dans le circuit. Dans un circuit à courant alternatif, les électrons ne circulent pas et se bougent successivement dans un sens puis dans l’autre.

La raison pour laquelle nous utilisons les deux types de courant remonte à l’époque où les inventeurs Thomas Edison et Nicola Tesla débattaient de savoir quel type de courant deviendrait la norme. In fine, aucun n’a vraiment eu le dessus, et aujourd’hui, nous sommes toujours coincés entre les deux. L’électricité est traditionnellement générée sous forme de courant alternatif (quand on utilise des bobines d’alternateurs), mais les appareils modernes et les batteries requièrent un courant continu. C’est pourquoi presque tous les appareils électriques sont équipés d’un convertisseur AC-DC.

Pour effectuer la conversion du courant alternatif en courant continu, un chargeur a besoin de plusieurs composants électriques : un transformateur, un circuit pour effectuer la conversion proprement dite, des éléments de filtrage pour améliorer la qualité de la tension continue de sortie, et un circuit de contrôle pour la régulation et la protection.

Un chargeur partiellement cassé avec deux broches et les puces internes exposées
Les chargeurs ont plusieurs composants électriques pour convertir le courant alternatif en courant continu que la batterie peut utiliser. PeterRoziSnaps/Shutterstock

Les chargeurs consomment de l’énergie même lorsqu’ils ne chargent rien

L’« énergie vampire », ou « énergie fantôme » – le terme utilisé par les Québécois pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé – est bien réelle.

Si vous le laissez branché, un chargeur consommera continuellement une petite quantité d’énergie. Une partie de cette énergie est utilisée pour faire fonctionner les circuits de contrôle et de protection, tandis que le reste est perdu sous forme de chaleur.

Si l’on considère un petit chargeur individuel, l’énergie vampire – également connue sous le nom d’énergie de veille – est négligeable. Toutefois, si vous additionnez la consommation des chargeurs de tous les appareils de la maison, le gaspillage d’énergie peut devenir important au fil du temps. De plus, l’énergie de veille n’est pas l’apanage des chargeurs : d’autres appareils électroniques, comme les téléviseurs, consomment également un peu d’énergie lorsqu’ils sont en veille.

Selon le nombre d’appareils laissés branchés, cela peut représenter plusieurs kilowattheures au cours d’une année.

Ceci étant, les chargeurs modernes sont conçus pour minimiser la consommation d’énergie vampire, avec des composants de gestion de l’énergie intelligents, qui les maintiennent en veille jusqu’à ce qu’un appareil externe tente de tirer de l’énergie.

Vue sous un bureau avec de nombreux appareils branchés sur une multiprise
Le fait d’avoir de nombreux chargeurs branchés dans votre maison peut entraîner une consommation d’énergie vampire considérable. Kit/Unsplash

Les autres risques des chargeurs laissés branchés

Les chargeurs s’usent au fil du temps lorsqu’ils sont traversés par un courant électrique, en particulier lorsque la tension du réseau électrique dépasse temporairement sa valeur nominale. Le réseau électrique est un environnement chaotique et diverses hausses de tension se produisent de temps à autre.

Exposer un chargeur à ce type d’événements peut raccourcir sa durée de vie. Si ce n’est pas vraiment un problème pour les appareils modernes, grâce aux améliorations sur leur conception et leur contrôle, il est particulièrement préoccupant pour les chargeurs bon marché et non certifiés. Ceux-ci ne présentent souvent pas les niveaux de protection appropriés aux surtensions, et peuvent constituer un risque d’incendie.

Comment dois-je traiter mes chargeurs ?

Bien que les chargeurs modernes soient généralement très sûrs et qu’ils ne consomment qu’un minimum d’énergie vampire, il n’est pas inutile de les débrancher de toute façon – quand c’est pratique.

En revanche, si un chargeur chauffe plus que d’habitude, fait du bruit, ou est endommagé d’une manière ou d’une autre, il est temps de le remplacer. Et il ne faut surtout pas le laisser branché.The Conversation

Glen Farivar, Lecturer in Power Electronics, The University of Melbourne

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Les start-ups « deep tech » : une réponse aux enjeux du XXIᵉ siècle ?

 

deeptech

Par Benjamin Cabanes, Mines Paris - PSL

Depuis quelques années, la « deep tech » a le vent en poupe. Mais que désigne ce terme ? Au-delà de la mode, le concept mobilise de vrais enjeux scientifiques, financiers mais aussi sociétaux.


Le terme « deep tech » s’impose aujourd’hui comme un concept central dans les domaines de l’innovation, de la recherche scientifique et des politiques publiques d’innovation. Popularisé en 2015 par Swati Chaturvedi, fondatrice de la plateforme Propel(x), il désigne des innovations fondées sur des découvertes scientifiques majeures, mobilisant des technologies de rupture pour répondre à des défis sociétaux fondamentaux.

Par contraste avec les start-ups du numérique reposant sur des modèles économiques innovants mais peu intensifs en R&D, les start-ups deep tech s’appuient sur des avancées issues des sciences fondamentales ou de l’ingénierie avancée, dans des secteurs tels que la biotechnologie, l’intelligence artificielle, l’énergie, les nanotechnologies ou encore la robotique.

En 2024, environ 9 milliards d’euros ont été investis dans des start-ups deep tech en Europe, à travers 454 levées de fonds. Ces investissements se sont concentrés sur plusieurs secteurs technologiques de pointe :

  • dans le domaine de l’intelligence artificielle, des entreprises comme Mistral AI ont levé 468 millions d’euros en série B, tandis qu’Aqemia a réuni 30 millions d’euros en série A ;

  • l’industrie spatiale a également attiré des capitaux importants, à l’image de The Exploration Company, qui a levé 150 millions d’euros en série B ;

  • le secteur des technologies quantiques a vu des opérations majeures, avec notamment Quantinuum (273 millions d’euros en série D) et Riverlane (70 millions d’euros en série C).

Une double définition : extension et compréhension

Le concept de deep tech peut être approché de deux manières complémentaires. La première, dite définition en extension, consiste à énumérer les secteurs technologiques concernés : intelligence artificielle, informatique quantique, cybersécurité, sciences des matériaux… Elle permet de cartographier les champs d’application de la deep tech et d’identifier les écosystèmes qui y sont associés. Des initiatives comme PariSante Campus en France ou le Climate Tech Super Cluster en Europe s’inscrivent dans cette logique sectorielle, soutenant des filières stratégiques dans une logique de compétitivité et de souveraineté.

La seconde approche, dite « en compréhension », s’intéresse aux caractéristiques fondamentales des projets deep tech. Ceux-ci se distinguent par une forte intensité en recherche et développement, un contenu scientifique poussé, une collaboration étroite avec des laboratoires publics, une protection de l’innovation par des brevets, ainsi qu’une vocation sociétale affirmée. L’objectif de ces projets est de transformer durablement nos modes de vie en répondant à des enjeux complexes, souvent liés à la transition énergétique, à la santé ou à l’agriculture durable. Par ces éléments, la deep tech se différencie nettement des innovations dites « shallow tech », qui reposent davantage sur l’usage de technologies existantes intégrées à des modèles économiques innovants – comme c’est le cas pour des entreprises telles qu’Uber, Airbnb ou Facebook.

Un profil de risque différent et un potentiel stratégique

Contrairement à une idée reçue, les projets deep tech ne se distinguent pas nécessairement par un niveau de risque plus élevé que les autres projets entrepreneuriaux, mais par un profil de risque spécifique, qui s’exprime à plusieurs niveaux : technologique, financier, commercial et organisationnel. Sur le plan technologique, ils s’appuient sur des technologies émergentes ou de rupture, issues de la recherche scientifique, dont la maturité reste souvent faible. Sur le plan financier, ils exigent des investissements en R&D particulièrement lourds, mobilisés sur le long terme. Commercialement, ces projets évoluent dans un environnement incertain, où les marchés sont encore inexistants ou en cours de structuration, rendant difficiles la validation des usages et l’élaboration d’un modèle économique pérenne. Sur le plan organisationnel, leur complexité tient à la nécessité de coordonner des acteurs issus d’univers variés – laboratoires, universités, investisseurs, industriels – autour de dynamiques collaboratives. Ce profil de risque différencié requiert des dispositifs d’accompagnement et de financement adaptés, distincts de ceux habituellement conçus pour les innovations numériques ou incrémentales.

Malgré ces contraintes, la deep tech constitue un levier stratégique majeur. Elle est de plus en plus perçue comme un instrument de souveraineté technologique, particulièrement dans un contexte géopolitique marqué par des tensions accrues. Les États cherchent à réduire leur dépendance vis-à-vis de puissances étrangères dans des secteurs critiques tels que les semi-conducteurs, l’intelligence artificielle ou la défense. Des initiatives telles que le CHIPS and Science Act aux États-Unis ou l’ European Chips Act en Europe illustrent cette volonté de réindustrialisation et de sécurisation des chaînes de valeur.

Ensuite, la deep tech représente un moteur potentiel de croissance économique, en contribuant à la création de nouveaux marchés, à l’émergence de filières industrielles et à la modernisation de l’appareil productif. En cela, elle s’inscrit dans la continuité des théories économiques de la croissance endogène, qui placent l’innovation technologique au cœur du développement économique. Toutefois, les promesses de transformation doivent être confrontées au « paradoxe de Solow » : les progrès technologiques récents ne se traduisent pas nécessairement par des gains significatifs de productivité.

Vers une innovation sociétale ?

La deep tech n’est pas uniquement un vecteur de performance économique : elle joue un rôle croissant dans les dynamiques de collaboration entre université, industrie et société. Elle incarne une transformation profonde du système d’innovation, marqué par une interdépendance accrue entre acteurs publics et privés. Cette évolution appelle à repenser les modalités du transfert de technologie, les rôles des universités et les modèles de soutien public.

Pôle Systématic Paris France, 2024.

Mais elle soulève aussi des questions critiques. Si la deep tech est souvent présentée comme une solution aux grands défis sociétaux (climat, santé, sécurité alimentaire), elle peut aussi véhiculer une vision « techno-solutionniste » réductrice. Miser exclusivement sur la technologie pour répondre à des problèmes complexes peut conduire à négliger leurs dimensions sociales, politiques ou culturelles, et générer des effets rebonds non anticipés.

Bien plus qu’un simple effet de mode, la deep tech est le symptôme d’une transformation profonde des régimes d’innovation, à la croisée de la science, de l’économie et des politiques publiques. Si elle offre un potentiel considérable pour répondre aux défis contemporains, elle doit être pensée dans une perspective systémique et critique, qui prenne en compte les limites planétaires, les inégalités sociales et les finalités collectives de l’innovation.The Conversation

Benjamin Cabanes, Enseignant-chercheur en sciences de gestion, Mines Paris - PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Pourquoi Kissinger aurait été imbattable à « Fortnite » : quand les jeux vidéo éclairent les relations internationales

 Des centaines de personnes assises regardent un écran géant

Par Michael A. Allen, Boise State University

Et si les jeux vidéo pouvaient éclairer la géopolitique ? En évoluant dans Fortnite, dans League of Legends ou encore dans Minecraft, les joueurs mettent en pratique sans le savoir les grandes idées des relations internationales. Ce politologue passionné de gaming en a fait un livre.


Charlemagne, roi des Francs, devenu maître du territoire correspondant aux États-Unis d’aujourd’hui, s’apprêterait désormais à étendre ses frontières en envahissant les pays voisins.

Je ne suis pas historien mais cet exemple me semble parfaitement logique, à la fois en tant que joueur et en tant que professeur de relations internationales. C’est un scénario tout à fait envisageable dans le nouveau jeu vidéo Civilization VII, ou Civ 7, où des personnages historiques peuvent gouverner des peuples très éloignés –  dans le temps comme dans l’espace – de ceux qu’ils ont réellement dirigés dans l’Histoire. Dans notre cas, Charlemagne est mécontent du petit empire que vous-même contrôlez aux marches du sien, à cause de tensions à la frontière commune, et il est fort probable qu’il vous envahisse prochainement.

J’ai joué assidûment à des jeux comme Civ 7 toute ma vie. J’ai tendance à privilégier les simulations de stratégie, qu’il s’agisse de jeux vidéo, de cartes, de plateau ou de rôle. Et je suis loin d’être seul. On estime que 190,6 millions de personnes jouent régulièrement à des jeux vidéo, sous une forme ou une autre, aux États-Unis.

Si je joue avant tout pour le plaisir, ces jeux nourrissent aussi la discipline que j’enseigne. J’ai d’ailleurs récemment publié un livre, The Gamer’s Guide to International Relations, qui montre comment certains des titres les plus populaires contiennent des leçons utiles pour comprendre le fonctionnement de la diplomatie et les interactions entre nations.

Un homme passe devant un bâtiment à colonnes
Un visiteur passe devant le stand de Civilization VII lors du salon du jeu vidéo Gamescom, à Cologne (Allemagne), le 21 août 2024. Ina Fassbender/AFP

Si Civ 7 cherche à reproduire un monde fait de conflits et de coopération, d’autres titres sans lien apparent avec la géopolitique peuvent eux aussi offrir des enseignements. Des jeux comme Fortnite, League of Legends ou Minecraft invitent en effet les joueurs à interagir avec le monde d’une manière qui reflète les comportements des dirigeants, des gouvernements et des États.

Voici trois façons dont les jeux créent des univers qui modélisent des concepts clés des relations internationales :

« Fortnite » comme incarnation de la « realpolitik »

Fortnite, un jeu vidéo axé sur la fabrication d’armes et la survie lancé en 2017, peut servir d’introduction au concept de « realpolitik ». Son principe repose sur le mode battle royale, un jeu de tir à la troisième personne. Dans ce type de jeu, vous affrontez 99 autres joueurs dans l’espoir d’être le dernier survivant.

Cette logique du « chacun pour soi » crée un environnement à la fois chaotique et impitoyable, où la mort et la défaite peuvent surgir à tout instant, derrière chaque buisson.

Cela évoque directement la théorie des relations internationales dite du réalisme. Pour les réalistes, le monde est anarchique : il n’existe aucune autorité morale ou physique supérieure qui dicte aux États ce qu’ils doivent faire – en d’autres termes, aucun gouvernement mondial.

Dans ce système d’« auto-assistance », les États survivent, prospèrent ou disparaissent selon leur propre capacité à accumuler du pouvoir, garantir leur sécurité et recourir à la force pour résoudre les conflits.

La pensée réaliste remonte à l’historien grec Thucydide, qui affirmait que « le fort fait ce qu’il peut faire et le faible subit ce qu’il doit subir ». Cette maxime est devenue un principe fondateur du réalisme en politique étrangère.

Henry Kissinger, secrétaire d’État sous la présidence de Richard Nixon, illustre bien cette vision : pour lui, la politique étrangère était avant tout un exercice stratégique fondé sur le rapport de force, reléguant au second plan des considérations telles que les droits humains et la justice.

Même dans un contexte international anarchique, la coopération peut cependant trouver grâce auprès d’un réaliste. Kissinger, par exemple, cherchait à nouer des relations positives avec la Chine, anticipant que les États-Unis pourraient tirer parti d’une fracture croissante entre l’Union soviétique et la puissance asiatique.

Pour Kissinger, le fait que la Chine soit communiste était secondaire : l’essentiel est que la RPC était un État puissant et méfiant envers l’URSS.

Et Fortnite, dans tout ça ? Eh bien, dans le jeu, vous pouvez croiser deux adversaires en train de s’affronter. Vous devez alors décider rapidement si vous préférez fuir ou vous mêler au combat. En intervenant, vous pouvez soit vous allier temporairement au joueur le plus faible pour éliminer le plus fort, soit faire l’inverse.

Dans ce jeu – et parfois en politique internationale –, l’allié d’un instant devient presque toujours un adversaire dès que l’objectif a été atteint. Il faut donc choisir judicieusement : l’ennemi de votre ennemi ne restera pas votre ami éternellement.

« League of Legends » et les alliances durables

League of Legends, connu sous le nom de LoL par ses fans, repose sur une idée en apparence simple : deux équipes de cinq joueurs s’affrontent pour détruire la base adverse.

Mais en réalité, le jeu est loin d’être facile à maîtriser. En y jouant, on peut même tirer des enseignements précieux sur les relations internationales, notamment sur l’importance de forger des alliances durables.


Des fans assistent à la finale d’une compétition d’esport du jeu en ligne le plus populaire de Corée du Sud, League of Legends, à Gyeongju. Kim Jae-Hwan/SOPA Images/LightRocket via Getty Images

Les joueurs y sont anonymes et l’ambiance peut parfois être toxique, chacun ayant tendance à rejeter la faute d’un échec collectif sur les autres membres de l’équipe.

En jouant en solo, vous ferez équipe avec quatre personnes que vous ne connaissez pas et passerez une trentaine de minutes à tenter de gagner – ou à perdre – ensemble.

Parfois, vous créerez du lien avec un coéquipier et aurez envie de rejouer avec lui. D’autres fois, vous trouverez quelqu’un dont les compétences complètent les vôtres, et vous pourrez alors vous aligner en duo dans des compétitions pour viser la victoire.

À ce titre, LoL illustre bien la théorie libérale des relations internationales. Le libéralisme – à ne pas confondre avec l’idéologie politique américaine du même nom – estime que la vision réaliste du monde est trop réductrice. Il soutient que la coopération entre États peut durer, au-delà des seuls rapports de force.

Contrairement à ce qui se passe avec une alliance temporaire, qui s’effondre une fois l’objectif atteint, le libéralisme suppose que deux pays peuvent construire une relation mutuellement bénéfique sur le long terme. Prenons, par exemple, les États-Unis et le Royaume-Uni. Alliés lors des deux guerres mondiales, ils ont, à la fin du second conflit, consolidé leur partenariat, aboutissant à la création d’institutions internationales qui perdurent depuis plus de quatre-vingts ans.

Le libéralisme défend l’idée que des solutions existent où chacun peut trouver son compte, sans qu’il y ait nécessairement un perdant. Cela s’oppose à la vision réaliste du monde qui fait de ces solutions un jeu à somme nulle, dans lequel le gain de l’un implique la perte de l’autre.

Dans League of Legends, comme dans la perspective libérale des relations internationales, certaines interactions permettent d’atteindre des résultats à somme positive, bénéfiques pour toutes les parties.

« Minecraft » et la construction sociale du monde

Minecraft, l’un des jeux les plus populaires au monde, nous offre des leçons éclairantes liées à une troisième grande théorie des relations internationales : le constructivisme.

Le constructivisme affirme que le monde est socialement construit. Autrement dit, les règles qui régissent la politique internationale ne sont pas naturelles ni immuables : elles sont le produit de choix humains, acceptées collectivement et appliquées par les États eux-mêmes.

Et c’est précisément ce que reflète Minecraft. Le jeu s’adresse à tous les âges, mais ce sont les joueurs qui décident eux-mêmes de la manière dont ils souhaitent y participer. Vous pouvez construire des maisons ou des châteaux, partir vaincre l’Ender Dragon, ou encore activer le mode créatif pour vous consacrer à l’art ou à des projets d’ingénierie monumentaux.

Un jeune utilisateur de Minecraft
Construire une passion pour les relations internationales, brique par brique. Georg Wendt/picture alliance via Getty Images

L’essentiel, c’est que ce sont vous et vos amis qui fixez les objectifs communs ou décidez de poursuivre vos propres intérêts ; et c’est là le cœur du constructivisme. Les États, eux aussi, peuvent choisir de bâtir un monde plus libéral en signant ensemble des traités ou en rejoignant des organisations internationales qui redéfinissent ce qui est permis ou interdit. Mais ils peuvent aussi voir ces démarches comme de simples façades et privilégier la puissance ou la sécurité.

Un monde peut ainsi accueillir à la fois des États réalistes, méfiants et axés sur leur survie, et des États libéraux, ouverts à la coopération et aux institutions. De la même manière, dans « Minecraft », les joueurs peuvent percevoir leur univers comme dangereux et conflictuel – ou comme un espace de création collective et de coopération.

Dans Minecraft comme en politique internationale, les objectifs, les règles et les sanctions en cas d’écart sont définis ensemble. Rien n’est figé – tout dépend de ce que les acteurs décident d’en faire.

Rendre le monde plus intelligible

Des jeux comme Minecraft, League of Legends ou Fortnite peuvent sembler à beaucoup n’être qu’un simple hobby, bien loin de toute visée éducative. Pourtant, ils peuvent aider à se familiariser avec des concepts qui cherchent à donner du sens à un monde vaste et complexe.

Comprendre les mécanismes parfois obscurs et alambiqués des relations internationales permet, d’une certaine manière, de rendre ce monde un peu plus intelligible – et donc un peu plus maîtrisable.The Conversation

Michael A. Allen, Professor of Political Science, Boise State University

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.