Technomedia

Numérique · médias · sciences · intelligence artificielle

Le bitcoin : une « valeur refuge » peut-elle être virtuelle ?

 

Les fortes variations du cours du bitcoin sont-ils le signe de sa folle jeunesse ? Shutterstock Oatawa
Par Hervé Alexandre, Université Paris Dauphine – PSL

Pour quelles raisons le cours de l’or et celui du bitcoin se sont-ils envolés au mois de février 2024 ? Faut-il voir dans cette concordance davantage qu’un hasard, l’un devenant après l’autre une valeur refuge prisée des particuliers et bientôt des institutionnels comme semblait l’indiquer la chroniqueuse économique de France Infos ?

Avant de tenter d’apporter quelques éléments de réponse à cette question, rappelons que, de manière générale, notre monde se numérise inexorablement. À part quelques nostalgiques et autres collectionneurs, nous n’achetons plus de disque en vinyle ni de CD. Nous téléchargeons des morceaux de musique, quand nous ne les écoutons pas tout simplement en streaming. Dans ce dernier cas, moyennant le paiement d’un abonnement, nous pouvons écouter un morceau sans le posséder physiquement. Les exemples de ce type, nombreux, constituent la toile de fond des mutations aussi à l’œuvre dans le monde financier.

Revenons quelques dizaines d’années en arrière, dans un monde de biens physiques, où l’or était depuis longtemps considéré comme LA valeur refuge par excellence. Détenir de l’or signifiait être propriétaire d’un bien particulier, se caractérisant par sa rareté lors de son acquisition ainsi que par la reconnaissance de sa valeur par de nombreuses personnes et organisations. L’acheteur d’or encourait un risque faible de ne pas pouvoir revendre son actif, même en période de forte volatilité. L’immobilier, les œuvres d’art, le vin prétendent également au statut de valeurs refuges avec des succès plus ou moins mitigés.

600 % de hausse pour l’once d’or

Les valeurs refuges sont des actifs stables, qui permettent très souvent de dégager un bénéfice lors de leur revente. En 2000, le cours de l’once d’or était de 300 dollars. En 2024, l’once atteint plus de 2150 $ soit une hausse de 600 % quasi ininterrompue à l’exception des années 2012-2013 et de l’année 2020. Cette propriété emporte une conséquence logique : la valeur refuge sécurise le patrimoine de ses détenteurs, y compris lorsque les conditions politiques et économiques sont instables. Cela était particulièrement vrai jusqu’en 1971, année de l’abandon de la convertibilité du dollar en or et de la fin des accords de Bretton Woods.

Plus volatile depuis, la valeur de l’or conserve dans l’esprit des gens cette propriété de valeur refuge. Ce n’est pas tant la stabilité de sa valeur qui est désormais en jeu, mais plutôt sa matérialité et sa rareté. Le symbolique a pris le pas sur l’économique.

Qu’en est-il alors du bitcoin ? Cet actif particulier possède au moins un point commun avec l’or : sa quantité est limitée. Ce n’est sûrement pas un hasard si on trouve une référence à l’or dans le « white paper » fondateur de Satoshi Nakamoto – l’inventeur présumé du bitcoin -.

Il y rappelle le travail des mineurs découvrant régulièrement de nouveaux filons, un peu comme sont mis sur le marché de nouveaux bitcoins.

Dans le cas du bitcoin, ces découvertes potentielles sont limitées, puisqu’il n’y aura jamais plus de 21 millions de Bitcoins en circulation à l’horizon prévisible de 2140. Cette règle le rend potentiellement et intrinsèquement rare et bientôt précieux. Une autre similitude réside dans le fait que ni l’or ni le Bitcoin ne sont contrôlés par des gouvernements ou des institutions financières qui pourraient en fixer sa valeur arbitrairement.

Un système direct entre les individus

Ces caractéristiques du bitcoin sont liées aux conditions de sa naissance. Satoshi Nakamoto a expliqué avoir créé un système de paiements électroniques directs entre individus, sans avoir besoin d’une autorité centrale comme une banque ou un gouvernement pour produire de la confiance. Ce système doit préserver la vie privée des utilisateurs, résister à la censure et se prémunir contre la double dépense, problème courant dans les systèmes numériques non protégés. Pour cela, le bitcoin utilise un réseau décentralisé et un registre public de toutes les transactions, connu sous le nom de blockchain.

Reste qu’il existe des différences notables entre l’or et le bitcoin. La première, triviale, réside dans le fait que l’or est un actif avec une réalité physique, tandis que le bitcoin est un actif numérique. L’or a une histoire de plusieurs milliers d’années, quand le bitcoin est nouveau, quinze ans à peine. Sa perception en tant qu’éventuelle monnaie internationale est toujours en développement. Si l’or est accepté dans le monde entier, ce n’est pas encore le cas pour le bitcoin, même si son inventeur l’a pensé à l’ère du réseau numérique mondial.

Une autre différence, que certains assimilent à un défaut, réside dans le fait que cet actif par nature virtuel n’a pas de valeur intrinsèque. C’est ignorer la valeur de la confiance et surtout surévaluer la valeur de l’or comme intrant industriel. En effet, 10 % seulement de la demande mondiale d’or correspondent à des besoins destinés aux industriels (médecine, électronique, aérospatiale).

Transport et transfert facilités

Face à ces potentiels inconvénients, le bitcoin possède des avantages : il est beaucoup plus facile à transférer et à stocker que l’or. Il peut être envoyé n’importe où dans le monde instantanément et presque gratuitement. À l’inverse, l’or doit être transporté physiquement et sa valeur oblige à le protéger lors du transport qui est long et coûteux.

On lit régulièrement que le cours du bitcoin est actuellement beaucoup plus volatile que celui de l’or et ne peut donc prétendre au même statut. Le prix du bitcoin a bien connu des fluctuations importantes au fil des ans, allant de quelques centimes à des dizaines de milliers de dollars. Cette volatilité rend le bitcoin assurément risqué pour les investisseurs et les utilisateurs, mais rien n’indique qu’il s’agit d’une caractéristique intrinsèque. Cela pourrait être très lié à l’agitation propre au jeune âge.

Parler de valeur refuge à propos du bitcoin peut sembler provocateur tant il est parfois associé à un actif très spéculatif dans la presse. Certes, mais les cours de l’or varient aussi. Une valeur refuge peut connaître de fortes fluctuations en période d’incertitude.

Alors, le bitcoin pourrait-il devenir l’or du XXIe siècle ? Pour répondre à cette question, il faut introduire une nouvelle dimension à notre raisonnement. Jusqu’ici, nous avons considéré la notion de valeur refuge dans un contexte d’accès aisé à la finance, dans un environnement fortement bancarisé, ce qui est loin d’être le cas partout dans le monde. Le bitcoin offre ce que ne permet pas l’or. Pour les personnes aux revenus modestes qui ont le malheur d’habiter dans des pays qui ne sont ni une démocratie ni un état de droit, le bitcoin peut être un refuge, et ce d’autant qu’y sévit une hyperinflation destructrice de valeur.

Le bitcoin dans un contexte d’hyperinflation

La notion de valeur refuge n’est pas la même selon qu’on se trouve à New York ou Paris, plutôt qu’à Caracas ou à Lagos. Dans le monde, il existait en 2023, 20 pays où l’inflation a dépassé le taux de 20 % parmi lesquels on peut citer le Zimbabwe, le Liban, le Soudan, l’Argentine, la Turquie ou encore le Venezuela. En 2019, l’inflation y a dépassé les 19 900 % par an. Par ailleurs, ce pays est classé à la 147e place sur 167 selon l’indice de démocratie établi par le Economist Intelligence Unit.

Dans un tel contexte politico-économique, la question qui se pose n’est pas la même que celle qui se pose dans une Europe où l’inflation à 4 % est jugée excessive. L’impact de la hausse des prix sur la valeur des patrimoines et sur le pouvoir d’achat n’a rien de comparable.

Dans le cas du Venezuela, la valeur d’une unité de monnaie locale fond comme neige au soleil. Il devient évident que les Vénézuéliens, les plus modestes notamment, ne vont pas utiliser l’or comme refuge. En 2019, un nombre significatif d’entre eux a acheté des bitcoins, afin de se protéger contre l’hyper inflation que subissait leur monnaie. Cette même année, l’adoption de bitcoin dans ce pays a franchi une étape supplémentaire, avec l’acceptation par la chaîne de magasins d’alimentation Traki des paiements en bitcoin, mais aussi dans d’autres cryptomonnaies.

La comparaison entre bitcoin et l’or suscite aujourd’hui des débats très animés, mais dans un monde numérisé et mondialisé, les valeurs refuges vont obligatoirement être amenées à s’adapter. L’or, certaines œuvres d’art, les voitures de luxe ne verront pas leurs valeurs s’effondrer, mais ne paraît-il pas juste que la technologie offre une protection aux aléas politiques et économiques à un plus grand nombre d’individus dans les années à venir ?The Conversation

Hervé Alexandre, Profesesur, Université Paris Dauphine – PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Le revirement en matière de neutralité du Net : trop peu et trop tard

 

net neutrality

Avis d'expert de  Tim Kravchunovsky, fondateur et PDG du réseau de télécommunications décentralisé Chirp

« La nouvelle selon laquelle la FCC cherche à restaurer le titre II (neutralité du net) est un signe certain que les consommateurs sont malmenés par les géants américains des télécommunications depuis près de sept ans. La neutralité du Net est conçue pour favoriser un marché plus compétitif, prévenir la discrimination et améliorer le choix des consommateurs, autant d’éléments qui ont souffert depuis l’abrogation des règles en décembre 2017.

Avec la neutralité du Net, les FAI ne peuvent pas ralentir votre connexion à Netflix ou Zoom, ni accélérer une connexion à leur propre site de streaming ou de vidéoconférence préféré. Sans neutralité du net, les fournisseurs pourraient contrôler ce que les gens voient et font en ligne, retirant ce contrôle aux consommateurs qui paient pour leurs connexions Internet.

Et en effet, depuis 2017, nous avons assisté à une augmentation de pratiques telles que le blocage, la limitation, la priorisation payante et la ligne rouge, qui ont toutes abouti à un service de qualité inférieure, les communautés les plus défavorisées étant les plus touchées. Nous avons également assisté à une dégradation des infrastructures, la priorité étant donnée aux profits plutôt qu’aux personnes. Laisser aux acteurs en place le soin de fixer leurs propres règles n'a fait qu'exacerber leurs pratiques monopolistiques et, de toute évidence, la FCC a finalement réalisé que c'était une erreur.

Une décision visant à rétablir le Titre II serait positive pour le consommateur final, mais nous ne devons pas perdre de vue le temps que cela a déjà pris. Les régulateurs sont des bêtes lentes, et même si nous assistons à un vote en faveur de la neutralité du net le 25 avril, il pourrait s’écouler des mois avant que cette mesure soit mise en pratique. Cela représente des mois passés à désavantager les consommateurs et à punir les communautés les plus défavorisées.

De plus, même si la neutralité du Net est rétablie, pouvons-nous vraiment être sûrs que les règles ne seront pas à nouveau abrogées ultérieurement lorsqu’une nouvelle administration arrivera au pouvoir ? En effet, c’est l’une des principales raisons pour lesquelles nous assistons à une montée en puissance de challengers dans l’espace des télécommunications qui donnent la priorité aux droits de l’utilisateur final.

Cela inclut des solutions basées sur la blockchain qui visent à démocratiser l'accès aux services, à améliorer la connectivité pour tous et à permettre aux individus de gagner des récompenses. La blockchain est avant tout une question de transparence, de confiance et d’équité – autant de qualités qui font cruellement défaut dans le paysage actuel des télécommunications. Cette transparence interdit naturellement les pratiques auxquelles la neutralité du net est censée mettre fin. La blockchain est également une technologie innovante qui évolue rapidement et efficacement, transcendant les barrières géographiques et technologiques. Il est donc normal qu’elle vienne à la rescousse là où les opérateurs historiques échouent.»

Le leadership visionnaire : l’élément essentiel du succès dans le secteur de l’IT

 

IT

Par Antony Derbes, Président d’Open Lake Technology

Dans le monde dynamique et en constante évolution de la technologie de l'information, le leadership joue un rôle crucial. Je suis convaincu que le bon leadership est la clé pour naviguer avec succès dans cet environnement complexe.

Le secteur de l'IT est caractérisé par son rythme effréné, ses avancées rapides et ses défis sans cesse changeants. Dans un tel contexte, un leadership fort et visionnaire est essentiel pour guider les équipes vers le succès. Mais quels sont les éléments clés d'un bon leadership dans le domaine de la technologie ?

Tout d'abord, un leader efficace dans le secteur de l'IT doit posséder une vision claire de l'avenir. Cette vision doit être à la fois ambitieuse et réalisable, guidant l'entreprise vers de nouveaux horizons tout en tenant compte des réalités du marché et des capacités de l'organisation. En tant que leaders, nous devons constamment anticiper les tendances, identifier les opportunités et aligner nos équipes sur une trajectoire commune.

Ensuite, le leadership dans l'IT nécessite une grande capacité à innover et à encourager l'innovation au sein de l'entreprise. Dans un secteur où la seule constante est le changement, il est essentiel de rester à l'avant-garde de la technologie et d'adopter une approche proactive pour relever les défis. Cela signifie encourager la créativité, favoriser un environnement où les idées nouvelles sont valorisées et investir dans la recherche et le développement.

Parallèlement à cela, un bon leader dans le domaine de l'IT doit également être un communicateur efficace. La communication transparente et ouverte est essentielle pour aligner les équipes, inspirer la confiance et assurer la cohésion au sein de l'organisation. Dans un monde où le travail d'équipe est souvent distribué à l'échelle mondiale, la communication claire et efficace devient encore plus cruciale.

Enfin, le leadership dans le secteur de l'IT doit être axé sur les personnes. Reconnaître et valoriser les compétences et les contributions de chaque membre de l'équipe est essentiel pour favoriser un environnement de travail positif et productif. Un bon leader doit inspirer, motiver et développer son équipe, créant ainsi une culture d'excellence et d'engagement.

Je suis fermement engagé à cultiver un leadership fort et visionnaire. Je crois que c'est seulement en investissant dans nos équipes, en encourageant l'innovation et en adoptant une vision à long terme que nous pourrons continuer à prospérer dans un environnement aussi dynamique que celui de l'IT.

En conclusion, le leadership joue un rôle vital dans le succès d'une entreprise, en particulier dans le secteur de l'IT. En adoptant une approche axée sur la vision, l'innovation, la communication et les personnes, nous pouvons surmonter les défis et saisir les opportunités qui se présentent à nous. 

C'est cette approche qui nous permettra de rester à la pointe de l'industrie et de continuer à offrir des solutions technologiques de premier plan à nos clients.


Élections : pourquoi 7 Français sur 10 craignent la désinformation

fakenews

À moins de deux mois des élections européennes, les Français s’inquiètent de l’impact de la désinformation sur les élections selon une nouvelle étude d’Adobe, intitulée « Future of Trust » et menée aux États-Unis, au Royaume-Uni, en Allemagne et en France.

Concernant les résultats pour notre pays, l’étude « révèle que la population française est de plus en plus préoccupée par les fausses informations relayées au sein de la société et ne sait pas vraiment où trouver des faits et informations dignes de confiance sur Internet. Près des trois quarts (73 %) des personnes interrogées estiment qu’il est difficile de contrôler la véracité du contenu numérique (vidéos, images) et 67 % craignent que de fausses informations et autres deepfakes ne perturbent les prochaines élections. »

Interdire l’intelligence artificielle aux candidats

Dans le détail, une personne sur six (16 %) a vu du contenu généré par l’intelligence artificielle (IA) concernant des personnalités politiques au cours des six derniers mois. Sans outils répandus pour les aider à discerner le vrai du faux, 78 % affirment qu’il devrait être interdit aux candidates et candidats à une élection de faire appel à l’IA.

La difficulté de vérifier les informations est imputable, selon les personnes interrogées, au manque de formation sur ces nouveaux outils. Car 85 % estiment qu’il est important de disposer d’outils permettant de s’assurer de la véracité du contenu ; or, la moitié de l’échantillon (51 %) juge aujourd’hui impossible d’authentifier un contenu généré par l’IA, relève l’étude, qui note que seules 40 % des personnes ont utilisé des outils de recherche en ligne pour les aider à repérer les fausses informations, 19 % ont regardé des tutoriels vidéo.

Faut-il quitter les réseaux sociaux ?

Cette inquiétude concerne d’ailleurs toutes les tranches d’âge. « Si la génération Z forme le groupe démographique le plus confiant en sa capacité à détecter les fausses informations, plus d’un de ses membres sur trois (36 %) admet avoir échangé des informations trompeuses au cours des six derniers mois (soit plus que toute autre tranche d’âge). Les deux tiers des jeunes de la génération Z interrogés (65 %) reconnaissent avoir du mal à vérifier la fiabilité du contenu publié sur Internet », souligne l’étude.

Pour lutter contre la désinformation, si 41 % des personnes interrogées estiment que la responsabilité incombe en premier lieu à celui ou celle qui a créé le contenu en question, 84 % préconisent une collaboration entre pouvoirs publics et entreprises technologiques pour réguler l’IA générative et empêcher son utilisation pour influencer les élections.

Cette régulation est toutefois en train de se mettre en place avec l’adoption de l’AI Act par l’Union européenne. Par ailleurs fin février, le Parlement européen a adopté de nouvelles règles de transparence pour la publicité à caractère politique, notamment en interdisant les techniques de ciblage et d’amplification sans consentement des personnes.

Face aux fake news, certains décident d’adopter une solution radicale, selon l’étude d’Adobe : 37 % des Français ont cessé d’utiliser ou réduit leur utilisation de certains réseaux sociaux en raison de la quantité de fausses informations rencontrées.

(Article publié dans La Dépêche du Midi du dimanche 21 avril 2024)

Téléphone, mail, notifications… : comment le cerveau réagit-il aux distractions numériques ?

 

notification

Par Sibylle Turo, Université de Montpellier et Anne-Sophie Cases, Université de Montpellier

Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ».

Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours.

En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s’inquiéter des interruptions numériques ?

L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).

Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Mieux comprendre d’où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est « motivée » par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Les événements imprévus provoquent une « rupture de fluence »

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode « focus » de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.The Conversation

Sibylle Turo, Docteur en Psychologie Cognitive et Postdoctorante projet HUT, Université de Montpellier et Anne-Sophie Cases, Professeur, laboratoire MRM Université de Montpellier, Université de Montpellier

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Sommes-nous prêts à confier nos décisions d’achat à une IA ?

ecommerce

Par Patricia Rossi, SKEMA Business School et Mariyani Ahmad Husairi, Neoma Business School

Beaucoup de ce que nous faisons semble porter la marque de l’intelligence artificielle (IA) et des algorithmes. Ils sont censés nous faciliter la vie en prenant en charge certaines tâches. Jusqu’à bientôt nous aider à choisir au moment d’effectuer des achats ?

Le processus de décision peut s’avérer complexe : prendre conscience d’un besoin ou du désir de quelque chose, recueillir des informations sur les différentes possibilités qui s’offrent à nous, les comparer, puis enfin choisir. Ce processus peut aller plus ou moins vite : plus nous sommes impliqués dans le produit, plus nous réfléchissons à chaque étape de ce processus.

L’IA peut y intervenir au moins à deux titres. D’abord, lorsqu’elle recommande quelque chose, elle réduit les choix à notre place. Elle prend en charge une partie de la collecte d’informations sur les produits concurrents et la comparaison des alternatives possibles et réduit ici notre « autonomie de choix ». Elle peut également intervenir activement dans la décision d’achat finale et agir sans notre intervention. On parle ici d’« autonomie de décision ». Les réfrigérateurs intelligents, par exemple, fournissent déjà des données à un algorithme qui détermine quand se réapprovisionner et ce qu’il faut acheter. De même, le service en ligne Boxed.com expédie des produits en fonction de prédictions sur le moment où ses clients seraient à court d’articles.

Ce genre d’« initiatives » de l’IA peut présenter des avantages : gains de temps, mois d’effort de réflexion, économie d’argent aussi potentiellement. Pourtant, nous voulons toujours être aux commandes, être nos propres maîtres. L’autonomie de choix et de décision nous procure des avantages psychologiques, nous permet d’afficher nos valeurs et de construire, entre autres, notre identité. L’autonomie contribue à notre bien-être.

Notre récente étude a tenté d’approfondir cette ambivalence. Nous avons mis en place plusieurs études expérimentales pour comprendre quand l’autonomie de choix et de décision peut avoir un impact sur l’adoption d’outils reposant sur l’IA dans un contexte de consommation. Nous avons isolé deux variables, l’autonomie de choix de l’autonomie de décision, afin de déterminer si elles modifient individuellement notre probabilité d’adopter pareils outils.

La liberté, même quand le choix est compliqué

Que montrent systématiquement nos études ? De façon peu surprenante, plus l’autonomie de choix perçue et l’autonomie de décision perçue sont faibles, plus la probabilité d’acceptation de l’IA est faible. En d’autres termes, lorsque les consommateurs ont l’impression de disposer d’une autonomie de choix et de décision, ils sont plus susceptibles d’adopter une technologie reposant sur l’IA que lorsqu’ils ressentent un manque d’autonomie.

Que se passe-t-il lorsque l’IA est destinée à faciliter une décision d’achat complexe, par exemple, si un consommateur doit faire un choix sur la base de 20 attributs importants ? Serait-il alors plus enclin à renoncer à son autonomie ? C’était ce que nous imaginions à l’origine. Nous supposions que, lorsque des facteurs de complexité entraient en jeu, les consommateurs se fieraient davantage aux recommandations générées par les algorithmes. À notre grande surprise, même face à de telles complexités, les consommateurs souhaitent conserver leur liberté de choix et leur autonomie de décision.

Dans l’ensemble, les résultats de notre étude montrent que le désir des clients de préserver leur autonomie dépasse le besoin de réduire le temps et les efforts résultant de décisions complexes. Nous ne voulons pas que l’IA prenne complètement en charge nos tâches d’achat, car notre autonomie compte encore.

Quand l’identité est en jeu

Cela signifie-t-il que nous préférons toujours conserver notre autonomie plutôt que de céder nos choix et nos décisions d’achat à l’IA ? C’est le cas dans la plupart des situations. Sauf… lorsque nous pensons que l’IA peut nous aider à acheter les choses dont nous avons besoin pour mener à bien des activités que l’on considère importantes pour notre identité. La pêche, la pâtisserie et la course à pied sont, par exemple, des activités liées à l’identité. Des études antérieures ont pourtant montré que lorsque la technologie prenait en charge des fonctions pertinentes pour l’identité d’une personne, il en résultait une aversion pour la technologie car nous voulons effectuer ces activités nous-mêmes : nous ne pouvons pas nous considérer comme des boulangers si une machine fait la plupart du travail à notre place !

Mais nos travaux montrent que, lorsqu’une activité est importante pour nous, nous sommes heureux de renoncer à notre autonomie d’achat au profit de l’IA, si celle-ci finit par nous aider. Un coureur passionné est par exemple plus susceptible de laisser l’IA acheter ses chaussures de course qu’un coureur occasionnel.

Ces effets se produisent parce que les outils d’achat reposant sur l’IA complètent les objectifs identitaires des consommateurs tout en leur permettant de s’attribuer le résultat. Si l’IA se charge, par exemple, de l’achat des chaussures d’un passionné, cela permet à ce dernier d’économiser du temps et de l’énergie pour courir. Il pourra alors dire sans gêne : « J’ai laissé l’IA acheter mes chaussures de course afin de pouvoir consacrer plus de temps à ce qui compte vraiment : la course à pied ! »The Conversation

Patricia Rossi, Associate Professor of Marketing, SKEMA Business School et Mariyani Ahmad Husairi, Assistant Professor of Marketing, Neoma Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Face aux fake news, les techniques de veille peuvent vous aider

factchecking


Avis d'expert d'Arnaud Marquant, directeur des opérations chez KB Crawl SAS

Les fake news n’ont de cesse de se développer : selon un récent sondage, 2/3 des Français y seraient sensibles. Face à ce phénomène, les techniques propres à la veille stratégique peuvent servir de grille d’analyse.

Il y a quatre ans, l’immersion de la pandémie de Covid-19 s’est caractérisée par un vaste mouvement de désinformation sur les réseaux sociaux. Loin d’avoir disparu, celui-ci perdure en 2024, comme l’indique notamment l’étude récemment réalisée par Ipsos sur la désinformation qui touche actuellement la campagne électorale européenne. Selon cette dernière, 74 % des personnes interrogées estiment être capables de réaliser un tri entre vraies et fausses informations. Dans le même temps, 2/3 des personnes interrogées (66%) adhèrent à au moins l’une des fake news qui leur ont été présentées…

Comment les Françaises et les Français peuvent-ils s’armer face aux phénomènes de désinformation qui frappent notre société, surtout au moment où l’IA générative est en capacité de générer des sons et des images semblant réels ? Sans doute en adoptant certaines des techniques que la communauté des veilleurs stratégiques applique au quotidien. Trois éléments sont ici à avoir en tête.

Posez un regard critique sur toute information

Un veilleur qui prend connaissance d’une information la considère avec distance. À l’image d’un fruit dans lequel il s’apprête à croquer, il pose préalablement un regard critique dessus, considère son enveloppe, sa forme, ses aspérités… Cette approche distanciée lui permet de considérer par exemple qu’une « information » émise sur un réseau social tel que X (anciennement Twitter), Instagram ou Tik Tok est très largement susceptible de s’apparenter à de la propagande. Il sait également que certains sujets sont sur-investis par la désinformation. C’est le cas des guerres et des conflits (Ukraine, Israël-Hamas…) ou du climat, thèmes éminemment sensibles. Le veilleur a également conscience du fait qu’un titre racoleur, sans nuance, peut être un signe de fausse information. Bref, il se méfie de la forme de l’information avant même de l’avoir « consommée ».

Qui me parle ? La question de la source

L’action majeure que réalise un veilleur consiste à vérifier la source de l’information qui lui est donnée et dont il vient de prendre connaissance. Il effectue souvent une recherche sur trois points essentiels : qui est l’auteur (du texte, du post, du podcast, de la vidéo…) ? Sur quel site l’information est-elle donnée ? À quel moment est-elle promue ? Prenons le cas d’un article rédigé par un éminent spécialiste, c’est-à-dire par une personne qui se présente comme un expert. Il convient d’en savoir plus sur lui, de taper son nom sur un moteur de recherches, d’identifier le laboratoire ou l’entreprise auquel il est rattaché, de vérifier si les publications de cet auteur sont reconnues par des agences d’Etat. Vous pouvez également effectuer des recherches rapides sur l’établissement auquel se réfère cet auteur. Celui-ci est-il véritablement sérieux, c’est-à-dire reconnu par des institutions ? Tout élément faisant figure d’autorité doit être ainsi soupesé. Il est également important de remonter à la source originelle de l’information relayée. Si aucune source n’est donnée, là encore votre moteur de recherche pourra vous être utile. En copiant-collant le contenu de l’information, vous trouverez cette source… voire aurez la confirmation du fait qu’il s’agit d’une rumeur.

Observez et maîtrisez vos émotions ainsi que vos propres biais

Dans la plupart des cas, la croyance ou la propagation d’une fake news sont encouragées par des personnes qui se trouvent saisies par leurs propres émotions. Peur, colère, sentiment d’injustice, espoir… Ces éléments constituent des leviers puissants, surtout lorsqu’ils croisent nos propres convictions. Ici, gare à ce que l’on appelle le « biais de confirmation », cette tendance naturelle que nous avons tous à croire des informations qui confortent nos propres préjugés, nos hypothèses ou nos idées. Il convient toujours d’avoir à l’esprit que ces mécanismes cognitifs existent, et que nous en sommes nous-mêmes porteurs…

Le monde dans lequel nous vivons actuellement est en proie à des transitions multiples qui, synonymes d’incertitudes, permettent à de nombreuses théories d’être avancées. Celles-ci peuvent s’avérer fausses, soit par méconnaissance du sujet abordé, soit par volonté de propagande marketing, soit parce que certains acteurs ont un intérêt plus politique à déstabiliser les opinions publiques. Face à de tels phénomènes, nous devons tous comprendre que l’information est un bien commun à préserver. L’éducation aux médias se révèle ici d’une nécessité absolue et mérite d’être consolidée à l’école, au collège, dans les lycées, et même au sein des établissements d’enseignement supérieur. Elle constitue un prérequis si nous souhaitons continuer de vivre dans une société stable.


Pour en savoir plus / Quelques sites repérant les fake news :
AFP Factuel
Les Décodeurs / Journal Le Monde
Conspiracy Watch, service de presse en ligne dédié au conspirationnisme et au négationnisme


Durabilité et datacenters, peut-on faire mieux ?

datacenter

Tribune de Par Patrick Dufour chez Stordata 

Ne passons pas par 4 chemins et répondons immédiatement à la question que pose le titre de cet article : oui, il est possible de faire bien mieux, en matière de consommation de ressources, d’émission de gaz à effet de serre, de réutilisation des chaleurs dégagées, mais aussi au titre du transport, des méthodes d’extraction des matières premières, de recyclage et plus encore.

La notion de durabilité est un concept systémique qui ne peut produire tous ses effets que si toutes les briques qui le composent sont traitées avec une égale attention. Si l’on se penche quelques instants sur le corpus législatif et réglementaire traitant la question sous un angle ou sous un autre, la tâche semble démesurée. Et même si l’on comprend assez vite que nombre de textes en vigueur ont vocation à compléter, préciser ou renforcer les textes précédents, il reste que l’entreprise, en particulier celle dépourvue d’un responsable RSE entièrement dédié à cette mission, peut se sentir bien abandonnée devant l’édifice qu’elle doit bâtir.

À chacun ses responsabilités

Il y a toutefois responsabilité et responsabilité, et chacun doit œuvrer à la hauteur de ses possibilités d’une part et en fonction de ce qu’elle produit d’autre part. Les grands constructeurs informatiques ont une responsabilité spécifique à cet égard. Par leur taille, leur chiffre d’affaires, leur place sur l’échiquier international, les mesures qu’ils prennent dans la lutte contre le dérèglement climatique et pour la cause environnementale doivent être à la hauteur de l’enjeu. Le marché est certes concurrentiel, mais il tend aussi à se concentrer. Les nouveaux matériels informatiques livrés aux entreprises doivent refléter précisément et complètement les engagements des constructeurs.

Compte tenu de l’impact de l’IT et notamment des datacenters sur les ressources et le taux de CO2, il faut des engagements forts et des cadres d’action solides. C’est le cas avec le programme international Initiative Science Based Targets (iSBT). Cette norme est une première mondiale dans le secteur privé. Elle fixe des objectifs à la fois réalistes et ambitieux, sans lesquels les entreprises, de la toute petite au grand compte, ne pourraient pas, à leur échelle, tenir leurs propres engagements.

Ne négligeons pas l’intégrateur

Et l’intégrateur dans tout ça ? Ni constructeur ni fournisseur de matière première, un intégrateur n’en a pas moins un rôle important à jouer. Un rôle de conseil déjà, puisqu’il est au cœur des discussions et qu’il sélectionne avec attention ses partenaires. Acteur pivot du monde de l’IT, il est l’intermédiaire qui permet le dialogue entre l’utilisateur et le fabricant, il est à l’écoute des nouveaux besoins, des nouvelles contraintes. Et parce qu’il connaît bien ses clients, il sait adapter l’offre à la demande. En tant qu’entreprise, l’intégrateur conduit aussi sa propre politique de responsabilité sociétale. C’est donc lui qui s’efforcera de limiter les déplacements, qui trouvera les meilleures solutions de traitement des matériels obsolètes ou qui pourra proposer des solutions innovantes en matière énergétique.

81 % des responsables en entreprises pensent que l’IA va révolutionner la gestion des contenus

ia



Analyse de Hyland

À l’heure où l’AI Act vient tout juste d’être adopté par le Parlement Européen, l’intégration et l’exploitation de l’intelligence artificielle (et ses technologies dérivées) sont au cœur des débats au sein des entreprises.

Hyland, un des principaux fournisseurs internationaux de solutions de contenu intelligentes, annonce les résultats de sa nouvelle étude internationale sur les évolutions de la gestion de contenu en entreprise. Menée par Forrester Consulting, cette étude souligne la place prépondérante de l’automatisation et de l’IA dans l’évolution de la gestion de contenu d’entreprise. Réalisée auprès de plus de 400 décideurs d’entreprise à travers le monde, Hyland partage également son analyse ainsi que des conseils pour permettre aux entreprises d’appréhender au mieux l’IA pour leurs processus de gestion de contenu.

Trop d’outils tuent l’outil

Pour les entreprises, la gestion de contenu améliore les processus en entreprise. Aujourd’hui, les dirigeants souhaitent créer un environnement pour que les différentes parties prenantes (internes et externes) puissent accéder et interagir avec des contenus en toute transparence. L’objectif étant d’accroître la productivité et d’améliorer l’expérience des utilisateurs. Cependant, il est difficile de trouver un équilibre entre l’accessibilité, la convivialité, la pertinence, la collaboration, la sécurité et les performances ; d’autant plus que le volume et la diversité des contenus ne cessent d’augmenter. De ce fait, les dirigeants peuvent se tourner logiquement vers l’automatisation et l’IA. En effet, plus de 60 % des répondants estiment que l’automatisation et l’IA ont un impact conséquent et leur permettent d’atteindre leurs objectifs.

Grâce au succès de ChatGPT, l’IA et l’IA Générative connaissent une certaine renommée. Toutefois, si les professionnels reconnaissent la capacité de ces technologies à bouleverser leur secteur, ils leur aient difficile d’identifier clairement leur véritable potentiel. En effet, 81 % des répondants pensent que l’IA va révolutionner les processus de gestion de contenu d’ici deux à trois ans. Pour creuser la question, les décideurs étudient plusieurs cas d’utilisation de l’IA selon cette même étude Forrester : plus de 50 % d’entre eux souhaitent tirer parti de la génération de contenu et d’images, de la catégorisation automatique, et de la recherche intelligente d’ici 2024-2025. Pourtant, un problème demeure : la gouvernance des données. Lorsqu’elles sont générées et gérées par l’IA, ces données créent des vulnérabilités en matière de sécurité et de protection de la vie privée. D’ailleurs, avec le manque d’expertise (pour 52 % des répondants), ces derniers sont considérés comme les principaux obstacles (51 %) qui empêchent les dirigeants de tirer parti de l’automatisation intelligente.

Ainsi, sur la base de ces résultats, Hyland partage 3 conseils clé pour que l’intégration et l’utilisation de l’IA (et de ses technologies dérivées) se fassent au mieux au sein de l’entreprise.

Identifier et traiter les opportunités de modernisation

En effet, l’innovation est un voyage, non une destination. Alors que l’innovation technologique se poursuit sur le marché des services de contenu et que les décideurs sont de plus en plus confiants quant à l’utilisation de l’automatisation et l’IA, ils doivent rester à l’affût des nouvelles opportunités pour continuer à faire évoluer leur environnement. Le premier chantier d’amélioration concerne généralement celui de l’expérience utilisateur des clients et des salariés. Pour cela, il faut explorer les différents domaines dans lesquels l’IA peut opérer tels que l’extraction de données, la catégorisation ou la génération de contenu pour créer, résumer ou fournir des informations à des publics pertinents. En lien plus direct avec l’utilisateur final, on peut également envisager l’amélioration de l’accès aux contenus, la digitalisation des processus manuels et la consolidation des données pertinentes provenant de sources multiples. Si l’objectif final reste de supprimer des tâches fastidieuses et de permettre aux utilisateurs de se concentrer sur des missions à plus forte valeur ajoutée, le champ d’intégration et d’application de l’IA dans les processus devient alors infini.

Ne pas avoir peur des différentes technologies qui viendraient enrichir le contenu mais plutôt préparer leur arrivée

Une pénurie de contenus est rarement un problème – mais une pénurie de contenu fiable, accessible et utilisable dans des applications connexes peut l’être. Pour éviter cette déconvenue, l’évaluation des outils capables d’extraire des données utiles et des informations contextuelles (à partir de différents types de documents) est une première étape dans l’enrichissement des métadonnées, qui viendront à leur tour, participer à la préparation de la transition vers l’IA.

Veiller à ce que la gouvernance des données suive le rythme de l'innovation

L’adoption de l’IA (et de l’IA Générative) ouvrira la voie à de nouvelles approches en matière de création, de révision et d’automatisation de contenu. Toutefois, les politiques de sécurité, de confidentialité, de stockage ou de suppression des données doivent être prises en compte et accompagner le bon fonctionnement des processus, notamment lorsque de nouvelles sources d’information sont intégrées. Pour cela, il faut mettre en place des contrôles d’autorisation et veiller à ce que les politiques (qui indiquent quand et où utiliser les différentes applications d’IA Générative) soient communiquées aux salariés.

Protéger la jeunesse à l'ère numérique : pour une réglementation accrue de l'accès aux réseaux sociaux

enfant

Tribune d'Alexandre Lazarègue, avocat spécialisé en droit du numérique 

Début mai, une commission d’experts, nommée par le Président de la République et chargée de faire des propositions sur la restriction de l'utilisation des réseaux sociaux par les enfants et les adolescents, rendra son rapport. Ce dernier devrait présenter des stratégies concrètes pour protéger les jeunes utilisateurs, trop souvent captifs des écrans. Un tel dispositif s’inscrirait dans une politique d’éducation plus large visant une jeunesse en proie à un niveau scolaire en déclin selon les classements internationaux.

Compte tenu des données scientifiques dont nous disposons aujourd’hui, il apparait en effet crucial de protéger le bien-être de nos enfants par une réponse radicale aux effets néfastes que l'utilisation intensive des écrans peut avoir sur leur santé mentale aussi bien que physique.  Une telle démarche représenterait alors une véritable politique sociale alors que les premières victimes des effets dévastateurs des écrans sont les milieux défavorisés.

Réseaux sociaux : une menace croissante pour la santé mentale et physique de la jeunesse

Les réseaux sociaux, après être apparus comme un formidable outil de communication, se révèlent aujourd'hui être une menace pour la santé de nos enfants.

Déjà en 2021 la lanceuse d’alerte Frances Haugens, chargé de la lutte contre désinformation chez Facebook avait dénoncé l’indifférence de son employeur à l’égard des dommages que provoquait les réseaux sociaux sur les adolescents et ce alors même que disposant de nombreuses études alarmantes à ce sujet, il en avait parfaitement conscience.

Chaque parent a pu mesurer par lui-même la désolante fascination qu’exerce les écrans sur les enfants et adolescents. Et pour cause, les économistes étudiant les dynamiques concurrentielles sur le marché qualifient les réseaux sociaux d’« économie de l'attention » par laquelle les algorithmes croisant avec une finesse millimétrée les données personnelles de ses utilisateurs leurs présentent un flux continu de photos et de vidéos toujours plus séduisante pour captiver leur intérêt, mis au service d’annonceurs publicitaires en mesure de suggérer des produits et services adaptés à leurs goûts les plus intimes (La civilisation du poisson rouge: Petit traité sur le marché de l'attention, Bruno PATINO, ed. Grasset).

Cette sollicitation incessante peut les accaparer à tel point qu'elle diminue leur capacité de concentration, affectant potentiellement leur développement intellectuel ainsi que l’a brillamment dénoncé le chercheur en neurosciences Michel Desmurget (La fabrique du Crétin digital, Éditions du Seuil).

Les impacts négatifs sur la santé physique liés à l'usage intensif des écrans existent aussi. Outre les effets préjudiciables sur le sommeil, en particulier chez les jeunes – avec toutes les conséquences qu'un mauvais sommeil peut avoir, telles que l'obésité –, les sociétés savantes d’ophtalmologie voient poindre depuis quelques années un accroissement exponentielle de la de la myopie chez les jeunes. Cette affection, qui peut être très handicapante, serait directement liée à la consommation excessive d'images et de vidéos sur les smartphones.

Des risques de dérives numériques

De plus, les réseaux sociaux, à travers la diffusion de vidéos courtes, simplifient excessivement les informations au point d'alimenter des théories complotistes dont la propagation est encouragée, comme on le sait aujourd'hui, par les algorithmes (Désinformaton, Emanuel OSTIAN, ed.Plon). Cette pratique, répétée intensément, convainc et enracine les jeunes dans des certitudes antidémocratiques qui met en péril la capacité de notre République à former des citoyens critiques, capables de pensée rationnelle, à la recherche du bien commun.

Aussi, et parallèlement aux efforts soutenus du gouvernement pour restreindre l'accès des mineurs à la pornographie dont l’efficacité peinent encore à se faire ressentir, les réseaux sociaux représentent un autre front préoccupant.

Les ingénieurs de la Silicon Valley, développent des algorithmes visant à favoriser les publications de jeunes femmes peu vêtues, soulignant leurs attributs physiques. Ces contenus à forte charge érotique captent fortement l'attention des jeunes, entraînant des conséquences similaires à celles de la consommation de la pornographie : perte de confiance en soi, repli, addiction, dépression et développement de perceptions déformées des relations avec les femmes.

Vers une régulation nécessaire pour protéger la jeunesse

Dans ce contexte, une réglementation restreignant l’accès aux réseaux sociaux des mineurs se révèle essentielle pendant les années cruciales du développement intellectuel des jeunes.

À cet égard, la Suède a été bien inspiré en interdisant l'usage des équipements numériques dans les écoles. Les jeunes maîtrisent naturellement l'utilisation des ordinateurs sans avoir besoin de formation spécifique dont le fonctionnement est parfaitement intuitif. Et si l'apprentissage des langages informatiques est indéniablement précieux à l’ère de la révolution numérique, il convient cependant de réhabiliter la place des livres imprimés pour l’apprentissage des « humanités ».

L'adoption d'un « couvre-feu numérique », restreignant l'accès des mineurs aux réseaux sociaux intégrant de plages horaires flexibles adaptées à différents groupes d'âge représenterait donc une mesure significative. Une telle mesure impliquerait nécessairement l’interdiction pour les mineurs de créer des comptes sous pseudonyme auprès des plateformes mais cette démarche ne pourrait être que bénéfique pour lutter contre le cyber-harcèlement, une autre menace sérieuse pour la jeunesse.

La sensibilisation des parents à travers des notifications claires et systématique sur les réseaux sociaux à l’instar des messages de santé publique existants sur la nutrition tel que « Restreindre le temps d'écran pour les enfants préserve leur santé mentale et leur épanouissement » est une autre piste à envisager.

Les fournisseurs d’accès à Internet quant à eux devraient être en mesure de déployer des outils de contrôle parental avancés, offrant ainsi aux parents la capacité de réguler et de superviser efficacement l'accès de leurs enfants aux réseaux sociaux, tant à domicile qu'au sein des espaces publics d’accès à internet.

Il ne s'agit pas ici de jeter le discrédit sur de précieux outils de communication innovants et indispensables pour s'informer et échanger, mais de prendre la pleine mesure des conséquences d'un usage excessif et des puissances économiques qui les alimentent.

En se rappelant des responsabilités que notre nation doit à sa jeunesse, nous pourrions ainsi répondre aux préoccupations exprimées par Jean-Jacques Rousseau : « L'enfance a ses manières de voir, de penser, de sentir qui lui sont propres ; rien n'est moins sensé que de vouloir les remplacer par les nôtres. »

PME : comment naviguer dans l’ère de la cybersécurité

cyber

Tribune de Christophe Gaultier, Managing Director business line France & Belux chez OpenText Cybersecurity

L'évolution du paysage de la cybersécurité rencontre une intersection entre l'innovation et les vulnérabilités. Nous assistons à un bond significatif dans la sophistication des techniques d'hameçonnage, alimenté par les progrès de l'intelligence artificielle (IA).

Simultanément, la vague d'attaques par ransomware-as-a-service (RaaS) de l'année dernière se poursuit, ce qui encourage l'adoption généralisée des SBOM (Software Bill Of Materials) pour faciliter la découverte des vulnérabilités des logiciels.

Aujourd’hui, il est essentiel de disposer d'une défense proactive et informée pour naviguer dans la prochaine ère des menaces de cybersécurité.

Techniques d'hameçonnage basées sur l'IA

Les progrès rapides de la technologie de l'IA rendent les cybers tactiques contre les PME plus sophistiquées et plus efficaces. L'IA est désormais l'alliée des acteurs de la menace, contribuant à améliorer des tâches auparavant manuelles telles que l'élaboration d’emails de phishing convaincants. Dans le même temps, les signes révélateurs traditionnels des attaques de phishing deviennent plus difficiles à détecter et augmentent les défis des responsables de sécurité des PME. Les organisations peuvent atténuer le risque de ces menaces grâce à des mesures de sécurité proactives telles que des procédures de vérification solides.

Alors que la technologie continue de progresser, les organisations doivent également considérer une part de leur budget à l’investissement dans la formation de sensibilisation de leurs équipes, afin de s’assurer qu’elles comprennent leur rôle de première ligne de défense contre les attaques par hameçonnage.

RaaS, un danger pour les PME

Comme le montre le rapport Nastiest Malware of 2023 d'OpenText Cybersecurity, le RaaS est également en plein essor et est devenu le principal modèle d'exploitation des groupes de ransomwares. Dans le cadre de ce modèle, les opérateurs de ransomwares créent les logiciels nécessaires à la réalisation des attaques (kits de phishing, outils de cryptage et de décryptage, etc.) et les affiliés paient pour utiliser ces solutions afin de lancer leurs attaques et de partager les bénéfices. Les affiliés n'ont pas besoin d'être techniquement compétents pour utiliser le RaaS, ce qui signifie qu'il n'a jamais été aussi facile de créer une attaque par ransomware.

Anticiper les attaques

Les PME se préparent à de nouvelles méthodes de diffusion des ransomwares, elles adoptent désormais une approche proactive de la cybersécurité pour se protéger contre les attaques continues de ransomware et les nouvelles tactiques pilotées par l'IA. Cela inclut l'utilisation de solutions de sécurité multicouches pour construire une posture cyber-résiliente, comme la création de playbooks de réponse aux ransomwares pour différents scénarios. Ces playbooks sont testés pour s'assurer que les étapes critiques ne sont pas manquées.

Lors d'une attaque par ransomware, le temps est compté et cette pression supplémentaire est utilisée par les attaquants contre les entreprises. Les entreprises n'auront pas le temps de lire attentivement chaque étape et de déléguer les actions ; le plan d'intervention doit être bien préparé et testé régulièrement afin d'identifier et de combler les lacunes avant qu'une attaque ne se produise. 

Les SBOM, une pratique courante

Les PME, comme les grandes entreprises, commencent à adopter une nomenclature logicielle pour connaître les vulnérabilités potentielles de leur code et renforcer leur cybersécurité. Les composants logiciels libres sont des cibles de choix pour les cybercriminels, ce qui rend les organisations de toute taille vulnérables et les obligent à comprendre les logiciels qu'elles utilisent et les risques qu'ils présentent. La mauvaise configuration des logiciels figure régulièrement parmi les dix premiers vecteurs d'attaque cités. C'est pourquoi les PME ont besoin d‘inventaire type SBOM (Software Bill Of Materials). Ce type d'inventaire de code offre aux partenaires une transparence dans la chaîne d'approvisionnement des logiciels, décourage les mauvaises pratiques de développement et de sécurité et favorise la création de logiciels plus sûrs.

La sophistication des techniques d'hameçonnage pilotées par l'IA et l'essor omniprésent du RaaS soulignent la nécessité pour les PME de renforcer leur position en matière de cybersécurité. L’adoption de SBOM devient cruciale pour découvrir les risques logiciels potentiels et corriger les vulnérabilités connues avant qu'elles ne se traduisent par une attaque.

L’Europe peut-elle faire émerger des champions du numérique ?

 

L’Europe dispose aujourd'hui de la réglementation des activités digitales la plus complète au monde. Flickr/Descrier, CC BY-SA
Par Julien Pillot, INSEEC Grande École

Règlement général sur la protection des données (RGPD), législation sur les marchés numériques (DMA), règlement européen sur les services numériques (DSA), AI Act sur l’intelligence artificielle (IA)… Ces dernières années, l’Union européenne (UE) s’est dotée d’un arsenal juridique supposé lui conférer les moyens de mieux contrôler les activités des personnes et des organisations dans la sphère numérique. Quelle peut être la portée de tels outils face aux géants américains et chinois du secteur ? Éléments de réponse avec Julien Pillot, enseignant-chercheur en Économie à l’INSEEC Grande École.


Peut-on dire que l’UE est en pointe en matière de régulation de l’économie numérique ?

Il serait bien présomptueux de penser que les autres grandes puissances sont passives au regard du développement des activités numériques, et que seule l’Europe est consciente des problèmes que celles-ci peuvent engendrer. Les autres juridictions, États-Unis et Chine en tête, font également évoluer leurs règles. En revanche, les approches comme les objectifs peuvent différer. La Chine, par exemple, a pris des décisions particulièrement drastiques pour lutter contre l’addiction des jeunes aux écrans et aux jeux vidéo. Les États-Unis ont, quant à eux, opté pour une approche régulatoire de l’IA différenciée selon les secteurs d’activité, plutôt qu’une démarche à portée générale comme en Europe.

Néanmoins, je crois qu’on peut considérer qu’avec le RGPD, le DSA, le DMA et l’IA Act, l’Europe dispose de l’arsenal le plus complet, mais surtout, a su s’imposer ces dernières années comme une véritable puissance normative en poussant nos partenaires étrangers à se mettre en conformité avec nos réglementations. C’est la grande force du marché européen auquel nulle entreprise étrangère, fût-ce un géant du numérique, ne peut se permettre de tourner le dos.

Enfin, cette réglementation vise également à renforcer la souveraineté de l’UE dans un monde certes toujours plus interconnecté, mais aussi profondément divisé. Car, loin des idéaux initiaux de liberté et de partage sans frontière, l’espace numérique s’est imposé comme un terrain de conquêtes économiques et d’influence géostratégique comme culturelle des plus convoités.

Pouvez-vous donner un exemple ?

TikTok illustre parfaitement la façon dont les services numériques « stars » peuvent devenir des instruments d’influence culturelle et politique. Les puissances occidentales pointent plusieurs problèmes. D’une part, TikTok serait un cheval de Troie qui espionnerait, à leur insu, les utilisateurs, et notamment les dirigeants politiques et économiques. C’est d’ailleurs cet argument de cybersécurité qui a poussé le gouvernement à interdire l’installation de TikTok – mais aussi d’autres applications récréatives telles que Netflix ou Instagram – des téléphones de 2,5 millions d’agents de service public.

Aux États-Unis, l’application a été interdite entre 2020 et 2021, pour être de nouveau autorisée à la condition de localiser l’ensemble des données des utilisateurs américains dans un serveur de l’entreprise Oracle localisé au Texas. En ce début d’année 2024, un projet transpartisan voté à l’écrasante majorité au Congrès, prévoit l’interdiction de TikTok aux États-Unis, à moins que la filiale locale passe sous contrôle capitalistique américain sous 18 mois. Un épisode supplémentaire de la guerre froide que se livrent Pékin et Washington.

D’autre part, l’application serait programmée pour être extrêmement addictive, et pousser du contenu culturel en Chine, et du contenu de divertissement en Occident. Sur ce point, et si ces soupçons sont avérés, on comprend comment une application aussi populaire, placée entre les mains d’un gouvernement impérialiste, peut se muer en un outil d’influence, de désinformation ou de propagande majeur, ou pire encore, une arme visant à abrutir la jeunesse des puissances étrangères. Il ne faut jamais oublier qu’il y a deux façons de remporter une « guerre des cerveaux » : former, et retenir, les meilleurs éléments sur son territoire ; ou affaiblir la capacité des adversaires à y parvenir.

Les plates-formes américaines et chinoises peuvent-elles réellement craindre une véritable limitation de leurs activités en Europe ?

Je rappelle souvent que la qualité d’un règlement ne se juge pas uniquement au texte, mais à la façon dont il sera appliqué avec un degré suffisant de sécurité juridique pour les parties. Ainsi, l’efficacité d’une règle va dépendre étroitement de la nature de la sanction encourue et de la crédibilité que les entreprises accordent tant à la capacité des autorités à détecter une pratique frauduleuse, et à la menace d’une forte sévérité dans l’échelle des sanctions prévues.

Pour ce qui concerne l’économie numérique, après une phase d’observation – voire, osons le terme, de naïveté – on voit de premières sanctions assez significatives tomber, que ce soit sur le fondement du RGPD ou de l’antitrust. Pensons que les autorités européennes ont déjà prononcé pour 4,5 milliards d’euros de sanctions pour défaut de conformité au RGPD depuis son entrée en vigueur en 2017 ! Quant aux règlements les plus récents, DSA et DMA, ils entrent progressivement en vigueur et montreront leur efficacité dans la durée.

De manière générale, les autorités européennes durcissent le ton vis-à-vis des entreprises étrangères, tant et si bien que la Commissaire à la concurrence, Margrethe Vestager, n’a pas hésité à brandir la menace d’un démantèlement à l’endroit d’Alphabet (Google) pour ses pratiques sur le marché de l’AdTech lors d’une conférence de presse en date du 14 juin 2023. Nous verrons si ce durcissement dans le discours se traduira dans les actes.

L’Europe est-elle condamnée à rester une puissance numérique de second rang (notamment quand on considère les écarts en termes d’investissements) ? Dans quelle mesure la réglementation européenne peut-elle se montrer efficiente pour faire émerger des champions mondiaux et réduire notre dépendance économique comme culturelle et géostratégique ?

La tech européenne est nettement plus dynamique qu’il n’y paraît. Pour s’en apercevoir, il faut accepter de ne pas focaliser sur la partie émergée de l’iceberg et analyser l’écosystème dans son ensemble. L’Europe fournit de nombreux talents aux géants étrangers, mais compte aussi de nombreuses entreprises performantes, dans des secteurs aussi divers que l’IA, le gaming, le cloud, les FinTech… En 2023, l’Europe comptait 311 licornes (entreprises valorisées plus d’un milliard de dollars US), dont 19 décacornes.

Photo de Margrethe Vestager
En juin, 2023, la Commissaire européenne à la concurrence, Margrethe Vestager, brandi la menace d’un démantèlement à l’endroit d’Alphabet (Google). Friends Of Europe/Flickr, CC BY-SA

En revanche, il est vrai que cette réglementation européenne ne changera pas la donne sur le plan structurel. Elle ne va pas améliorer notre déficit de compétitivité sur le capital venture, ou sur le hardware. Elle ne dit rien non plus de la vigueur des politiques industrielles ou protectionnistes, que ce soit via des investissements fléchés ou de la commande publique, qui seront menées dans les prochaines décennies.

Enfin, ces règles ne me semblent pas en mesure d’affaiblir suffisamment les leaders étrangers pour permettre à des concurrents européens d’émerger, à plus forte raison que ces règlements, plutôt que de remettre en cause les business models établis (et donc les stratégies gagnantes), a plutôt tendance à les considérer comme acquis et à les figer. Dit autrement, on ne voit pas émerger un vrai contre-modèle économique européen qui aurait pu, par exemple, mieux valoriser la sobriété numérique.

Au-delà, la souveraineté numérique européenne est-elle possible ? À quoi pourrait-elle ressembler ?

Les Vingt-Sept ont fait le choix d’actionner trois leviers : d’abord, celui de la régulation, de façon à limiter l’expression du pouvoir de marché des géants étrangers auxquels elle entend imposer des normes techniques et comportementales, qui viennent s’ajouter aux obligations fiscales introduites avec la « taxe Gafam ».

Ensuite, celui de l’autonomie stratégique en se donnant les moyens, par le jeu des investissements publics, de relocaliser la production de certains biens ou services critiques, pour ne plus se faire imposer les prix et la disponibilité par l’étranger. La volonté de se doter de capacités extractives de métaux critiques, ou de giga factories dédiées à la production de microprocesseurs, participe de cet objectif.

Enfin, celui du leadership technologique pousse l’Europe à investir massivement dans les technologies qui sont porteuses de croissance, d’emploi, et surtout de domination technique sur le long terme. C’est en ce sens que l’Europe entend développer l’informatique quantique ou l’IA générale. Impossible de ne pas penser aux 27 milliards d’euros d’investissements sur 5 ans suggérés par le rapport de la Commission Intelligence artificielle (remis au Président de la République le 14 mars 2024), montant requis pour pouvoir jouer un rôle dans le développement de ce secteur.

Il faut bien comprendre que la nature des enjeux, les forces en présence et les investissements nécessaires sont des éléments qui placent d’emblée la question de la souveraineté numérique à l’échelon européen. Et même si l’Europe ne gagnera probablement pas tous les combats qu’elle a engagés, elle démontre chaque jour qu’elle prend la question de la souveraineté numérique très au sérieux.


Cette contribution est publiée en partenariat avec le Printemps de l’Économie, cycle de conférences-débats qui se tiendront du mardi 2 au vendredi 5 avril au Conseil économique social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2024, intitulée « Quelle Europe dans un monde fragmenté ? »The Conversation

Julien Pillot, Enseignant-Chercheur en Economie (Inseec) / Pr. associé (U. Paris Saclay) / Chercheur associé (CNRS), INSEEC Grande École

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.