Technomedia

Numérique · médias · sciences · intelligence artificielle

Les trois principaux scénarios de deepfake dont il faut se méfier 2023

photo


Analyse de Kaspersky

Le nombre de deepfake publiés en ligne explose de 900 % par an, selon le Forum économique mondial (WEF). De nombreuses actualités liées à des deepfakes ont fait les gros titres, faisant état de récits de vengeance, de harcèlement, d’arnaques à la crypto-monnaie, etc. Aujourd'hui, les chercheurs de Kaspersky mettent en lumière les trois principaux schémas de recours aux deepfakes, face auxquels nous nous devons tous d’être vigilants.

L'utilisation de réseaux de neurones artificiels et du deep learning (d'où est tiré le terme "deep fake") a permis à des internautes du monde entier d’exploiter des images, des vidéos et des sources audio pour créer des vidéos réalistes d'une personne dont le visage ou le corps ont été numériquement modifié, afin de lui faire faire ou dire des choses qui n’ont pas réellement été dites ou faites. Ces vidéos et ces images détournées sont fréquemment utilisées à des fins malveillantes pour propager de fausses informations et pervertir la réalité.

Fraude financière

Les deepfakes peuvent être utilisés comme levier d'ingénierie sociale, les cybercriminels ayant recours à la manipulation d’images afin de se faire passer pour des célébrités et de piéger leurs victimes. L’année dernière, par exemple, une vidéo artificielle d'Elon Musk promettant des rendements élevés dans le cadre d'un plan d'investissement douteux dans les crypto-monnaies est devenue virale, faisant perdre de l'argent aux utilisateurs crédules. Pour créer des deepfakes comme celui-ci, les criminels utilisent des enregistrements où apparaît la célébrité imitée, ou assemblent de vieilles vidéos entre elles pour produire du contenu de  flux diffusé en direct sur les plateformes de réseaux sociaux, dans lequel on leur promet de doubler tout paiement en crypto-monnaie envoyé à l’émetteur de la vidéo. 

Les deepfakes pornographiques

Les deepfakes servent également à porter atteinte à la vie privée d'une personne donnée. De fausses vidéos peuvent être créées en  accolant le visage d'une victime sur une vidéo pornographique préexistante, ce qui peut causer du tort à la personne visée, ainsi que de la détresse émotionnelle. Dans certains cas, il arrive qu’on appose des images de célébrités à des corps d'actrices porno, dans des scènes explicites. Dans de tels cas, les victimes de deepfakes voient leur réputation entachée et leurs droits bafoués.

Les entreprises dans le viseur 

Bien souvent, les deepfakes sont utilisés pour cibler des entreprises à des fins d'extorsion de fonds, de chantage et d'espionnage industriel. Par exemple, dans un cas bien connu des médias, des cybercriminels ont réussi à tromper un directeur de banque aux Émirats arabes unis et à lui voler 35 millions de dollars en utilisant un deepfake vocal. Dans ce cas, un petit enregistrement de la voix du patron d'un employé a suffi pour générer un deepfake convaincant. Dans un autre cas, des escrocs ont tenté de se faire passer pour la plus grande plateforme de crypto-monnaies, Binance. Le directeur exécutif de Binance s’est étonné de recevoir des messages de remerciement au sujet d’une réunion Zoom à laquelle il n'avait jamais assisté. À l'aide des différentes images et vidéos de ce dernier publiées en ligne, accessibles au public, les attaquants ont réussi à générer un deepfake et à le faire participer avec succès lors d'une réunion en ligne, s'exprimant ainsi au nom du dirigeant.
En général, les cybercriminels qui utilisent les deepfakes comme outil ont pour objectif la désinformation et la manipulation de l'opinion publique, le chantage ou même l'espionnage. Selon un communiqué du FBI, les responsables des ressources humaines seraient déjà en alerte concernant l'utilisation de deepfakes par des candidats qui postulent pour un travail à distance. Dans le cas de Binance, les attaquants ont utilisé des images de personnes provenant d'Internet pour créer des deepfakes et ont même pu ajouter les photos de ces personnes à des CV. S'ils parviennent ainsi à tromper les responsables des ressources humaines et qu'ils reçoivent ensuite une offre, ils peuvent récupérer les données de l'employeur. 

Selon le Forum économique mondial (WEF), le nombre de vidéos "deepfake" en ligne augmente de 900 % par an. Cependant, il est également important de prendre en compte le fait que les deepfakes sont un type de fraude très coûteux qui nécessite des investissements importants. Des recherches antérieures menées par Kaspersky ont révélé les types de deepfakes vendus sur le darknet et leurs coûts. Si un utilisateur lambda trouve un logiciel sur internet et tente de créer un deepfake par lui-même, le résultat sera irréaliste, et repérable très facilement à l'œil nu. Peu de gens se laissent berner par des deepfakes de mauvaise qualité : les décalages dans l'expression du visage ou un flou dans la forme du menton sont en effet faciles à remarquer.

Lorsque les cybercriminels préparent une attaque, ils ont besoin d'une grande quantité de données : de photos, de vidéos et d'enregistrements audio de la personne dont ils veulent usurper l'identité. Disposer de contenus les mettant en scène dans différents angles, avec différents niveaux de luminosité, et des expressions faciales variées, joue un rôle important dans la qualité finale de la vidéo produite. Pour que le résultat soit réaliste, il est nécessaire de disposer d'un ordinateur et de logiciels de pointe. Tout cela demande énormément de ressources et n'est accessible qu'à un petit nombre de cybercriminels. Par conséquent, malgré tous les dangers associés au deepfake, il faut bien comprendre qu’il s'agit toujours d'une menace extrêmement rare, que seul un petit nombre d'acheteurs peut s’offrir. En effet, produire une minute de vidéo deepfake peut coûter 20 000 dollars et plus! 

« Parmi tous les risques que les deepfakes peuvent faire courir aux entreprises, le vol de données n’est pas nécessairement le plus grave. Parfois, les atteintes à la réputation peuvent avoir des conséquences bien plus graves. Imaginez qu'une vidéo dans laquelle votre patron fait (en apparence) des déclarations polarisantes sur des questions sensibles soit publiée. Pour les entreprises, cela peut rapidement entraîner une chute du cours des actions. Cependant, bien que les risques associés à ce type de menace soient extrêmement élevés, la probabilité que vous soyez attaqué de cette manière reste extrêmement faible en raison du coût de création des deepfakes et du fait que peu d'attaquants sont capables de créer un deepfake de haute qualité », commente Dmitry Anikin, expert senior en sécurité chez Kaspersky.

« Ce que vous pouvez faire dès aujourd’hui, c'est connaître les principales caractéristiques des deepfakes et garder une attitude sceptique face aux messages vocaux et aux vidéos que vous recevez. Assurez-vous également que vos employés comprennent ce qu'est un deepfake et comment ils peuvent le reconnaître : en scrutant, par exemple, des mouvements saccadés, des changements dans le teint de la peau, des clignements étranges ou l'absence totale de clignements, etc. »

La surveillance continue des ressources du dark web fournit des informations précieuses sur l'industrie du deepfake, permettant aux chercheurs de suivre les dernières tendances et activités des acteurs de la menace dans le web souterrain. En surveillant le darknet, les chercheurs peuvent découvrir de nouveaux outils, services et marchés utilisés pour la création et la distribution de deepfakes. Ce type de surveillance est un élément essentiel de la recherche sur les deepfakes qui contribue à améliorer notre compréhension de l'évolution du paysage des menaces. Le service Digital Footprint Intelligence de Kaspersky intègre ce type de surveillance afin d'aider ses clients à garder une longueur d'avance sur les menaces liées aux deepfakes.

Pour se protéger des menaces liées aux deepfakes, Kaspersky recommande

  • Vérifiez les pratiques de cybersécurité en place dans votre organisation, non seulement en termes de logiciels de sécurité utilisés, mais aussi en termes de compétences informatiques des employés. Utilisez Kaspersky Threat Intelligence pour prendre une longueur d'avance sur le paysage actuel des menaces.
  • Renforcez le « pare-feu humain » de l'entreprise : assurez-vous que les employés comprennent ce que sont les deepfakes, comment ils fonctionnent et les défis qu'ils peuvent poser. Organisez des campagnes de sensibilisation et d'éducation continues pour apprendre aux employés à repérer les deepfakes. Kaspersky Automated Security Awareness Platform aide les employés à se tenir au courant des menaces les plus récentes et améliore leur niveau de culture numérique. 
  • Utilisez des sources d'information de bonne qualité. Le manque de connaissance en matière de fact-checking reste un facteur essentiel permettant la prolifération des deepfakes.
  • Adoptez de bons protocoles, « faites confiance mais vérifiez ». Une attitude sceptique à l'égard des messages vocaux et des vidéos ne garantit pas que les gens ne seront jamais trompés, mais elle permet d'éviter la plupart des pièges les plus courants.
  • Sachez reconnaître les principales caractéristiques des vidéos truquées pour éviter d'en être victime : mouvements saccadés, variations d'éclairage d'une image à l'autre, variations du teint de la peau, clignements étranges ou absence totale de clignements, lèvres mal synchronisées avec la parole, artefacts numériques sur l'image, vidéo intentionnellement encodée en qualité inférieure et mal éclairée.

Le CNNum plaide pour créer un service public d’éducation populaire au numérique

computer

 

Depuis la crise du Covid-19, la numérisation de notre société s’est accélérée : cybercommerce, click & collect, démarches administratives, vidéo à la demande par abonnement, communication par visioconférences, télétravail, réseaux sociaux, arrivée de l’intelligence artificielle avec des outils comme ChatGPT, etc. De plus en plus de pans de notre vie quotidienne impliquent l’usage du numérique, soulevant des questions éthiques, d’accessibilité et de sécurité. 13 millions de Français souffrent d’illectronisme, n’appréhendant pas ou mal les nouveaux outils et les pirates multiplient les arnaques en ligne avec toujours plus de sophistication tandis que les fake news n’ont jamais été aussi nombreuses…

Pour comprendre ce paysage mouvant, le Conseil national du numérique (CNNum) a ouvert le débat en 2021 avec la publication de « Civilisation numérique. Ouvrons le débat. » La démarche exploratoire « Itinéraires numériques », construite en partenariat avec de nombreux acteurs locaux qui font vivre ce débat permanent dans toutes les régions (tiers-lieux, bus itinérants, mairies, centres sociaux, établissements scolaires, colonies de vacances, places publiques, cafés associatifs…) a permis de multiplier les rencontres pour effectuer un diagnostic très fin autour d’une culture numérique partagée. Ce mois-ci, l’heure de la restitution et des propositions est arrivée.

50 déplacements, 40 départements visités

« De nombreux acteurs partout en France montrent au quotidien qu’une approche de notre relation au numérique qui ne fasse pas des utilisateurs uniquement des marchandises est possible. La question est certes celle de l’accès et de l’usage mais plus globalement de la compréhension du milieu dans lequel nous sommes totalement immergés. Il est temps de promouvoir et de soutenir cette dynamique pour que le numérique du quotidien ne génère pas un sentiment d’angoisse, de colère ou d’exclusion mais d’enrichissement et de plaisir. La diffusion d’une culture numérique partagée, construite avec les citoyens, serait une première pierre dans la prise en main de ces technologies à l’échelle du pays. C’est un apprentissage indispensable pour garantir notre faculté à faire société », estime Gilles Babinet, qui copréside le CNNum avec Françoise Mercadal-Delasalles.

Au terme de plus de 50 déplacements en un an et près de 40 départements visités, le CNNum préconise de créer un service public d’éducation populaire numérique. « Le numérique aurait pu être le vecteur massif d’une culture de la solidarité et de l’émancipation. Le plus souvent, ça n’a pas été le cas. Il est possible de renverser la balance. Pour cela, il est temps de sonner le rassemblement des forces présentes sur l’ensemble du territoire national », explique le secrétaire général du CNNum, Jean Cattan.

À l’heure où la protection des données personnelles, la souveraineté numérique française et européenne, l’accessibilité et les connectivités sont des enjeux majeurs, l’idée du CNNum de créer ce service public destiné à tous et construit à partir du terrain devrait trouver un large écho car l’apprentissage de la culture numérique est aujourd’hui aussi important que celui de la lecture, de l’écriture et du calcul.

(Article publié dans La Dépêche du Midi du lundi 29 mai 2023)


Présidentielle : des millions de Français ciblés sans leur accord

spam

Plus de dix millions de Français ont reçu des SMS et des coups de téléphone de propagande politique lors de l’élection présidentielle de 2022 puis des élections législatives, de la part de candidats qui se sont affranchis des règles édictées par la Commission nationale de l’informatique et des libertés (CNIL) pour cibler des millions d’électeurs. Cette pratique – envoie de SMS, de courriels, de message vocaux – était connue mais une enquête du Monde publiée cette semaine en démontre l’ampleur et en souligne les questions éthiques qu’elle pose quant au respect des données personnelles des Français et de leur consentement à recevoir ce type de message.

La CNIL a reçu 2 949 signalements

Parmi les douze candidats à la présidentielle, la moitié a envoyé plus d’un million d’e-mails de propagande électorale et beaucoup ne donnaient pas la possibilité aux destinataires de se désinscrire, ce qui est pourtant une obligation légale. Emmanuel Macron, Eric Zemmour, Valérie Pécresse et Jean-Luc Mélenchon ont envoyé plus d’un million de messages vocaux ou de SMS dans les derniers jours de la campagne, suscitant les interrogations de nombreux Français qui ne comprenaient pas comment les candidats avaient pu obtenir leur numéro de mobile.

Certains ont effectué des signalements auprès de la CNIL. Entre le 16 février 2022 (lancement de sa plateforme de signalements) et le second tour de l’élection présidentielle, la Commission a reçu 2 949 signalements dont 2 148 à la suite de la réception d’appels téléphoniques 577 de SMS 213 de courriels et 54 de courriers. Ces signalements ont abouti au traitement de 45 plaintes (8 dans le cadre des primaires, 24 dans le cadre de la campagne présidentielle et 13 dans le cadre des législatives) et la CNIL a procédé à l’ouverture de trois procédures de contrôle formelles.

Ces techniques de démarchage ont été fortement utilisées par les équipes des candidats pour leur permettre de cibler des publics précis (maires, Français de l’étranger, communauté juive, femmes issues des bureaux de votes prioritaires hors Île-de-France, plus de 65 ans, boulangers, taxis, etc.) afin d’espérer élargir leur socle électoral habituel.

Flou juridique

Les coordonnées (numéros de téléphone, adresses électroniques) des publics cibles ont souvent été obtenues largement par des data brokers, des sociétés spécialisées qui ont constitué d’immenses bases de données, mais sans que les intéressés n’aient formellement donné leur accord pour recevoir un jour des messages politiques. Les sociétés – et en suivant leurs clients candidats – jouent, en effet, sur un flou juridique puisque l’obligation de recueil du consentement (opt-in politique) ne figure pas formellement dans le Règlement général sur la protection des données (RGPD), qui régit les envois de masse, même si la CNIL le recommande.

Interrogée par Le Monde, la Commission estime qu’une loi plus claire faciliterait les sanctions. À l’heure où la protection des données personnelles est un enjeu majeur et une préoccupation forte des Français, reste à savoir si une telle loi pourrait voir le jour avant les prochaines élections.

(Article publié dans La Dépêche du Midi du dimanche 28 mai 2023)


De Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots

ia

Par Frederic Alexandre, Inria

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ».

Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.

En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches

Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

pieds d’un plongeur
Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY

Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Être conscients de ce que nos « likes » disent sur nous

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

likes peints sur un mur argenté
Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY

Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.The Conversation

Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

INPN Espèces : une application pour sensibiliser à la protection de la biodiversité

 

appli

Notre indifférence au déclin des insectes est aussi attribuable à notre méconnaissance. C’est pourquoi des initiatives comme l’application de l’Inventaire national du patrimoine naturel (INPN), qui dépend de l’Observatoire français de la biodiversité (OFB) et du Muséum national d’histoire Naturelle, sont salutaires.

Lancée en 2016, l’application INPN Espèces est « un projet participatif qui permet à partir d’une application mobile gratuite de découvrir l’ensemble de la biodiversité et de contribuer à l’inventaire du patrimoine naturel en métropole et en outre-mer », expliquent ses promoteurs. Portée par le centre d’expertise PatriNat (Muséum national d’Histoire naturelle, Office français de la biodiversité, CNRS, Institut de recherche pour le développement), l’application propose depuis le 11 avril une nouvelle version, plus ergonomique et plus facile d’accès, avec de nouvelles fonctionnalités dédiées spécifiquement aux enseignants et à leurs classes, de la maternelle au lycée. Mais chaque citoyen peut participer à l’inventaire sur la simple base d’une photo qui sera validée par les experts du projet avec une réponse directement sur son téléphone.

« Depuis 2016, plus de 9 000 participants ont partagé près de 600 000 observations, sur la base de 1 189 332 photographies. Les cartes de répartition de 10 465 espèces ont ainsi pu être complétées dans l’inventaire national. En 2022, près de 40 observations ont été transmises par heure en moyenne, validées par un panel de 165 experts naturalistes », précise l’OFB.

Application à télécharger sur Google Play ou l’App Store

(Article publié dans La Dépêche du Midi du 12 mai 2023)


Réalité virtuelle et santé mentale : exit le divan, place au casque ?

casque

Par Emma Tison, Université de Bordeaux

Selon le cabinet d’analyse Counterpoint, cité par le magazine économique L’Usine Nouvelle, les ventes de casques de réalité virtuelle et augmentée pourraient décupler d’ici à 2025, en raison notamment de l’arrivée d’Apple dans ce secteur.

Lorsque nous entendons « réalité virtuelle » (RV), nous pensons généralement « jeux vidéo ». Pourtant cette technologie n’est pas réservée aux loisirs, et ses domaines d’application se sont multipliés au fil des années.

Déjà utilisée comme outil de formation, dans des secteurs aussi différents que le management et la vente ou la formation des astronautes, elle est encore mise à contribution pour entraîner les chirurgiens dans leur pratique.

Et, depuis quelques années, son potentiel pour traiter certains troubles mentaux est également exploré – avec des résultats très encourageants.

Réalité virtuelle, réalité augmentée : de quoi parle-t-on ?

Avant de développer ce dernier point, il convient de rappeler ce qu’est la réalité virtuelle.

Cette technologie consiste à immerger un utilisateur dans un monde virtuel au moyen de dispositifs dédiés (casques, visiocubes, grands écrans). Les casques par exemple permettent une immersion forte grâce au couplage des mouvements de la tête de l’observateur avec les images stéréoscopiques affichées sur deux petits écrans. Une fois équipé, l’utilisateur est immergé visuellement et auditivement. Il peut même interagir grâce à des « contrôleurs » rappelant les manettes de jeu vidéo afin d’effectuer des actions, de se déplacer, etc. Des dispositifs plus élaborés peuvent aussi mettre à contribution le corps entier.

La réalité virtuelle permet donc de produire des expériences sensorielles de manière artificielle. Ces expériences peuvent concerner non seulement la vue et l’ouïe, mais aussi l’odorat ou le toucher – via des dispositifs « haptiques » (vibreurs essentiellement) pouvant procurer un retour sensoriel sur ses actions ou sa position dans l’espace.

Plus l’environnement virtuel sera immersif, plus l’utilisateur aura une sensation de « présence » élevée. Ladite présence peut être divisée en deux concepts distincts : l’illusion du lieu et l’illusion de plausibilité. Un environnement virtuel bien réalisé et des retours sensoriels pertinents apportent de la crédibilité et donneront la sensation d’évoluer de façon similaire à ce qu’on connaît dans le monde réel.

En effet, si ce que nous voyons est cohérent avec nos mouvements, le cerveau va conclure qu’il s’agit de notre environnement (illusion du lieu). Et si l’environnement réagit à notre présence et à nos actions (illusion de plausibilité), ce sentiment est renforcé.

Les thérapies d’exposition en santé mentale

L’apprentissage par l’expérience est depuis longtemps une technique thérapeutique utilisée en santé mentale. C’est en 1984 que le théoricien de l’éducation David Kolb développe une application de sa théorie de l’apprentissage qui peut être divisée en quatre étapes : l’expérience concrète (immersion dans une situation réelle), l’observation réfléchie de cette expérience, la conceptualisation abstraite (où nous concevons une hypothèse explicative et de compréhension) et l’expérimentation active (qui permet de valider ou non l’hypothèse).

Si l’on simplifie les problèmes de santé mentale pour les considérer comme des difficultés à interagir dans le monde, le potentiel de la réalité virtuelle pour les traiter est énorme ! Par exemple, les personnes concernées pourraient bénéficier de niveaux élevés de présence dans des univers virtuels afin d’y expérimenter les situations qui les mettent en difficulté dans le monde réel afin d’apprendre à les gérer.

Les simulations peuvent également être graduées en difficulté et répétées jusqu’à ce que le bon apprentissage soit fait. Des situations problématiques difficiles à trouver dans la vie réelle peuvent facilement être mises en place virtuellement. Cela peut être par exemple, lors d’une phobie à l’idée de prendre l’avion : il est beaucoup plus facile de se retrouver à l’intérieur d’un avion virtuel que dans le monde réel.

Et le grand avantage de la RV est que les individus peuvent se souvenir qu’ils sont dans un environnement qui n’est pas réel : il leur est ainsi beaucoup plus facile de faire face à des situations qui leur posent problème, et elles seront en mesure d’essayer de nouvelles stratégies thérapeutiques.

Cet apprentissage peut ensuite être transféré dans le monde réel.

De plus, grâce à l’expérience de la RV, le thérapeute peut mieux démontrer au patient que ce qui lui semble être un fait est le résultat de son esprit, une « hypothèse individuelle inadaptée ». Une personne « hématophobe » peut associer la présence de sang à une blessure grave alors qu’elle n’est pas nécessairement le signe d’une hémorragie. Une fois ce concept compris, leur remise en question est plus simple.

Les avantages de la thérapie « virtuelle »

La thérapie par exposition à la réalité virtuelle présente divers avantages par rapport à l’exposition réelle :

  • En termes de coût et de disponibilité : les situations redoutées ne sont pas toujours facilement accessibles, et l’exposition imaginaire (c’est-à-dire à des situations imaginées) est moins efficace ;

  • En termes d’engagement : l’immersion et l’interaction offertes par la RV peuvent améliorer l’engagement et l’adhésion des participants ;

  • En termes de contrôle : le contrôle de ce qui se passe dans le monde virtuel est presque total, y compris des éléments qui peuvent rendre la situation menaçante (animaux ou objets redoutés, hauteur des bâtiments, etc.). De plus, le thérapeute a un suivi complet, voit les éléments qui perturbent le plus le patient, etc. ;

  • En termes de réalisme et de présence : contrairement à l’exposition imaginaire (i·e on demande à la personne d’imaginer la situation), les utilisateurs de la RV se sentent présents et jugent leur situation comme réelle tout en sachant qu’elle ne l’est pas ;

  • En termes d’efficacité : La RV permet de construire des « aventures virtuelles » dans lesquelles la personne se sent compétente et efficace ;

  • En termes de sécurité : l’exposition réelle peut être très aversive et donner un sentiment d’insécurité, car il n’y a aucune garantie que quelque chose ne se passera pas mal (un ascenseur qui s’arrête…). Ce n’est pas le cas en réalité virtuelle, le contexte et le cadre étant contrôlés.

Quand la réalité virtuelle est-elle utile ?

La RV peut être utilisée dans la prise en charge des phobies par exemple. Le patient y expérimente en toute sécurité et progressivement les situations sources d’anxiété ou peur : présence d’araignée, altitude, conduite… Ceci lui permet de s’y exposer pour, à terme, faire baisser son niveau d’anxiété.

La réalité virtuelle est aussi utile dans le cas d’un délire de persécution (lutter contre la crainte d’être attaqué), d’addiction (résister à l’envie de prendre un autre verre), de troubles du comportement alimentaire. Dans ces types de prises en charge, le rétablissement consiste à penser, à réagir et à se comporter différemment dans ces situations.

En mettant en place des activités sensori-motrices proches de ce qu’on expérimente dans la vie réelle, la RV permet d’évaluer de manière plus objective les processus cognitifs et symptômes en jeu chez les patients. Elle peut donc être utilisée comme un outil de détection précis des éléments perturbants. Ce qui peut être utile pour identifier un trouble du stress post-traumatique.

Cet aspect de la RV plaide pour son emploi en « remédiation cognitive », qui a pour objectif de diminuer l’impact des difficultés d’un patient. La réalité virtuelle est alors utilisée comme outil d’entraînement, en fournissant une représentation réaliste de son environnement et de ses activités quotidiennes.

Le logiciel de réalité virtuelle R.O.G.E.R permet par exemple d’explorer et de travailler les fonctions cognitives. Grâce à lui, l’utilisateur peut réaliser différentes activités de vie – tri de documents administratifs, etc. Cela permet d’exercer sa flexibilité (possibilité de passer d’une tâche à une autre pour s’adapter et adapter son comportement) et d’autres fonctions cognitives, tout en restant ancré dans le quotidien.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Une technologie en progrès, mais avec des limites

La recherche psychologique et la pratique clinique ont fait d’énormes progrès ces dernières années, et les outils se développent et se démocratisent.

Au-delà des thérapies, des recherches portent également sur l’utilisation de la réalité virtuelle pour la sensibilisation et la formation en santé mentale des étudiants (en médecine, psychologie, soins infirmiers). Ces derniers peuvent se « mettre dans la peau » de personnes atteintes de troubles psychiatriques, ce qui leur donne une meilleure compréhension de ce que peuvent vivre les usagers – et diminuer leur stigmatisation.

Il paraît clair que la réalité virtuelle peut contribuer à améliorer l’accès à des traitements et thérapies psychologiques efficaces, et constituer une méthode de choix pour les thérapeutes et les patients. Attention toutefois : le facteur humain ne peut et ne doit pas disparaître, car la présence du thérapeute est en elle-même déjà thérapeutique.

Cette technologie présente toutefois encore des limites : les scénarios sont pour le moment restreints, pour des raisons techniques mais également parce que les thérapeutes ne sont pas programmeurs, tout comme le degré d’interaction sociale possible. De plus, le « mal des simulateurs », cette sensation de nausée causée par des informations contradictoires reçues par nos systèmes sensoriels, n’est pas totalement solutionné.

Une autre limite est qu’elle isole les utilisateurs dans un monde numérique. Il peut donc être intéressant d’explorer des approches en réalité augmentée (RA), qui consiste à superposer des éléments virtuels à l’environnement réel. Au lieu d’isoler du monde réel, la réalité augmentée permet d’interagir avec des personnes réelles et non plus avec des avatars : il n’y a plus la distance sociale présente en RV. De plus, avec la RA, nous pouvons distordre la réalité et contrôler les stimuli, tout en mettant les utilisateurs dans le vrai monde physique.

Mais, qui sait… peut-être qu’un jour, pour certaines thérapies, nous pourrons dire exit le divan, place au casque !


Emma Tison réalise actuellement sa thèse à l’Université de Bordeaux sous la direction de Antoinette Prouteau et Martin Hachet. Ces derniers ont participé à la relecture de cet article.The Conversation

Emma Tison, Doctorante en psychologie, Psychologue spécialisée en neuropsychologie, Université de Bordeaux

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Projet de loi pour sécuriser Internet en France : les mesures clés du gouvernement décryptées

internet

Par Alexandre Lazarègue, avocat spécialisé en droit du numérique.

Mercredi 3 mai, le ministre de la Transition Numérique, Jean-Noël Barrot, présentera un projet de loi en conseil des ministres visant à sécuriser et réguler internet. Cette initiative s'inscrit dans le cadre du "cap des 100 jours" lancé par le président de la République. Bien que de nombreuses réglementations aient déjà été mises en place pour réguler internet, les internautes restent vulnérables face à la criminalité en ligne. Selon le parquet de Paris, les préjudices causés s'élèvent à 500 millions d'euros pour les Français.


  • Le projet de loi contient plusieurs mesures, dont l'interdiction d'accès aux réseaux sociaux pour les individus condamnés pour cyber-harcèlement.

Déjà depuis la loi du 4 août 2014, l'article 222-33-2-2 du code pénal réprime le harcèlement numérique définit comme « le fait, par des propos ou comportements répétés, de dégrader les conditions de vie d’une personne se traduisant par une altération de sa santé physique ou mentale ». La sanction prévue est de deux ans d'emprisonnement et de 30 000 euros d'amende lorsqu'il a été commis à travers un réseau social.

La loi confortant les principes de la République y a ajouté un amendement dit « Samuel Paty » sanctionnant les harcèlements en meute qui permet de sanctionner les propos ou comportements imposés à une même victime par plusieurs personnes alors même que chacune de ces personnes n'a pas agi de façon répétée et même en l'absence de concertation.

Cet article a permis de sanctionner les auteurs de harcèlement de la jeune Mila ou encore de Magalie BERDAH lorsque les auteurs ont été identifiées.

Le législateur entend désormais interdire aux personnes condamnées d’accéder de nouveaux à un réseau social pendant une période limitée, de 6 mois à un an en cas de renouvellement.

Des interrogations naissent quant à la conformité de ce texte avec la liberté de communication et il apparait également difficile de s’assurer que cette interdiction sera effective alors que l’inscription sur un réseau social de façon anonyme reste possible. Le législateur ne semble pas vouloir interdire l’expression anonyme au nom de la liberté d’expression protégée par le conseil constitutionnel.


  • Le législateur entend imposer un système de « filtre anti-arnaque » consistant dans la mise en place d’un service de sécurité visant à détecter et bloquer les sites internet frauduleux alors que le plateforme Thésée dédiée aux arnaques sur internet a enregistré plus 60 000 plaintes depuis mars 2022.

Ce nouveau système de sécurité serait intégré aux logiciels de messagerie électronique, aux moteurs de recherche, aux réseaux sociaux, aux plateformes de commerce électronique ainsi qu'aux services bancaires en ligne. Il permettrait aux internautes d'être alertés sur le caractère suspect de certains sites et messages.

Les filtres anti-arnaque fonctionneraient grâce à l'analyse de contenu, de l'historique des utilisateurs, de comportement et même grâce à l'utilisation d'algorithmes d'apprentissage automatique pour améliorer leur précision au fil du temps.

Assurément ces filtres soient susceptibles de protéger les utilisateurs contre une grande variété d'escroqueries en ligne, tels que le phishing, les arnaques à la loterie, les faux sites Web et les faux comptes de réseaux sociaux, ils ne seront toutefois pas infaillibles et la vigilance devra rester une exigence pour les internautes.

  • Le projet de loi renforce les mesures de protection pour les mineurs en ligne en permettant à l'ARCOM d'ordonner le blocage des sites pornographiques qui ne respectent pas les obligations légales de protection des mineurs.

Cette mesure s'ajoute à l'article 23 de la loi du 30 octobre 2020 qui avait conféré au président de l'ARCOM le pouvoir de mettre en demeure les sites à caractère pornographique de se conformer à cette exigence, et de saisir le président du tribunal en cas d'inexécution pour obtenir le blocage d'accès au site et son déréférencement par les moteurs de recherche.

Le président de l'ARCOM n'avait pas tardé à user de ses nouveaux pouvoirs en mettant en demeure les principaux éditeurs de sites à caractère pornographique (Pornhub, Tukif, xHamster, Xnxx et Xvideos, YouPorn et RedTube), puis en saisissant le président du Tribunal judiciaire de Paris en mars 2022 pour qu'il ordonne aux fournisseurs d'accès à internet (FAI) d'en bloquer l'accès, la simple déclaration de majorité sur laquelle il faut cliquer sur ces sites étant jugée insuffisante.

Cette démarche s’est heurtée à la longueur des procédures judiciaires. Les sites concernés avaient tenté un recours devant le conseil constitutionnel au nom de la liberté de communication et le juge judiciaire avait invité les parties à trouver un arrangement avant de se prononcer. Autant d’étapes qui à ce jour n’ont pas permis la cessation de diffusions de ces sites.

Il n’est pas certain que le nouveau dispositif prévu dans le projet garantisse la suppression des sites pornographiques accessibles aux mineurs.  Ces sites disposeront d’un recours a postériori devant le juge pour contester une telle décision administrative prise unilatéralement.

En outre, si les sites concernés pour se soumettre à la loi sont invités à faire appel à des tiers de confiance chargé de s’assurer de l’âge de l’utilisateur en garantissant la protection d’une telle donnée, ces systèmes ne pourront jamais garantir cette protection de manière définitive et conduirait à interdire aux adultes l’accès à ces sites.

Enfin, il existe de nombreuses méthodes pour accéder à des sites bloqués par les fournisseurs d'accès à Internet (FAI) tels que l’utilisation d’un VPN, d’un PROXY, du réseau TOR.

Le projet de loi pourrait donc s'avérer inefficace pour atteindre son objectif initial de protéger les mineurs en ligne.

Comment l’intelligence artificielle révolutionne déjà la santé

ia

Depuis plusieurs mois, pas une semaine, pas un jour sans que l’on n’entende parler d’intelligence artificielle (IA), et notamment ChatGPT, l’agent conversationnel développé par la société américaine OpenAI. L’intelligence artificielle nous bluffe quand on la voit écrire des textes parfaits, nous amuse quand elle génère des images à partir d’une simple description, mais nous inquiète aussi quand on voit les fausses images d’Emmanuel Macron ramassant des poubelles, de Donald Trump arrêté par la police ou du pape François en doudoune blanche.

Elle nous inquiète car nous savons qu’on n’en est qu’aux balbutiements – MidJouney par exemple a beaucoup de mal à générer des doigts de main – et que les prochaines intelligences artificielles dites génératives vont franchir de tels progrès que de nombreux experts tirent la sonnette d’alarme.

L’alerte d’un pionnier de l’IA

Un millier de chercheurs et d’experts – dont Elon Musk, le patron de Twitter et Telsa… qui avait laissé filé OpenAI – ont récemment demandé de suspendre les recherches le temps d’avoir du recul sur ce qui se passe. Et le 1er mai, Geoffrey Hinton, pionnier de l’IA, a annoncé sa démission de Google dans une déclaration au New York Times, expliquant qu’il regrettait son invention, que certains des dangers liés aux chatbots d’IA étaient « assez effrayants » et que nombreux sont ceux, selon lui, qui ne « distinguent plus le vrai du faux », élément pourtant essentiel de la vie en société dans les démocraties.

Les cybercriminels ont déjà commencé à utiliser l’IA et on se rappelle aussi que Vladimir Poutine avait prédit que « celui qui deviendra le leader dans ce domaine sera le maître du monde ». C’était en 2017… Les États tentent bien d’encadrer l’IA, d’y donner un cadre éthique, de poser des limites, mais les progrès dans le domaine sont si rapides – l’IA atteindra le « niveau humain » d’ici 10 ans selon le patron de Google DeepMind, Demis Hassabis – que cela reste très difficile.

Pour autant, faut-il s’inquiéter ? « À vrai dire, l’avenir de l’IA est relativement inconnu », explique Benoît Grunemwald, expert en cybersécurité chez ESET France. Surtout, l’intelligence artificielle peut apporter beaucoup à l’humanité, par exemple dans le domaine de la santé et notamment dans les diagnostics de cancers.

Diagnostic, recherche, prévention

Récemment, Le Parisien a raconté l’histoire de Wilfrid Desmares. Les médecins ne trouvaient pas l’origine du cancer métastasé de cet homme de 51ans. Une IA, développée par l’Institut Curie, a estimé qu’« à 90 % » la tumeur initiale se trouvait dans les reins, permettant de soigner efficacement ce patient. L’outil a été mis à l’honneur mi-avril dans un congrès d’oncologie aux États-Unis.

Dans ce cas-là, l’IA surpasse le médecin car elle est capable de compiler des millions de données pour détecter la moindre anomalie, ce que ne peut évidemment pas faire un humain.

Implémentée dans des cabines de télémédecine, l’IA peut détecter toute irrégularité à partir d’une simple vidéoconsultation d’un patient. Intégrée dans des appareils de radiothérapie ou d’IRM, elle peut détecter de petites lésions difficiles à voir. Au cœur de robots conversationnels correctement « entraînés » , l’IA peut aider les médecins à trouver le bon diagnostic et gagner ainsi du temps précieux aux urgences… mais aussi à leur libérer du temps médical en se chargeant d’aspects administratifs.

L’IA peut aider les chirurgiens en anticipant les risques d’une opération. Elle peut également contribuer à la recherche médicale en découvrant de nouvelles molécules comme candidat médicament en un temps record.

Santé connectée

Enfin, l’IA peut nous aider au quotidien pour faire de la prévention – François Braun est ministre de la Santé et de la prévention. La santé connectée est en ainsi en plein boom, de plus en plus abordable. L’IA peut analyser les données de santé captées par votre montre connectée et y déceler toute anomalie. Demain, le miroir de votre salle de bains détectera votre mauvaise mine.


L’intelligence artificielle dans le domaine de la santé est, on le voit, vertigineuse, d’où l’importance de bien encadrer l’usage des données médicales pour garder à l’œil cet utile Big Brother.

Exploration polaire : deux projets venus du froid remettent la France au premier plan

poles

Et si, face à l’actualité étouffante et bruyante, nous prenions le large, le très grand large ? Et si, face au retour d’El Niño qui nous promet encore plus de températures caniculaires et de calamités météorologiques, nous allions vers le froid, le très grand froid ? Et si, face à tous les complotistes, les antivax et les climatosceptiques qui inondent nos réseaux sociaux et nous fatiguent, nous choisissions la science, la grande science ? Et si, à notre Vieux continent, nous préférions de nouveaux horizons, des horizons plus grands ? 

Pour faire tout cela, il suffit de braquer notre regard sur les pôles, le pôle Nord et le pôle Sud, cet Antarctique qui rime encore avec fantastique. Et on a d’autant plus de raisons de le faire que deux projets français passionnants font souffler le souffle de l’aventure au service de la science : Tara Polar Station au Nord, Polar Pod au Sud.

tara

Conçue par l’architecte Olivier Petit et la Fondation Tara Océan, la Tara Polar Station une station scientifique polaire dérivante de 26 mètres de long, 13,8 de large et 7,9 de haut, capable d’embarquer un équipage de 20 personnes pour une autonomie de 2 200 miles. 

Bloquée dans la glace 90 % du temps de ces missions de 18 mois, cette incroyable station veut mieux comprendre l’impact du changement climatique en Arctique, découvrir la biodiversité de régions inaccessibles aujourd’hui, analyser les conséquences de la fonte de la glace de mer et la pollution sur ces écosystèmes uniques et fragiles et découvrir de nouvelles molécules, espèces et processus ayant de nouvelles applications potentielles. La fondation Tara Océan travaille sur ce projet depuis 5 ans et a réuni les fonds (18 M€) pour lancer en 2025 la première d’une dizaine d’expéditions étalées sur 20 ans.

polarpod

Au Sud, c’est un projet au long cours, Polar Pod, que porte Jean-Louis Etienne, qui fut le premier homme à atteindre le pôle Nord en solitaire en 1986 et mena en Antarctique, notamment, la Transantarctica en 1989-1990. Polar Pod – « ma cathédrale » savoure Jean-Louis Etienne – est un navire révolutionnaire qui va explorer l’océan austral qui entoure l’Antarctique bravant les 50es rugissants si redoutés des marins, pour effectuer des mesures jamais réalisées jusqu’à présent. 

Tracté sur zone, le Polar Pod se redressera à la verticale : 100 mètres de long, un lest de 150 tonnes à 80 mètres sous la surface pour l’équilibrer, une cabine de trois étages à 10 mètres au-dessus de l’eau capable d’accueillir 8 personnes (3 marins, 4 scientifiques et un cuisinier) et des voiles pour dériver autour de ce vaste continent blanc qui fait 28 fois la dimension de la France. Pour avitailler ce vaisseau, Jean-Louis Etienne a fait construire Persévérance, un magnifique voilier qui arrivera à Marseille fin mai. Les croisières qu’il effectuera entre océans indien et austral contribueront à financer les expéditions du Polar Pod.

Polarpod

Soutenues par les plus grandes institutions scientifiques et comprenant de remarquables projets pédagogiques pour les scolaires, Tara Polar Station et Polar Pod s’inscrivent dans les pas de Paul-Émile Victor, du commandant Charcot, de Jean Malaurie ou de Claude Lorius et permettent à la France de retrouver sa place comme acteur majeur de l’histoire polaire.

(Article publié dans La Dépêche du Midi du dimanche 7 mai 2023)

Mémoire, attention : est-il plus difficile de lire sur écran ?

 

kindle

Par Xavier Aparicio, Université Paris-Est Créteil Val de Marne (UPEC) et Ugo Ballenghein, Université Paris-Est Créteil Val de Marne (UPEC)

Du papyrus au papier, en passant par le parchemin et en arrivant aujourd’hui aux écrans, les supports de lecture ont évolué au fil des époques et continuent à se diversifier dans une société qui se digitalise toujours plus. Des smartphones aux tablettes ou aux liseuses, l’écrit est au cœur de nos activités quotidiennes et nos habitudes de lecture évoluent.

Les évolutions rapides de ces outils numériques invitent à s’interroger sur la manière dont on apprend à lire aujourd’hui et à se demander si l’utilisation de nouveaux supports modifie notre capacité de compréhension, qui peut se définir comme l’activité par laquelle les individus vont acquérir et utiliser des connaissances. Complexe et dynamique, elle fait intervenir différentes sources d’informations.

Les mécanismes de la compréhension de texte

Comprendre suppose d’élaborer une représentation basée sur une interprétation des informations textuelles mise en relation avec nos connaissances antérieures. Le modèle de compréhension de texte de Kintsch & van Dijk formalise trois niveaux de représentation :

  • le premier, niveau de surface, correspond à notre capacité à nous rappeler d’un mot lu dans le texte, sans que le sens ne soit pris en compte ;

  • le deuxième niveau correspond à l’intégration du sens des phrases de façon indépendante ;

  • enfin, le troisième niveau, appelé le modèle de situation, rend compte de la capacité du lecteur à élaborer une représentation qui est le produit de l’interaction entre ce qu’il lit et ses connaissances antérieures. C’est la capacité à produire des inférences.

Prenons un exemple pour comprendre ce que sont ces inférences. Imaginez que vous deviez répondre à la question « Où Anaïs et Julien se trouvent-ils ? » dans le texte qui suit : « Samedi, Anaïs et Julien ont vu des lions et des tigres ». La première inférence qui émerge à la lecture de cette phrase grâce à nos connaissances est très probablement le zoo. Ajoutons maintenant la phrase « Puis le clown les a beaucoup fait rire ». L’inférence produite suite à la lecture de la phrase initiale doit être inhibée, au profit d’une nouvelle inférence situant nos deux protagonistes probablement au cirque. Concluons à présent le texte avec la phrase « Maman leur a alors demandé d’éteindre la télévision pour aller se coucher ». Là encore, une nouvelle inférence est mise en place : ils étaient chez eux depuis le début.

Comprendre suppose donc la mise en place de différents traitements cognitifs en parallèle : mémoire, flexibilité mentale, mise à jour des informations, inhibition.

La fatigue du « scrolling »

D’une manière générale, nous pouvons intuitivement considérer que lire sur écran ou sur papier ne modifie pas notre capacité à comprendre un texte : indépendamment du support, il s’agit toujours de décoder des signes graphiques pour leur attribuer une signification. Toutefois, la lecture sur écran suppose de prendre en considération les caractéristiques ergonomiques des supports de lecture (taille, luminosité, contraste, etc.) et les caractéristiques du lecteur.

Une récente méta-analyse qui propose la compilation des résultats de 44 études menées auprès de plus de 170 000 participants portant sur les effets du numérique sur la lecture nous indique que, globalement, la compréhension est négativement impactée par la lecture sur support numérique comparé à la lecture sur papier. Les études ne permettent pas d’identifier de différence entre les deux supports en termes de compréhension dans le cas où on consulte des textes en pleine page (sans faire défiler le texte).

En effet, lorsque nous lisons sur écran, nous utilisons un procédé de « scrolling » qui consiste à faire défiler verticalement le texte, ce qui n’est pas sans conséquence sur notre capacité à comprendre les informations lues. Il est très difficile de retrouver une information, un mot ou une phrase, après avoir fait défiler le texte : les mots n’apparaissent plus à la même place alors que, sur papier, leur position spatiale ne change pas. Le « scrolling » perturbe le fonctionnement de notre mémoire spatiale. Le repérage de la position des mots dans le texte (codage spatial des mots) est notamment utile pour revenir rapidement sur les mots du texte, processus indispensable pour la compréhension.

D’autre part, le rétroéclairage des écrans sur lesquels nous lisons, qui implique la projection d’une source lumineuse vers l’utilisateur, n’est pas sans conséquence sur notre capacité à lire les informations. Plusieurs études ont mis en évidence son effet néfaste sur la lecture.

La capacité de prise d’information visuelle est réduite sur écran et nécessite davantage de fixations oculaires lors de lecture des textes. Il en résulte une fatigue visuelle accrue, associée à différents symptômes (maux de tête, migraines chroniques, etc.), notamment lorsque l’activité de lecture est prolongée ou effectuée sur des interfaces de mauvaise qualité (avec un mauvais contraste entre fond et couleur, des interlignes réduits renforçant l’encombrement visuel). Ces effets délétères ne sont pas répertoriés sur les liseuses, qui ne sont pas rétroéclairées mais disposent d’une encre électronique.

Sur Internet, une lecture superficielle ?

Pour le lecteur adulte, la lecture est une activité automatique et rapide car l’apprentissage systématique de la correspondance entre les graphèmes (lettres, groupes de lettres) et les phonèmes (sons) et le développement du lexique mental permettent notamment de libérer des ressources cognitives nécessaires à la mise en place du processus de compréhension. Notre vitesse de lecture varie en fonction de l’objectif de lecture que nous nous sommes fixé.

D’après les travaux de Thierry Baccino. Fourni par l'auteur

Lorsque l’on navigue sur des pages web, notre lisons des pages riches en informations, véhiculant des messages parfois très courts et dynamiques destinés à être plus accessibles en termes de quantité de contenu et donc de rapidité de lecture. Cela donne un côté superficiel à la lecture, qui devient un écrémage.

Cette lecture superficielle correspond davantage à une recherche d’information qu’à une lecture approfondie visant à comprendre un concept par exemple. L’attention est notamment perturbée par la présence de fenêtres multiples, l’apparition de notifications, la présence de liens hypertextes qui vont nous permettre de naviguer mais vont aussi contribuer à nous désorienter face au flux conséquent d’informations présentes.

Une grande quantité d’informations accessibles ne facilite pas l’extraction des informations nécessaires à la prise de décision, et peut même conduire à une surcharge cognitive conduisant le lecteur à ne plus être capable de traiter efficacement les informations. C’est le principe de la loi de Hick : le temps qu’il faut à un utilisateur pour prendre une décision augmente en fonction du nombre de choix à sa disposition.

Une étude réalisée par Gary W.Small et ses co-auteurs s’est intéressée aux modifications cérébrales associées à l’usage d’internet. L’objectif était de comparer les zones cérébrales activées chez des utilisateurs experts et novices d’internet, en leur demandant d’effectuer des activités de lecture ou de recherche d’information.

Les données issues de l’imagerie cérébrale montrent que lors de la lecture de texte, les zones cérébrales activées (contrôlant le langage, la mémoire et la vision) sont similaires quel que soit le niveau d’expertise Internet. Par contre, lors de la recherche d’information, des zones supplémentaires sont activées chez les experts : celles des régions contrôlant la prise de décision et le raisonnement complexe.

Comparer les zones cérébrales activées chez des utilisateurs experts et novices d’internet, d’après l’étude de Small et coll., 2009. Fourni par l'auteur

En conclusion, si l’utilisation des outils numériques présente des avantages indéniables, des améliorations ergonomiques semblent nécessaires pour optimiser les supports de lecture et les rendre plus compatibles avec les aptitudes cognitives des lecteurs. À titre d’exemple, les filtres anti-lumière bleue, supposés diminuer les effets de fatigue associés à l’utilisation des écrans, ont une efficacité contrastée. Nul doute que les recherches, nombreuses, sur une technologie en évolution rapide, nous apporteront ces prochaines années de nouvelles données sur l’influence des écrans sur notre capacité de lecture.The Conversation

Xavier Aparicio, Maître de conférences HDR en psychologie cognitive, Université Paris-Est Créteil Val de Marne (UPEC) et Ugo Ballenghein, Maître de conférences en psychologie cognitive, Université Paris-Est Créteil Val de Marne (UPEC)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.