Accéder au contenu principal

Web immersif : et si nous ressentions Internet ?

Par  Ahmed Azough , Pôle Léonard de Vinci Si, aujourd’hui, nous sommes habitués à surfer sur Internet, partie émergée d’un énorme iceberg de données interconnectées, les évolutions technologiques récentes devraient bientôt nous permettre de nous immerger dans cet océan bouillonnant de big data. L’immersion vise à procurer à l’utilisateur un sentiment de présence en utilisant des technologies de captation et restitution sensorielle : l’utilisateur se sent transporté dans l’environnement digital créé par des technologies numériques, à tel point qu’ il ressent ces objets numériques virtuels comme faisant partie de sa réalité . De leur côté, les systèmes numériques détectent et interprètent de mieux en mieux les comportements et les émotions de leurs interlocuteurs , à tel point que l’humain a l’impression que ce système est conscient de sa présence et interagit volontairement. Les films Matrix et plus récemment Ready Player One reflètent bien cette idée : s’interposer entre

Internet et la mémoire du futur



« A bientot : le Musee de l'avenir », Baker, Nevada. Leighton Walter Kille/TCF, CC BY-ND
Par Francis Eustache, Institut national de la santé et de la recherche médicale (Inserm)


Internet nous ferait-il perdre la tête ? Notre fonctionnement neurocognitif et, partant, nos comportements et nos pratiques sociales, est grandement impacté par les nouvelles technologies de l’information et de la communication. Un exemple parmi de nombreux autres : La perte de concentration résultant des sollicitations incessantes de nos téléphones portables et connectés, à grand renfort d’alertes, sonneries, émoticons, images animées… Quant aux conséquences sur la structure et le fonctionnement du cerveau, les travaux publiés sont moins consensuels. Pourtant, une réduction de l’épaisseur corticale dans les régions frontales a été montrée chez des enfants de 10/12 ans qui passaient 8 à 10 heures par jour devant des écrans.
Je souhaite ici traiter des conséquences que peut avoir l’usage de ces nouvelles technologies sur la mémoire en m’appuyant sur des publications récentes : The « online brain » : how the Internet may be changing our cognition un article de synthèse paru dans Word Psychiatry ; ainsi que deux ouvrages dont j’ai coordonné la publication. Avec mes collègues, nous insistons sur une composante de la mémoire, appelée « mémoire du futur », ou pensée épisodique future, qui nous permet de nous projeter dans le futur et contribue à notre créativité et à nos prises de décisions.
Pour commencer, soulignons qu’il est difficile d’étudier les effets des technologies numériques sur les cerveaux car les études qui en mesurent l’impact sur le fonctionnement neurocognitif et mnésique sont encore peu nombreuses. Il est en particulier compliqué d’examiner les choses à grande échelle en faisant des comparaisons de populations, puisque les groupes qui échappent à l’emprise d’Internet sont extrêmement peu nombreux dans le monde.
Et pourtant, l’état de nos cerveaux au regard de l’utilisation effrénée de ces nouvelles technologies peut être discuté à travers ce que l’on connaît des contraintes du fonctionnement cognitif. On sait bien, par exemple, qu’une attention soutenue est nécessaire pour de nombreux apprentissages ; et que les situations de tâches multiples ont un effet délétère sur la qualité de l’encodage en mémoire.

Internet et les écrans

Sur un plan psychophysique, l’usage intempestif des écrans peut nuire à la rétine chez les enfants, plus particulièrement chez les tous petits. L’exposition à leur lumière bleue provoque une chaîne de réactions biochimiques qui conduisent à la création de molécules toxiques dans les cellules photo-réceptrices de la rétine. De plus, l’utilisation des écrans en soirée, via la lumière bleue, réduit la quantité de sommeil mais aussi sa qualité et, in fine, perturbe la consolidation en mémoire, dépendante de l’activité des différents cycles du sommeil. Un écran n’est pas, en soi, un dispositif dangereux mais son temps d’utilisation doit être adapté en tenant compte de l’âge de l’utilisateur, tout particulièrement chez les plus petits.
Il s’agit aussi d’atteintes des fonctions cognitives et des capacités à interagir avec autrui. Ainsi, la Société canadienne de pédiatrie recommande d’éviter tout écran avant deux ans et de ne pas dépasser une heure par jour entre deux et cinq ans, temps d’utilisation qui sont pourtant largement dépassés dans ce pays. En France, l’Académie des sciences estime que, chez les enfants âgés de 6 à 12 ans, l’école élémentaire est le meilleur lieu pour engager l’éducation systématique aux écrans. Une éducation précoce de l’enfant à l’autorégulation est essentielle.

Kelly Sikkema /Unsplash. Photo by Kelly Sikkema on Unsplash

Au-delà de 12 ans, chez l’adolescent, les outils numériques possèdent une puissance inédite pour mettre le cerveau en mode hypothético-déductif, ce qui est positif pour l’exploration de solutions. En revanche, une consultation excessive d’Internet peut créer une pensée « zapping », rapide et superficielle, appauvrissant la mémoire et les capacités de synthèse personnelle. Or, chez les pré-adolescents et les adolescents, le temps réellement passé devant les écrans est difficile à évaluer.
Ces usages disproportionnés pourraient faciliter la survenue de troubles neurodéveloppementaux chez l’enfant, tout particulièrement de type attentionnel, dont la prévalence est en forte augmentation. Mais il y a aussi des effets indirects. La mauvaise alimentation, le surpoids, l’obésité en constituent quelques exemples. On parle d’« effet de déplacement » pour signifier que le temps occupé devant les écrans se substitue à d’autres activités : lire, courir, échanger, imaginer… Des chercheurs ont émis l’hypothèse que cette utilisation intempestive aurait une part de responsabilité dans l’incidence accrue des retards de langage et autres troubles neurodéveloppementaux, voire de la réduction de l’épaisseur corticale constatée chez des enfants d’une douzaine d’années passant huit heures par jour devant les écrans.

Samuel Zeller /Unsplash. Photo by Samuel Zeller on Unsplash

L’un des problèmes posés par ces nouveaux dispositifs de communication est la rupture de l’équilibre entre mémoire interne et mémoire externe. La mémoire interne, c’est celle de l’individu. La mémoire externe, artificielle, se développe via différents outils, comme l’écriture, l’imprimerie, l’audio, la vidéo, le numérique. Le concept de disruption renvoie à cette accélération de la place des outils techniques, à leur omniprésence, notamment des outils numériques, évolution rapide et massive que ne peuvent plus absorber les psychologies individuelles et les organisations sociales.
Cela crée l’impression d’un temps qui s’accélère, d’une difficulté à le maîtriser, à hiérarchiser les priorités, un sentiment d’être sans cesse dans l’urgence sans traiter les informations en profondeur et sans pouvoir ainsi les synthétiser, les assimiler.

Mode par défaut

Découvert par l’imagerie cérébrale, le réseau cérébral du mode par défaut s’active quand nous ne sommes pas en prise directe avec notre environnement, mais que nous nous tournons au contraire vers nos pensées internes : mémoire autobiographique, anticipation du futur, scénarios imaginés plus ou moins plausibles, mais aussi pensées créatives et fantasmagoriques. Il implique la synchronisation de différentes structures situées dans les régions médianes du cerveau. Ce réseau est important pour notre équilibre psychique et émotionnel ainsi que pour la cohérence de la mémoire. Il autorise la possibilité d’un voyage mental : vers le passé, vers le futur, vers autrui.
Le mode par défaut ne fonctionne pas seul mais interagit de façon dynamique avec d’autres réseaux cérébraux. Ainsi, son interaction avec celui chargé du contrôle exécutif, situé dans les régions antérieures du cerveau, est importante dans des moments de créativité ou dans des situations de choix stratégiques qui impliquent de tester de nouvelles hypothèses. Des travaux de neuro-imagerie suggèrent que la projection dans le futur est sous-tendue par le réseau du mode par défaut, en interaction avec d’autres réseaux cérébraux.
Or, ce réseau est de plus en plus malmené, notamment chez les enfants et les adolescents, du fait du contexte qui entoure l’utilisation des nouvelles technologies. Ce sont elles qui occupent la place, d’abord avec notre complicité, puis à nos dépens car nous ne faisons pas le poids face à ces outils hyperconnectés, dotés d’unités centrales de plus en plus puissantes. Un encadrement éthique est nécessaire pour réguler l’usage et les contenus des « mémoires externes », si l’on veut préserver les « mémoires internes ». Et donc les mémoires du futur des jeunes générations.

Protégeons la mémoire du futur

Il ne s’agit pas de sombrer dans le catastrophisme et le passéisme mais d’insister sur le fait que le progrès doit être mis à disposition de tous, notamment des plus fragiles. Il ne doit pas être réservé à une « élite » qui en tire des bénéfices à grande échelle en uniformisant et en manipulant les citoyens du monde. La mémoire des humains n’est pas seulement faite de passé. Composante essentielle mais mal connue, la mémoire du futur nous permet de nous projeter, d’anticiper, de prendre des décisions. Elle constitue le vecteur de notre libre arbitre. Il faut la protéger.The Conversation

Francis Eustache, Directeur de l'unité Neuropsychologie et neuroanatomie fonctionnelle de la mémoire humaine, Inserm, Ecole Pratique des Hautes Etudes, Université de Caen Normandie, Institut national de la santé et de la recherche médicale (Inserm)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Univers parallèles et mondes virtuels : la guerre des métavers est commencée

  Une partie de poker dans le métavers (capture d'écran de la vidéo “Le métavers et comment nous allons le construire ensemble” sur YouTube) Par  Oihab Allal-Chérif , Neoma Business School Le 17 octobre 2021, Mark Zuckerberg a lancé les hostilités de manière assez théâtrale, comme s’il défiait ses concurrents d’en faire autant. Afin de concrétiser son rêve d’enfant, le métavers, il a décidé de mettre en œuvre des moyens colossaux : 10 000 ingénieurs hautement qualifiés seront recrutés en Europe dans les 5 prochaines années. Cette annonce a été faite quelques jours avant celle du changement de nom du groupe Facebook en Meta , le 28 octobre, démontrant ainsi l’engagement total du fournisseur de réseaux sociaux dans la transition vers le métavers. Le 22 juillet 2021, dans une interview à The Verge , le créateur de Facebook racontait : « Je pense à certains de ces trucs depuis le collège quand je commençais tout juste à coder. […] J’écrivais du code

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin des cookies tiers ne répond pas au besoin de contrôle des internautes sur leurs données

Pour le moment, la plupart des solutions alternatives aux cookies privilégient l’objectif commercial aux dépens des attentes des internautes. Piqsels , CC BY-SA Par  Carlos Raúl Sánchez Sánchez , Montpellier Business School – UGEI ; Audrey Portes , Montpellier Business School – UGEI et Steffie Gallin , Montpellier Business School – UGEI Les révélations du Wall Street Journal contenues dans les « Facebook Files » , publiés en septembre dernier, ont une nouvelle fois montré que les utilisateurs s’exposaient à des risques liés à la divulgation des informations personnelles. Les réseaux sociaux ne sont pas les seuls en cause : les nombreux data breach (incidents de sécurité en termes de données confidentielles) rendus publics, illustrent régulièrement la vulnérabilité des individus face à une navigation quotidienne sur les moteurs de recherche, sites de e-commerce et autres ayant recours à des « cookies tiers » , ces fichiers de données envoyés par

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor

Décryptage de l'attaque par ransomware du Centre Hospitalier de Versailles

  Par Cassie Leroux, Directrice Produit chez Mailinblack Après l’hôpital de Corbeilles Essonnes, c’est au tour de l'établissement hospitalier de Versailles, situé au Chesnay-Rocquencourt (Yvelines), d’être visé depuis samedi soir par une cyberattaque. Comment s’est-elle déroulée, quelles conséquences pour ses patients, et aurait-elle pû être évitée ? Décryptage de Cassie Leroux, Directrice Produit chez Mailinblack. Que savons-nous de cette attaque ? Cette cyberattaque vise l’ensemble de l'établissement, dont l'hôpital André-Mignot, la maison de retraite Despagne et l'hôpital Richaud à Versailles. L’hôpital continue de fonctionner, mais au ralenti ce lundi, ce qui perturbe sérieusement son activité. Le parquet de Paris a ouvert une enquête préliminaire pour tentative d'extorsion.  Cette cyberattaque est de type Ransomware, un logiciel malveillant qui bloque l’accès à aux outils informatiques et aux données en les chiffrant. Dans ce type d’attaque, le hacker demande g