Accéder au contenu principal

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Par  Laurence Corroy , Université de Lorraine Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles. Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques. Dans le cadre de l’étude Sexteens , menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries on...

Mémoire, attention : est-il plus difficile de lire sur écran ?

 

kindle

Par Xavier Aparicio, Université Paris-Est Créteil Val de Marne (UPEC) et Ugo Ballenghein, Université Paris-Est Créteil Val de Marne (UPEC)

Du papyrus au papier, en passant par le parchemin et en arrivant aujourd’hui aux écrans, les supports de lecture ont évolué au fil des époques et continuent à se diversifier dans une société qui se digitalise toujours plus. Des smartphones aux tablettes ou aux liseuses, l’écrit est au cœur de nos activités quotidiennes et nos habitudes de lecture évoluent.

Les évolutions rapides de ces outils numériques invitent à s’interroger sur la manière dont on apprend à lire aujourd’hui et à se demander si l’utilisation de nouveaux supports modifie notre capacité de compréhension, qui peut se définir comme l’activité par laquelle les individus vont acquérir et utiliser des connaissances. Complexe et dynamique, elle fait intervenir différentes sources d’informations.

Les mécanismes de la compréhension de texte

Comprendre suppose d’élaborer une représentation basée sur une interprétation des informations textuelles mise en relation avec nos connaissances antérieures. Le modèle de compréhension de texte de Kintsch & van Dijk formalise trois niveaux de représentation :

  • le premier, niveau de surface, correspond à notre capacité à nous rappeler d’un mot lu dans le texte, sans que le sens ne soit pris en compte ;

  • le deuxième niveau correspond à l’intégration du sens des phrases de façon indépendante ;

  • enfin, le troisième niveau, appelé le modèle de situation, rend compte de la capacité du lecteur à élaborer une représentation qui est le produit de l’interaction entre ce qu’il lit et ses connaissances antérieures. C’est la capacité à produire des inférences.

Prenons un exemple pour comprendre ce que sont ces inférences. Imaginez que vous deviez répondre à la question « Où Anaïs et Julien se trouvent-ils ? » dans le texte qui suit : « Samedi, Anaïs et Julien ont vu des lions et des tigres ». La première inférence qui émerge à la lecture de cette phrase grâce à nos connaissances est très probablement le zoo. Ajoutons maintenant la phrase « Puis le clown les a beaucoup fait rire ». L’inférence produite suite à la lecture de la phrase initiale doit être inhibée, au profit d’une nouvelle inférence situant nos deux protagonistes probablement au cirque. Concluons à présent le texte avec la phrase « Maman leur a alors demandé d’éteindre la télévision pour aller se coucher ». Là encore, une nouvelle inférence est mise en place : ils étaient chez eux depuis le début.

Comprendre suppose donc la mise en place de différents traitements cognitifs en parallèle : mémoire, flexibilité mentale, mise à jour des informations, inhibition.

La fatigue du « scrolling »

D’une manière générale, nous pouvons intuitivement considérer que lire sur écran ou sur papier ne modifie pas notre capacité à comprendre un texte : indépendamment du support, il s’agit toujours de décoder des signes graphiques pour leur attribuer une signification. Toutefois, la lecture sur écran suppose de prendre en considération les caractéristiques ergonomiques des supports de lecture (taille, luminosité, contraste, etc.) et les caractéristiques du lecteur.

Une récente méta-analyse qui propose la compilation des résultats de 44 études menées auprès de plus de 170 000 participants portant sur les effets du numérique sur la lecture nous indique que, globalement, la compréhension est négativement impactée par la lecture sur support numérique comparé à la lecture sur papier. Les études ne permettent pas d’identifier de différence entre les deux supports en termes de compréhension dans le cas où on consulte des textes en pleine page (sans faire défiler le texte).

En effet, lorsque nous lisons sur écran, nous utilisons un procédé de « scrolling » qui consiste à faire défiler verticalement le texte, ce qui n’est pas sans conséquence sur notre capacité à comprendre les informations lues. Il est très difficile de retrouver une information, un mot ou une phrase, après avoir fait défiler le texte : les mots n’apparaissent plus à la même place alors que, sur papier, leur position spatiale ne change pas. Le « scrolling » perturbe le fonctionnement de notre mémoire spatiale. Le repérage de la position des mots dans le texte (codage spatial des mots) est notamment utile pour revenir rapidement sur les mots du texte, processus indispensable pour la compréhension.

D’autre part, le rétroéclairage des écrans sur lesquels nous lisons, qui implique la projection d’une source lumineuse vers l’utilisateur, n’est pas sans conséquence sur notre capacité à lire les informations. Plusieurs études ont mis en évidence son effet néfaste sur la lecture.

La capacité de prise d’information visuelle est réduite sur écran et nécessite davantage de fixations oculaires lors de lecture des textes. Il en résulte une fatigue visuelle accrue, associée à différents symptômes (maux de tête, migraines chroniques, etc.), notamment lorsque l’activité de lecture est prolongée ou effectuée sur des interfaces de mauvaise qualité (avec un mauvais contraste entre fond et couleur, des interlignes réduits renforçant l’encombrement visuel). Ces effets délétères ne sont pas répertoriés sur les liseuses, qui ne sont pas rétroéclairées mais disposent d’une encre électronique.

Sur Internet, une lecture superficielle ?

Pour le lecteur adulte, la lecture est une activité automatique et rapide car l’apprentissage systématique de la correspondance entre les graphèmes (lettres, groupes de lettres) et les phonèmes (sons) et le développement du lexique mental permettent notamment de libérer des ressources cognitives nécessaires à la mise en place du processus de compréhension. Notre vitesse de lecture varie en fonction de l’objectif de lecture que nous nous sommes fixé.

D’après les travaux de Thierry Baccino. Fourni par l'auteur

Lorsque l’on navigue sur des pages web, notre lisons des pages riches en informations, véhiculant des messages parfois très courts et dynamiques destinés à être plus accessibles en termes de quantité de contenu et donc de rapidité de lecture. Cela donne un côté superficiel à la lecture, qui devient un écrémage.

Cette lecture superficielle correspond davantage à une recherche d’information qu’à une lecture approfondie visant à comprendre un concept par exemple. L’attention est notamment perturbée par la présence de fenêtres multiples, l’apparition de notifications, la présence de liens hypertextes qui vont nous permettre de naviguer mais vont aussi contribuer à nous désorienter face au flux conséquent d’informations présentes.

Une grande quantité d’informations accessibles ne facilite pas l’extraction des informations nécessaires à la prise de décision, et peut même conduire à une surcharge cognitive conduisant le lecteur à ne plus être capable de traiter efficacement les informations. C’est le principe de la loi de Hick : le temps qu’il faut à un utilisateur pour prendre une décision augmente en fonction du nombre de choix à sa disposition.

Une étude réalisée par Gary W.Small et ses co-auteurs s’est intéressée aux modifications cérébrales associées à l’usage d’internet. L’objectif était de comparer les zones cérébrales activées chez des utilisateurs experts et novices d’internet, en leur demandant d’effectuer des activités de lecture ou de recherche d’information.

Les données issues de l’imagerie cérébrale montrent que lors de la lecture de texte, les zones cérébrales activées (contrôlant le langage, la mémoire et la vision) sont similaires quel que soit le niveau d’expertise Internet. Par contre, lors de la recherche d’information, des zones supplémentaires sont activées chez les experts : celles des régions contrôlant la prise de décision et le raisonnement complexe.

Comparer les zones cérébrales activées chez des utilisateurs experts et novices d’internet, d’après l’étude de Small et coll., 2009. Fourni par l'auteur

En conclusion, si l’utilisation des outils numériques présente des avantages indéniables, des améliorations ergonomiques semblent nécessaires pour optimiser les supports de lecture et les rendre plus compatibles avec les aptitudes cognitives des lecteurs. À titre d’exemple, les filtres anti-lumière bleue, supposés diminuer les effets de fatigue associés à l’utilisation des écrans, ont une efficacité contrastée. Nul doute que les recherches, nombreuses, sur une technologie en évolution rapide, nous apporteront ces prochaines années de nouvelles données sur l’influence des écrans sur notre capacité de lecture.The Conversation

Xavier Aparicio, Maître de conférences HDR en psychologie cognitive, Université Paris-Est Créteil Val de Marne (UPEC) et Ugo Ballenghein, Maître de conférences en psychologie cognitive, Université Paris-Est Créteil Val de Marne (UPEC)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...