Accéder au contenu principal

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Par  Laurence Corroy , Université de Lorraine Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles. Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques. Dans le cadre de l’étude Sexteens , menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries on...

La réalité physique du monde numérique

Le Magasin Vauban, un vieil entrepôt au port de Strasbourg, réaménagé en centre de données. Michael Kauffmann, Wikipédia, CC BY
Par Michel Robert, Université de Montpellier

Umberto Eco décrit dans son roman Le nom de la rose l’organisation, la conservation des données et l’accès au savoir, il y a sept siècles dans la bibliothèque d’une abbaye, qui finira par brûler, détruisant ainsi le travail des moines copistes, premiers artisans de la redondance avant l’invention de l’imprimerie puis de l’informatique.

Ce type d’événement s’est reproduit au travers des époques avec à chaque fois des pertes de connaissances. L’épisode le plus récent dans notre époque de dématérialisation, est l’incendie spectaculaire à Strasbourg le 10 mars 2021 d’un « data center » – c’est-à-dire d’un centre de stockage et de traitement de données – qui a eu des conséquences importantes pour les utilisateurs. Cet incident est révélateur de la fragilité des infrastructures numériques (ordinateurs, serveurs, racks de stockage, réseaux de communications, alimentations électriques, climatisation…), qui amène à des pertes de données parfois irréversibles, et des services interrompus (systèmes d’information, applications informatiques, messageries, sites Web…).

Un tel accident industriel nous interpelle en fait sur la réalité physique du monde numérique. Celui-ci s’est construit depuis une quarantaine d’années autour de machines informatiques concentrées dans des réseaux de data centers qui constituent le nuage numérique ou « cloud ». Ce « nuage », d’apparence immatérielle, repose en fait sur des infrastructures distribuées et interconnectées à l’échelle de la planète. On recense à ce jour près de 5 000 data centers dédiés ou mutualisés répartis dans 127 pays dans le monde, certains pouvant héberger des dizaines de milliers de serveurs.

L’histoire de l’informatique est faite d’alternances du local au global entre des infrastructures centralisées et distribuées : centralisées au siècle dernier autour d’un ordinateur unique, puis distribuées avec l’avènement de l’informatique nomade (PC, tablettes, smartphones, objets connectés…), puis mixte de nos jours avec des services de plus en plus externalisés vers des sociétés spécialisées (GAFAM par exemple) pour sauvegarder et traiter des données, ou communiquer au travers des réseaux sociaux, ou dans le télétravail par visioconférences et documents partagés.

Comment stocke-t-on des données de manière sécurisée aujourd’hui ?

Si on regarde l’usage individuel, il y a 30 ans les données étaient stockées sur des disquettes de capacité de 1 méga-octet (106 octets) puis des CD, des clés USB… Aujourd’hui un disque dur magnétique personnel de 1 téra-octet (1012 octets, soit mille milliards) – qui a la taille d’un smartphone – représente l’équivalent d’un million de disquettes pour un coût de quelques dizaines d’euros. La sauvegarde des données de manière pérenne est une évidence depuis les débuts de l’informatique, avec au départ des matériels et des logiciels peu fiables.

Aujourd’hui, l’heure est à l’explosion des données liées à nos usages, par exemple la sauvegarde instantanée dans le cloud de photos et vidéos saisies sur un smartphone. L’heure est aussi à toutes les formes actuelles connues de piratage, et de cybercriminalité. Sauvegarder ses données nécessite des précautions, par exemple dans des lieux de stockage sûrs.

Au niveau professionnel, beaucoup d’usagers et de sociétés n’ont pas les moyens de disposer d’une infrastructure informatique autonome et robuste, compte tenu des coûts d’acquisition, de maintenance, de sécurisation, de mise à jour, et des ressources humaines associées. Ils font donc appel à des sociétés spécialisées qui vendent leur maîtrise de la sécurisation des données, que ce soit en termes de confidentialité, de protection de savoir-faire ou de vie privée. Notons aussi que les enjeux de souveraineté des États dans l’accès aux données sont cruciaux. La distribution des données et de leurs traitements à l’échelle de la planète – et un jour de l’espace avec des grappes de satellites établissant les communications entre serveurs – offre de nombreux avantages sous réserve d’une bonne compréhension des limites physiques des infrastructures utilisées, notamment en cas d’accident.

Un regard critique sur les offres actuelles est donc indispensable : où sont stockées mes données ? Comment sont-elles protégées, sécurisées et sauvegardées ? Quelle empreinte carbone pour mes usages numériques ?

Quels coûts pour cette virtualisation de nos systèmes informatiques ?

Certains opérateurs offrent des services clés en main répondant à ces exigences. D’autres offrent à des coûts moindres des possibilités d’accès à des machines, en laissant aux clients la responsabilité de leurs choix, par exemple dans la gestion des sauvegardes – les contrats entre les parties régissent les détails de ces usages. La notion de qualité de service est donc essentielle.

Une bonne communication sur les technologies utilisées et leurs limites parfois insaisissables pour les usagers est indispensable : quels sont les niveaux de protection de mes données dans le contrat souscrit ? À quelle fréquence se font les sauvegardes, et comment ? La CNIL rappelle en particulier les obligations en matière de notification, en cas d’indisponibilité ou dans le pire cas de destruction de données personnelles déposées dans un data center.

Le data center de l’agence Reuteurs, à Londres, en 2005. Adrian Pingstone/Wikipedia

La réalité physique du monde numérique pose aussi la question des ressources énergétiques nécessaires à ces infrastructures et à nos usages les plus voraces en énergie (vidéos en streaming, gestion de la monnaie virtuelle, les bitcoins). L’empreinte environnementale de nos périphériques numériques connectés et des infrastructures de communications, calcul et stockage ne peut être ignorée : la part globale du « numérique » dans les émissions de gaz à effet de serre augmente chaque année et dépassera bientôt les 5 %, avec une consommation en énergie de 2000 térawatts-heures soit 10 % de la demande mondiale d’électricité.

Des solutions techniques

Des solutions scientifiques et technologiques émergent pour fiabiliser et accompagner les transitions numériques et énergétiques qui sont indissociables.

Cela pourrait par exemple conduire à des « circuits courts numériques » de fiabilisation et de sauvegarde, associés à chaque data center et valorisant des générations de machines informatiques plus anciennes fonctionnant exclusivement avec des énergies vertes. Ces machines pourraient être distribuées à l’échelle d’une région, ce qui limiterait l’impact d’un accident industriel sur un site donné, en jouant sur la redondance des machines pour assurer des sauvegardes.

En effet, un service basé sur une redondance de ressources informatiques est en cas d’accident toujours bien meilleur qu’une perte irréversible de données numériques, que ce soit pour des usages privés ou professionnels. Pour beaucoup d’applications ne nécessitant pas de calculs hautes performances, ou pour la gestion locale des données et des services offerts aux usagers à l’échelle d’un territoire ou d’une ville intelligente, il est envisageable de coupler en « circuit court numérique » la production et le stockage des données avec les énergies vertes, que ce soit en termes de récupération de chaleur ou de production d’électricité d’origine renouvelable.The Conversation

Michel Robert, Professeur des Universités, Université de Montpellier

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...