Accéder au contenu principal

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Par  Laurence Corroy , Université de Lorraine Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles. Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques. Dans le cadre de l’étude Sexteens , menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries on...

Avant l’IA, les « révolutions » informatiques ont-elles vraiment bouleversé la recherche en économie ?

 

Le EDSAC, un des premiers modèles d'ordinateur installé au département d'économie appliquée de l'université de Cambridge. Wikimedia, CC BY
Par Francesco Sergi, Université Paris-Est Créteil Val de Marne (UPEC) et Pierrick Dechaux, Université Paris 1 Panthéon-Sorbonne

L’IA aurait, aux dires de prestigieuses revues, le « potentiel pour révolutionner la recherche » en économie. Mais qu’en a-t-il été de précédentes innovations informatiques pareillement présentées ?


Pouvez-vous nommer un métier qui, aujourd’hui, ne pourrait pas être réalisé, au moins partiellement, par un robot ou une intelligence artificielle ? Il y a encore peu de temps, la recherche scientifique était un bon candidat. Plus aujourd’hui : dans différents domaines de recherche, les outils d’intelligence artificielle participent à l’écriture des contributions scientifiques, à la création d’hypothèses… des activités que l’on pensait réservées à l’esprit humain.

En sciences économiques, le prestigieux Journal of Economic Literature prévient que les outils comme ChatGPT « ont le potentiel pour révolutionner la recherche ». Si cela paraît évident, encore faut-il souligner l’association du terme potentiel avec une rhétorique de la révolution – car entre les attentes et la réalité se dressent de nombreux obstacles.

Le travail de recherche que nous avons récemment coordonné propose sept « histoires » montrant que les « révolutions informatiques » en sciences économiques se heurtent parfois à des limites techniques inattendues, suscitant la déception – autant au début de l’informatique qu’à l’époque des big data. De même, les outils ne tombent pas du ciel ; ils sont acceptés (ou rejetés), adaptés, disséminés en fonction des stratégies et des choix de recherche, des normes et des valeurs des chercheurs. Ainsi, les « révolutions informatiques » ont pour protagonistes plutôt les chercheurs et leurs institutions que les outils informatiques. D’ailleurs, pour s’approprier ces outils, les économistes ont dû recourir au travail d’autres figures professionnelles (et, en particulier, des programmatrices). Ce besoin a d’ailleurs souvent amené à créer de nouveaux lieux de recherche, à la frontière entre universités et entreprises privées.

Prévisions économiques et premiers ordinateurs : la déception

Au début des années 1950, les économistes du National Bureau of Economic Research (NBER) placent beaucoup d’espoirs dans les premiers ordinateurs électroniques. Depuis le début du XXe siècle, ce think tank new-yorkais avait développé une tradition de collecte de données statistiques, permettant de décrire l’évolution cyclique de l’économie. L’analyse des données était réalisée par un « ordinateur humain », faisant des calculs à la main ou avec l’aide d’une machine à calculer mécanique. En moyenne, il faut une semaine de travail à temps plein à un ordinateur humain pour analyser dix ans de données d’une seule série statistique, établir le nombre de cycles et leur temporalité.

Extraits d’analyses de séries statistiques de 1937 au NBER. Wesley Mitchell et Arthur Burns. Timing at Reference Troughs. Box 51, Manuscript of Bulletin on Cyclical Timing, Arthur F. Burns Papers, Eisenhower Presidential Library

Cette lenteur brime l’ambition du NBER de produire des prévisions économiques tous les mois. Les ordinateurs électroniques pourraient résoudre ce problème – une série statistique serait traitée en quelques minutes ! Mais il n’en sera rien, comme le raconte l’historienne Laetitia Lenel, chercheuse à l’université Humboldt de Berlin : la programmation nécessaire pour utiliser les ordinateurs requiert plus de temps que le calcul à la main ! Plus problématique encore, l’ordinateur ne produit pas de résultats clé en main : ils doivent être réinterprétés par les économistes. L’ordinateur s’avère finalement une déception : il rajoute plus de travail qu’il n’en enlève.

Utiliser un ordinateur : plus facile à dire qu’à faire

Dans les années 1950, rares sont d’ailleurs les économistes qui touchent aux ordinateurs. Cela soulève des questions d’organisation du travail. Chung-Tang Cheng, chercheur à l’université de Taipei, traite de ce thème dans son histoire du Département d’économie appliquée (DAE) de l’Université de Cambridge. Il met en particulier en évidence le rôle des femmes – un thème abordé aussi par le best-seller Les Figures de l’ombre et son adaptation cinématographique.

Au DAE, jusqu’à la moitié des années 1940, la « salle des ordinateurs » joue un rôle fondamental : on y retrouve huit à dix femmes effectuant, avec crayon, papier et calculateur mécanique, les calculs nécessaires au travail des économistes.

Un calculateur mécanique Merchant 10FA de 1948. National Museum of American History

En 1946, l’économiste américain Guy Orcutt arrive à Cambridge, avec, dans ses bagages, une machine de son invention : un calculateur analogique, capable de réaliser en quelques minutes les calculs qui nécessitent des jours de calcul à la main. La machine d’Orcutt préfigure le remplacement des ordinateurs humains, qui s’achèvera au début des années 1950, lorsque le DEA aura accès au premier ordinateur électronique du Royaume-Uni, le EDSAC, pour Electronic Delay Storage Automatic Calculator.

Même avec le EDSAC, les économistes ne sont toutefois pas « autonomes » dans leur travail avec l’ordinateur. Ils dépendent maintenant des programmeurs. Une nouvelle figure deviendra incontournable au DAE : Lucy Slater, qui, pendant vingt ans, s’occupe de programmer la majorité des travaux des économistes du département. Lorsque le directeur du DAE, Richard Stone, recevra le prix Nobel d’économie en 1984, il confiera, en privé, qu’il aurait dû le partager avec Lucy Slater.

Ordinateurs, économistes et milieux des affaires : un nouveau business

Dans les années 1970, les économistes restent des usagers indirects des ordinateurs, dépendant d’autres professionnels, comme l’illustre le cas de Data Resources Inc. (DRI), une grande entreprise de conseil économique fondée en 1969 à Boston par l’économiste Otto Eckstein.

Nous sommes à l’époque des mainframe computers. DRI dispose de trois de ces « méga » ordinateurs, trois Burroughs 5500.

Extrait de la brochure présentant les Burroughs 5500 en 1964. Burroughs Corporation

À DRI, les économistes sont occupés à collecter et analyser des données, à produire des modèles mathématiques et à construire des prévisions. Pedro Duarte (Institut INSPER de Sao Paolo) et Francesco Sergi (Université Paris Est Créteil) documentent comment tout cela se passe loin de l’ordinateur, situé, lui, au sous-sol de l’entreprise et confié à d’autres figures professionnelles. On retrouve des ingénieurs électroniques, affairés au quotidien à entretenir le matériel à coups de fer à souder, des opérateurs informatiques, qui supervisent le fonctionnement du programme et qui s’occupent, tous les soirs, d’effectuer une sauvegarde sur bande magnétique de toutes les données de la journée, et enfin des ingénieurs software (de nouveau, essentiellement des femmes) qui essaient de mettre en place les solutions informatiques adaptées aux besoins des économistes.

Est-ce qu’un bon algorithme suffit à « révolutionner » la recherche en sciences économiques ?

L’histoire du logiciel Dynare montre qu’un « bon » algorithme est nécessaire pour soutenir un programme de recherche. Néanmoins, sa diffusion s’explique par d’autres facteurs.

En 1972, l’économiste américain Robert Lucas propose un nouveau cadre théorique pour la macroéconomie mais qui peine à être opérant. Il faudra attendre 1990 et le travail d’un économiste du Cepremap, Jean-Pierre Laffargue, pour l’élaboration d’un algorithme permettant de résoudre plus facilement des modèles macroéconomiques inspirés des principes de Lucas. Pourtant, le plus gros problème reste celui de la « portabilité » de cet algorithme, c’est-à-dire de sa capacité à circuler, à être saisi et utilisé par d’autres économistes.

Un nouveau venu au laboratoire, Michel Juillard, offre son aide. Juillard se lancera dans la création de Dynare, un logiciel qui permet d’écrire les modèles très simplement, « comme sur papier », dans un fichier texte. Dynare se charge ensuite « du reste ». La combinaison de deux facteurs, un algorithme adressant un problème de tractabilité mathématique, et un morceau de logiciel très « user-friendly », explique le succès de Dynare (aujourd’hui un des logiciels les plus utilisés en sciences économiques) et donc participe du succès de la macroéconomie inspirée des principes proposés par Lucas.

Et pour l’économie expérimentale ?

Les expériences, en sciences économiques, prennent leur envol grâce à la création de laboratoires d’économie expérimentale centrés autour des ordinateurs.

Dans les années 1980, les économistes en charge des tout premiers laboratoires essaieront plusieurs types d’agencements et d’interface informatique : Vernon Smith, à l’Université de l’Arizona, se reposera initialement sur l’usage partagé d’ordinateurs centraux ; Charles Plott, à Caltech (Californie) commencera, quelques années plus tard, directement sur des PC IBM, connectés en Ethernet. L’essor de l’ordinateur personnel fera pencher la balance du côté de la deuxième solution et il sera déterminant pour l’essor de la méthode expérimentale en économie, comme le montre Andrej Svorenčik, chercheur à l’université de Pennsylvanie.

Le recours à l’informatique fait plus que tout simplement « booster » la quantité d’expériences menées dans ces laboratoires ; elle transforme aussi le type d’expériences. Les ordinateurs facilitent notamment l’interaction entre les sujets de l’expérience et, donc, la mise en place d’expériences imitant les interactions de marché. Plus besoin de communiquer aux participants de l’expérience des instructions à l’oral, ou par des feuilles imprimées, et nul besoin non plus de faire circuler, au moyen de petits billets, les informations relatives au comportement des autres participants : tout se passe maintenant via l’écran de l’ordinateur, qui devient la seule interface par laquelle le sujet de l’expérience communique. En particulier, les designs expérimentaux du type « enchère » vont devenir très populaires.

Plus de données, est-ce toujours mieux ?

Comme les trois dernières années d’inflation nous l’ont rappelé, la mesure de l’évolution des prix est un enjeu politique essentiel. Pour mesurer cette évolution, l’idéal est de pouvoir accéder à tous les prix de toutes les marchandises en temps réel. Au début des années 1990, avec la généralisation des code-barres, et avec l’informatisation des caisses enregistreuses, il devient en principe possible d’atteindre cet idéal. Julien Gradoz de l’Université de Lille explique comment cette possibilité peine cependant à s’imposer.

Le premier problème lié à la mobilisation des données de caisse est l’accessibilité de l’infrastructure nécessaire au stockage et au traitement d’une telle masse de données. Même les instituts nationaux de statistiques ne sont aujourd’hui toujours pas équipés pour gérer le volume des données de caisse infiniment supérieur aux données de prix traditionnellement collectées par enquête.

Deuxièmement, certaines opérations de traitement des données nécessitent l’intervention d’un jugement humain. C’est le cas, par exemple, de la classification de chaque produit dans une catégorie plus large (« alimentaires », « habillement »). Si les données de caisse contiennent, certes, l’indication de la nature spécifique de chaque produit, cataloguer chacune de ces observations dans une nomenclature s’avère une tâche qui relève de l’humain.

Enfin, la nature des données de caisse pose un problème sur l’accessibilité, la protection et la confidentialité des données. Non seulement pour le consommateur (les données de caisses peuvent associer les achats avec, par exemple, une carte fidélité), mais surtout pour les entreprises privées, pour lesquels la valeur stratégique de ces données est très forte.

Les « tech economists » : l’économiste du XXIᵉ siècle ?

Et aujourd’hui ? Des économistes chez Facebook, chez Amazon, chez Google et Microsoft ? Oui ! Depuis les années 2000, les entreprises de la tech recrutent en masse parmi cette profession. Le phénomène a pris une telle ampleur qu’un label est apparu : les « tech economists ». Ceux-ci se spécialisent, explique Edward Nik-Khah (chercheur du Roanoke College) dans l’analyse et la conception des mécanismes d’enchère et des comportements de marché : comment concevoir des règles (« market design ») qui permettent, par exemple, une circulation optimale et transparente de l’information.

Ces idées trouvent, depuis les années 2000, une application naturelle notamment dans le secteur des plates-formes, que ce soit pour adjuger un canapé sur eBay ou pour fixer le prix d’un encart publicitaire sur Google. Pour les économistes, en retour, la mise en place de ces dispositifs est un terrain de collecte de données et d’expérimentation grandeur nature qui leur permet de nourrir, en retour, leur recherche.

On retrouve une continuité entre cet épisode et d’autres plus anciens, en particulier le cas DRI : dans les deux cas, l’informatique fait bouger la frontière entre la recherche (universitaire, publique) et le monde des affaires. Avec une contrepartie : les sujets de recherche et les données pour les aborder sont conditionnés par l’agenda des entreprises de la tech…The Conversation

Francesco Sergi, Maître de conférence en sciences économiques, Université Paris-Est Créteil Val de Marne (UPEC) et Pierrick Dechaux, Chercheur en économie, Université Paris 1 Panthéon-Sorbonne

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...