Accéder au contenu principal

L’Arcep et l’ADEME créent l’observatoire des impacts environnementaux du numérique

Dans un contexte où la société française prend de plus en plus conscience de son empreinte numérique, l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (ARCEP) et l'Agence de la transition écologique (ADEME) viennent de franchir un pas décisif. Ces deux institutions ont annoncé ce jeudi 12 décembre la création d'un observatoire des impacts environnementaux du numérique, une initiative qui promet de révolutionner notre compréhension des enjeux écologiques liés aux technologies de l'information. Cette plateforme, fruit d'une collaboration initiée en 2020 à la demande des ministères de la Transition écologique et de l'Économie, vise à devenir une référence incontournable en matière de données fiables sur l'empreinte environnementale du numérique. "L'observatoire a vocation à constituer une plateforme de référence en matière de données fiables et sourcées sur les impacts environnementaux du numériqu...

Les traducteurs doivent-ils redouter la concurrence de l’intelligence artificielle ?

File 20190317 28505 i6dyba.png?ixlib=rb 1.1
Portrait du traducteur, Laurent de Premierfait, de l'ouvrage, Des Cas des nobles hommes et femmes, de Jehan Bocace. Vers 1495. Wikipédia, CC BY-SA
Par Dimitri Garncarzyk, Université Sorbonne Nouvelle, Paris 3 – USPC


À la fin de l’année dernière, le programme DeepL a, grâce à l’intelligence artificielle (IA) et à l’apprentissage profond (deep learning), traduit en une douzaine d’heures seulement un ouvrage de théorie informatique de 800 pages.
S’il est légitime de s’interroger à cette occasion sur la possible concurrence entre l’homme et la machine sur le marché du travail intellectuel (comme on l’a déjà fait dans d’autres secteurs d’activité), le discours médiatique est très vite emphatique dès qu’il s’agit de relayer les avancées de l’IA. En l’occurrence, on a pu parler d’une « grosse râclée », expression qui préfère souligner la menace plutôt que l’exploit technologique, comme s’il était plus important de souligner la concurrence entre les traducteurs humains d’un côté et les concepteurs du programme de l’autre que de suggérer que l’humanité pourrait marquer là un point collectif.
Ailleurs, sous le titre « Traduction automatique, robots écrivains… voilà la littérature du futur ! » s’imagine un futur de plus en plus proche où, les humains étant dépossédés de leur créativité, l’otium studiosum propice à la traduction de la poésie ou à l’écriture des romans céderait sa place au désœuvrement et à la consommation passive des chefs-d’œuvre des IA. Et inversement, l’appel à la sobriété des spécialistes de l’IA eux-mêmes semble être devenu un genre en soi.
Les universitaires spécialistes des littératures étrangères sont, entre autres, des traducteurs. Nous avons dans notre cursus été formés à la traduction littéraire (à côté, et c’est important, d’autres pratiques, comme l’histoire culturelle ou le commentaire de texte) ; nous enseignons d’une manière ou d’une autre la traduction, nous publions des traductions sous une forme ou une autre, et c’est une activité que nous pratiquons aussi pour le plaisir.
Mais si nous sommes des professionnels de l’écrit, nous ne sommes pas, pour la plupart, des spécialistes de la traduction automatique. Une partie de l’inconfort lié à l’IA vient sans doute de cette relation asymétrique : le robot s’invite dans le champ de compétence d’experts humains et semble y exceller, alors que les experts humains du domaine concerné se sentent, eux, souvent incompétents pour parler du robot. Dans ce cas, l’IA est pour eux une boîte noire.
C’est cette relation ambiguë entre le traducteur et l’IA traductive que je voudrais explorer ici.

Trois raisons de s’inquiéter

Le traducteur littéraire est un professionnel de l’écrit parmi d’autres, et un bon point de départ pour comprendre de quoi les professionnels de l’écrit ont peur est l’article du Guardian, paru en février dernier, où Hannah Jane Parkinson décrit le frisson qui l’a saisie quand le logiciel expérimental GPT2 a composé un article de presse complet sur la base d’un paragraphe qu’elle avait écrit. Sa première réaction est ainsi :
(a) it turns out I am not the unique genius we all assumed me to be ; an actual machine can replicate my tone to a T ; (b) does anyone have any job openings ?
(a) Il semblerait que je ne sois pas, contrairement à ce que nous croyions tous, un génie unique : une simple machine peut reproduire mon style à la lettre ; (b) est-ce que quelqu’un recrute ?
  • Le point (a) décrit une blessure narcissique : alors qu’on admet traditionnellement que la créativité stylistique (le ton, le style) définissent des individualités littéraires, la machine (qui n’a a priori pas de personnalité) peut émuler assez facilement ce genre de qualités ; on retrouve là la crainte du « chômage créatif » exprimée dans l’article de Marianne cité plus haut.
  • Le point (b) évoque un chômage beaucoup plus littéral : les performances impressionnantes du robot-écrivain en font un candidat viable pour remplacer un certain nombre d’acteurs humains du secteur de l’écrit – journalistes, traducteurs ou écrivains.
  • Il existe, sur le cas de GPT2, un troisième problème (c), auquel H.J. Parkinson consacre la seconde moitié de son article : celui des fake news, puisque l’IA forge complètement ses citations et ses analyses. GPT2 sait écrire en anglais non seulement correctement, mais en reproduisant des habitudes stylistiques, ce qui est une des compétences de la journaliste ; en revanche, GPT2 ne sait pas vérifier ses sources et n’a pas de déontologie, ce qui sont d’autres compétences de la journaliste.
Pour résumer : l’activité de la journaliste met en œuvre un ensemble de compétences à des niveaux divers (linguistique, stylistique, cognitif, éthique), et l’IA est (très) performante sur un certaines d’entre elles (mais pas toutes) ; d’où la crainte, en partie justifiée, d’une concurrence créative et économique.

La concurrence économique de l’IA

La dimension économique de la concurrence de l’IA au travail humain est l’un des problèmes les plus immédiats et les plus sérieux ; c’est sur celui-ci que Sylvie Vandaele, professeur de traduction scientifique à l’Université de Montréal, conclut son analyse du phénomène.
L’inquiétude de S. Vandaele vient moins de la prise en main de la traduction-machine par le traducteur humain que de la dévaluation, en terme de reconnaissance professionnelle et financière, de sa compétence. C’est un cas particulier des conséquences économiques indésirables des progrès de l’IA que Kai-Fu Lee, par exemple, envisageait à l’échelle mondiale en 2017. En somme, la menace économique est la plus immédiate parce que la décision de remplacer le travail humain par le travail automatique peut être prise à court terme.
Sylvie Vandaele souligne aussi que le remplacement économique des traducteurs humains par les machines procéderait, entre autres, d’une incompréhension de la « complexité » de la traduction, c’est-à-dire de ce que représente l’expertise traductologique : en d’autres termes, la décision de remplacer précipitamment le travail humain par le travail machine négligerait certains facteurs, comme la compétence généralisée des travailleurs humains.

Blessure narcissique et généralisation abusive

Parce que les IA qui composent des textes (ou les traduisent) atteignent très rapidement des résultats coûteux (en temps et en effort cognitif) pour l’homme, on a spontanément tendance à les considérer comme des rivaux en termes de créativité linguistique. Il y a cependant, à en croire certains spécialistes de l’IA, de sérieuses raisons de considérer qu’il s’agit là d’une généralisation abusive.
Cette généralisation repose sur le malentendu de la boîte noire. Impressionnés par les résultats fulgurants de l’IA, nous lui prêtons les capacités qu’il faudrait à un humain pour atteindre les mêmes résultats avec la même efficacité. Ce faisant, nous négligeons que l’IA fonctionne d’une manière très différente de la cognition humaine, et que nous ne pouvons pas prêter aux machines nos propres processus mentaux : il faut donc ouvrir la boîte noire.
Rodney Brooks oppose ainsi l’expérience humaine du frisbee à ce que peut en dire une machine qui génère automatiquement des légendes pour des photographies (il commente les résultats présentés par cet article) :
« Supposons qu’une personne nous dise que telle photo représente des gens en train de jouer au frisbee dans un parc. Nous supposons spontanément que cette personne peut répondre à des questions comme “Quelle forme a un frisbee ?”, “À quelle distance en gros peut-on lancer un frisbee ?”, “Peut-on manger un frisbee ?”, “Un enfant de trois mois peut-il jouer au frisbee ?”, “Le temps qu’il fait aujourd’hui se prête-t-il bien à une partie de frisbee ?”
Les ordinateurs qui peuvent légender une image “Joueurs de frisbee dans un parc” n’ont aucune chance de répondre à ces questions. »
Impressionnés par la performance du logiciel, nous ne voyons pas, ajoute Rodney Brooks, ses limitations. Or l’IA en apprentissage profond a un domaine d’action très étroit ; elle est extrêmement performante sur des « champs clos », c’est-à-dire « un type de données extrêmement limité », dans les termes de Gary Marcus et Ernest Davis.
De manière plus imagée, Kai-Fu Lee propose de voir ces IA comme « des tableurs sous stéroïdes entraînés sur le big data, qui peuvent surpasser les humains sur une tâche donnée ». Une IA à qui l’on pourrait effectivement prêter des processus cognitifs humains serait une « IA généralisée », c’est-à-dire « un ordinateur doué d’une conscience de soi, capable de raisonner à partir du sens commun, d’acquérir des connaissances dans des domaines variés, d’exprimer et de comprendre les émotions, etc. ».
On est loin, en d’autres termes, des robots qui rêvent et écrivent spontanément de la poésie, parce que le traitement de données massives par la machine n’est pour l’instant pas comparable à l’expérience cognitive du monde par l’homme. Si la concurrence économique est un problème immédiat, la concurrence existentielle n’est pas encore là.

Une distinction fondamentale : performance vs compétence

Ouvrir la boîte noire permet ainsi de mettre le doigt sur la distinction fondamentale entre performance et compétence. On pourra difficilement contester qu’une IA qui traduit 800 pages en quelques heures soit performante, et même beaucoup plus performante qu’un humain (ou même une équipe de traducteurs humains) ; on peut douter, en revanche, qu’elle soit vraiment compétente : c’est un argument fondamental dans les appels à la sobriété de spécialistes de l’IA comme Rodney Brooks.
Pour revenir à l’exemple de ce dernier : l’humain est compétent pour parler du frisbee ; pas la machine. En termes de philosophie de l’esprit : l’humain, pour parler comme Umberto Eco, possède un « type cognitif » du frisbee dans son « encyclopédie » personnelle. L’IA qui a impressionné H.J. Parkinson du Guardian est performante pour reproduire le style de la journaliste, mais elle n’est pas compétente pour remplacer la journaliste, parce que l’IA ne sait pas distinguer une information sourcée ou une citation authentique d’une fake news ou d’un propos forgé. Bref, il manque aux IA un ensemble très diversifié de compétences (qui sont liées à d’autres dimensions de la cognition humaine, comme notre affinité pour le vrai) pour se substituer globalement à l’humain.
C’est, entre autres, cette compétence généralisée des travailleurs humains qui fournit la base de l’argument de Sylvie Vandaele pour défendre la traduction humaine. Outre le fait que l’IA elle-même est le produit de la compétence des informaticiens et linguistes qui ont travaillé à son élaboration, l’expertise traductologique humaine a été convoquée à toutes les étapes du processus automatique :
  • en amont du processus, il a notamment fallu élaborer « un dictionnaire de 200 termes spécifiques » des domaines mathématiques et informatiques, ce qui suppose une maîtrise a priori du texte-source et des deux langues, pour introduire dans sa traduction cohérence et continuité au niveau du lexique le plus technique ;
  • pendant le processus lui-même, la machine travaille et « apprend » grâce à la compilation d’un impressionnant corpus de référence constitué de textes rédigés et traduits par l’homme. L’apprentissage profond est avant tout l’interprétation statistique d’un vaste échantillon du travail humain : sans cette masse de données, dont la qualité (et donc la compétence de ses auteurs humains) détermine la performance de la machine, l’IA ne serait pas aussi performante ; comme l’explique l’un des concepteurs du logiciel : « La performance de Deepl tient à son corpus très bien traduit ».
  • en aval du processus, il a fallu relire et corriger la traduction pour la valider définitivement, ce qui est un processus standard aussi pour la traduction humaine. Il a notamment fallu ajuster la ponctuation et « élargir le contexte ». Quoique ces modifications soit présentées comme « marginales », elles sont révélatrices : la ponctuation rythme le texte et, en fluidifiant la lecture, facilite son assimilation par le lecteur ; la notion vague de contexte renvoie, encore une fois, au fonctionnement « encyclopédique » (U. Eco) de la connaissance humaine. En d’autres termes, il a fallu réajuster le produit du travail machine pour qu’il s’insère au mieux dans le rythme et l’univers cognitifs humains, ce que l’IA est incapable d’évaluer.

Conclusion provisoire

Pour résumer : la compétence de la machine est, quand on ouvre la boîte noire, d’une nature différente de la compétence humaine ; et la performance de la machine repose, en dernière analyse, sur la compilation des produits de la compétence humaine. Le danger vient moins d’une concurrence existentielle immédiate d’une IA qui est très loin d’être généralisée que de décisions économiques… qui seront prises par des hommes.The Conversation

Dimitri Garncarzyk, agrégé de lettres modernes, docteur en littératures comparées (10e section CNU), Université Sorbonne Nouvelle, Paris 3 – USPC
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est poss...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance lo...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...