Accéder au contenu principal

Inquiétude de voir des criminels utiliser ChatGPT

Alors qu'Europol vient de publier un rapport sur les dangers de ChatGPT et s'inquiète de son utilisation par des criminels,  Kunal Anand , CTO d’ Imperva , spécialiste de la sécurité, réagit face à la situation actuelle Les chatbots posent-ils un problème de protection de la vie privée plus important que les moteurs de recherche, et pourquoi ? "Le problème des chatbots par rapport aux moteurs de recherche n'est pas seulement lié aux conditions générales ou à la manière dont ils utilisent les données, mais aussi à la manière dont nous interagissons avec eux. Par rapport à une recherche Google ou Bing, les LLM comme Bard deviennent plus utiles à mesure que nous leur donnons plus d'informations (en informatique, cela s'appelle l'apprentissage par renforcement). Et surtout avec un chatbot, il est facile de traiter les interactions comme une conversation et de laisser échapper plus d'informations que nous ne le ferions normalement en tapant simplement dans

Les traducteurs doivent-ils redouter la concurrence de l’intelligence artificielle ?

File 20190317 28505 i6dyba.png?ixlib=rb 1.1
Portrait du traducteur, Laurent de Premierfait, de l'ouvrage, Des Cas des nobles hommes et femmes, de Jehan Bocace. Vers 1495. Wikipédia, CC BY-SA
Par Dimitri Garncarzyk, Université Sorbonne Nouvelle, Paris 3 – USPC


À la fin de l’année dernière, le programme DeepL a, grâce à l’intelligence artificielle (IA) et à l’apprentissage profond (deep learning), traduit en une douzaine d’heures seulement un ouvrage de théorie informatique de 800 pages.
S’il est légitime de s’interroger à cette occasion sur la possible concurrence entre l’homme et la machine sur le marché du travail intellectuel (comme on l’a déjà fait dans d’autres secteurs d’activité), le discours médiatique est très vite emphatique dès qu’il s’agit de relayer les avancées de l’IA. En l’occurrence, on a pu parler d’une « grosse râclée », expression qui préfère souligner la menace plutôt que l’exploit technologique, comme s’il était plus important de souligner la concurrence entre les traducteurs humains d’un côté et les concepteurs du programme de l’autre que de suggérer que l’humanité pourrait marquer là un point collectif.
Ailleurs, sous le titre « Traduction automatique, robots écrivains… voilà la littérature du futur ! » s’imagine un futur de plus en plus proche où, les humains étant dépossédés de leur créativité, l’otium studiosum propice à la traduction de la poésie ou à l’écriture des romans céderait sa place au désœuvrement et à la consommation passive des chefs-d’œuvre des IA. Et inversement, l’appel à la sobriété des spécialistes de l’IA eux-mêmes semble être devenu un genre en soi.
Les universitaires spécialistes des littératures étrangères sont, entre autres, des traducteurs. Nous avons dans notre cursus été formés à la traduction littéraire (à côté, et c’est important, d’autres pratiques, comme l’histoire culturelle ou le commentaire de texte) ; nous enseignons d’une manière ou d’une autre la traduction, nous publions des traductions sous une forme ou une autre, et c’est une activité que nous pratiquons aussi pour le plaisir.
Mais si nous sommes des professionnels de l’écrit, nous ne sommes pas, pour la plupart, des spécialistes de la traduction automatique. Une partie de l’inconfort lié à l’IA vient sans doute de cette relation asymétrique : le robot s’invite dans le champ de compétence d’experts humains et semble y exceller, alors que les experts humains du domaine concerné se sentent, eux, souvent incompétents pour parler du robot. Dans ce cas, l’IA est pour eux une boîte noire.
C’est cette relation ambiguë entre le traducteur et l’IA traductive que je voudrais explorer ici.

Trois raisons de s’inquiéter

Le traducteur littéraire est un professionnel de l’écrit parmi d’autres, et un bon point de départ pour comprendre de quoi les professionnels de l’écrit ont peur est l’article du Guardian, paru en février dernier, où Hannah Jane Parkinson décrit le frisson qui l’a saisie quand le logiciel expérimental GPT2 a composé un article de presse complet sur la base d’un paragraphe qu’elle avait écrit. Sa première réaction est ainsi :
(a) it turns out I am not the unique genius we all assumed me to be ; an actual machine can replicate my tone to a T ; (b) does anyone have any job openings ?
(a) Il semblerait que je ne sois pas, contrairement à ce que nous croyions tous, un génie unique : une simple machine peut reproduire mon style à la lettre ; (b) est-ce que quelqu’un recrute ?
  • Le point (a) décrit une blessure narcissique : alors qu’on admet traditionnellement que la créativité stylistique (le ton, le style) définissent des individualités littéraires, la machine (qui n’a a priori pas de personnalité) peut émuler assez facilement ce genre de qualités ; on retrouve là la crainte du « chômage créatif » exprimée dans l’article de Marianne cité plus haut.
  • Le point (b) évoque un chômage beaucoup plus littéral : les performances impressionnantes du robot-écrivain en font un candidat viable pour remplacer un certain nombre d’acteurs humains du secteur de l’écrit – journalistes, traducteurs ou écrivains.
  • Il existe, sur le cas de GPT2, un troisième problème (c), auquel H.J. Parkinson consacre la seconde moitié de son article : celui des fake news, puisque l’IA forge complètement ses citations et ses analyses. GPT2 sait écrire en anglais non seulement correctement, mais en reproduisant des habitudes stylistiques, ce qui est une des compétences de la journaliste ; en revanche, GPT2 ne sait pas vérifier ses sources et n’a pas de déontologie, ce qui sont d’autres compétences de la journaliste.
Pour résumer : l’activité de la journaliste met en œuvre un ensemble de compétences à des niveaux divers (linguistique, stylistique, cognitif, éthique), et l’IA est (très) performante sur un certaines d’entre elles (mais pas toutes) ; d’où la crainte, en partie justifiée, d’une concurrence créative et économique.

La concurrence économique de l’IA

La dimension économique de la concurrence de l’IA au travail humain est l’un des problèmes les plus immédiats et les plus sérieux ; c’est sur celui-ci que Sylvie Vandaele, professeur de traduction scientifique à l’Université de Montréal, conclut son analyse du phénomène.
L’inquiétude de S. Vandaele vient moins de la prise en main de la traduction-machine par le traducteur humain que de la dévaluation, en terme de reconnaissance professionnelle et financière, de sa compétence. C’est un cas particulier des conséquences économiques indésirables des progrès de l’IA que Kai-Fu Lee, par exemple, envisageait à l’échelle mondiale en 2017. En somme, la menace économique est la plus immédiate parce que la décision de remplacer le travail humain par le travail automatique peut être prise à court terme.
Sylvie Vandaele souligne aussi que le remplacement économique des traducteurs humains par les machines procéderait, entre autres, d’une incompréhension de la « complexité » de la traduction, c’est-à-dire de ce que représente l’expertise traductologique : en d’autres termes, la décision de remplacer précipitamment le travail humain par le travail machine négligerait certains facteurs, comme la compétence généralisée des travailleurs humains.

Blessure narcissique et généralisation abusive

Parce que les IA qui composent des textes (ou les traduisent) atteignent très rapidement des résultats coûteux (en temps et en effort cognitif) pour l’homme, on a spontanément tendance à les considérer comme des rivaux en termes de créativité linguistique. Il y a cependant, à en croire certains spécialistes de l’IA, de sérieuses raisons de considérer qu’il s’agit là d’une généralisation abusive.
Cette généralisation repose sur le malentendu de la boîte noire. Impressionnés par les résultats fulgurants de l’IA, nous lui prêtons les capacités qu’il faudrait à un humain pour atteindre les mêmes résultats avec la même efficacité. Ce faisant, nous négligeons que l’IA fonctionne d’une manière très différente de la cognition humaine, et que nous ne pouvons pas prêter aux machines nos propres processus mentaux : il faut donc ouvrir la boîte noire.
Rodney Brooks oppose ainsi l’expérience humaine du frisbee à ce que peut en dire une machine qui génère automatiquement des légendes pour des photographies (il commente les résultats présentés par cet article) :
« Supposons qu’une personne nous dise que telle photo représente des gens en train de jouer au frisbee dans un parc. Nous supposons spontanément que cette personne peut répondre à des questions comme “Quelle forme a un frisbee ?”, “À quelle distance en gros peut-on lancer un frisbee ?”, “Peut-on manger un frisbee ?”, “Un enfant de trois mois peut-il jouer au frisbee ?”, “Le temps qu’il fait aujourd’hui se prête-t-il bien à une partie de frisbee ?”
Les ordinateurs qui peuvent légender une image “Joueurs de frisbee dans un parc” n’ont aucune chance de répondre à ces questions. »
Impressionnés par la performance du logiciel, nous ne voyons pas, ajoute Rodney Brooks, ses limitations. Or l’IA en apprentissage profond a un domaine d’action très étroit ; elle est extrêmement performante sur des « champs clos », c’est-à-dire « un type de données extrêmement limité », dans les termes de Gary Marcus et Ernest Davis.
De manière plus imagée, Kai-Fu Lee propose de voir ces IA comme « des tableurs sous stéroïdes entraînés sur le big data, qui peuvent surpasser les humains sur une tâche donnée ». Une IA à qui l’on pourrait effectivement prêter des processus cognitifs humains serait une « IA généralisée », c’est-à-dire « un ordinateur doué d’une conscience de soi, capable de raisonner à partir du sens commun, d’acquérir des connaissances dans des domaines variés, d’exprimer et de comprendre les émotions, etc. ».
On est loin, en d’autres termes, des robots qui rêvent et écrivent spontanément de la poésie, parce que le traitement de données massives par la machine n’est pour l’instant pas comparable à l’expérience cognitive du monde par l’homme. Si la concurrence économique est un problème immédiat, la concurrence existentielle n’est pas encore là.

Une distinction fondamentale : performance vs compétence

Ouvrir la boîte noire permet ainsi de mettre le doigt sur la distinction fondamentale entre performance et compétence. On pourra difficilement contester qu’une IA qui traduit 800 pages en quelques heures soit performante, et même beaucoup plus performante qu’un humain (ou même une équipe de traducteurs humains) ; on peut douter, en revanche, qu’elle soit vraiment compétente : c’est un argument fondamental dans les appels à la sobriété de spécialistes de l’IA comme Rodney Brooks.
Pour revenir à l’exemple de ce dernier : l’humain est compétent pour parler du frisbee ; pas la machine. En termes de philosophie de l’esprit : l’humain, pour parler comme Umberto Eco, possède un « type cognitif » du frisbee dans son « encyclopédie » personnelle. L’IA qui a impressionné H.J. Parkinson du Guardian est performante pour reproduire le style de la journaliste, mais elle n’est pas compétente pour remplacer la journaliste, parce que l’IA ne sait pas distinguer une information sourcée ou une citation authentique d’une fake news ou d’un propos forgé. Bref, il manque aux IA un ensemble très diversifié de compétences (qui sont liées à d’autres dimensions de la cognition humaine, comme notre affinité pour le vrai) pour se substituer globalement à l’humain.
C’est, entre autres, cette compétence généralisée des travailleurs humains qui fournit la base de l’argument de Sylvie Vandaele pour défendre la traduction humaine. Outre le fait que l’IA elle-même est le produit de la compétence des informaticiens et linguistes qui ont travaillé à son élaboration, l’expertise traductologique humaine a été convoquée à toutes les étapes du processus automatique :
  • en amont du processus, il a notamment fallu élaborer « un dictionnaire de 200 termes spécifiques » des domaines mathématiques et informatiques, ce qui suppose une maîtrise a priori du texte-source et des deux langues, pour introduire dans sa traduction cohérence et continuité au niveau du lexique le plus technique ;
  • pendant le processus lui-même, la machine travaille et « apprend » grâce à la compilation d’un impressionnant corpus de référence constitué de textes rédigés et traduits par l’homme. L’apprentissage profond est avant tout l’interprétation statistique d’un vaste échantillon du travail humain : sans cette masse de données, dont la qualité (et donc la compétence de ses auteurs humains) détermine la performance de la machine, l’IA ne serait pas aussi performante ; comme l’explique l’un des concepteurs du logiciel : « La performance de Deepl tient à son corpus très bien traduit ».
  • en aval du processus, il a fallu relire et corriger la traduction pour la valider définitivement, ce qui est un processus standard aussi pour la traduction humaine. Il a notamment fallu ajuster la ponctuation et « élargir le contexte ». Quoique ces modifications soit présentées comme « marginales », elles sont révélatrices : la ponctuation rythme le texte et, en fluidifiant la lecture, facilite son assimilation par le lecteur ; la notion vague de contexte renvoie, encore une fois, au fonctionnement « encyclopédique » (U. Eco) de la connaissance humaine. En d’autres termes, il a fallu réajuster le produit du travail machine pour qu’il s’insère au mieux dans le rythme et l’univers cognitifs humains, ce que l’IA est incapable d’évaluer.

Conclusion provisoire

Pour résumer : la compétence de la machine est, quand on ouvre la boîte noire, d’une nature différente de la compétence humaine ; et la performance de la machine repose, en dernière analyse, sur la compilation des produits de la compétence humaine. Le danger vient moins d’une concurrence existentielle immédiate d’une IA qui est très loin d’être généralisée que de décisions économiques… qui seront prises par des hommes.The Conversation

Dimitri Garncarzyk, agrégé de lettres modernes, docteur en littératures comparées (10e section CNU), Université Sorbonne Nouvelle, Paris 3 – USPC
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Univers parallèles et mondes virtuels : la guerre des métavers est commencée

  Une partie de poker dans le métavers (capture d'écran de la vidéo “Le métavers et comment nous allons le construire ensemble” sur YouTube) Par  Oihab Allal-Chérif , Neoma Business School Le 17 octobre 2021, Mark Zuckerberg a lancé les hostilités de manière assez théâtrale, comme s’il défiait ses concurrents d’en faire autant. Afin de concrétiser son rêve d’enfant, le métavers, il a décidé de mettre en œuvre des moyens colossaux : 10 000 ingénieurs hautement qualifiés seront recrutés en Europe dans les 5 prochaines années. Cette annonce a été faite quelques jours avant celle du changement de nom du groupe Facebook en Meta , le 28 octobre, démontrant ainsi l’engagement total du fournisseur de réseaux sociaux dans la transition vers le métavers. Le 22 juillet 2021, dans une interview à The Verge , le créateur de Facebook racontait : « Je pense à certains de ces trucs depuis le collège quand je commençais tout juste à coder. […] J’écrivais du code

Sans Sauvegarde, pas de cyber-résilience

Par Alexandra Lemarigny, directrice commercial Europe du Sud Opentext Security Solutions Les études diverses sur les habitudes de sauvegarde des entreprises et leurs collaborateurs sont sans équivoque : très majoritairement, elles ne s’attardent vraiment sur ces questions de sauvegarde ou de récupération qu’en cas d’incidents. Pourtant la sauvegarde est l’élément majeur des dispositifs de cyber-résilience, à savoir la capacité à rester opérationnel, même face aux cyberattaques et à la perte de données. La sauvegarde n’est pas suffisamment considérée Dans les faits, force est de constater que la sauvegarde n’est pas envisagée dans son entièreté par les entreprises qui n’ont pas eu à subir d’accidents et il est fréquent qu’elles ne sauvegardent pas les éléments les plus pertinents. A titre d’exemples une entreprise peut ne sauvegarder qu’un ou deux serveurs, ou un élément qu’elle a identifié comme critique quelques années auparavant. Certaines ne tiennent pas compte de l’évolution de leu

Implants cérébraux : la délicate question de la responsabilité juridique des interfaces homme-machine

Dans le film Transcendance , de Wally Pfister, sorti en 2014, le héros mourant transfère son esprit dans un ordinateur quantique. Wally Pfister, 2014 Par  Elise Roumeau , Université Clermont Auvergne (UCA) Depuis quelques années, Elon Musk ne cesse de faire des annonces relatives à des avancées technologiques. Voitures autonomes , voyages interplanétaires , interface homme-machine , achat du réseau social Twitter… rien ne semble arrêter l’homme d’affaires. Aucun obstacle technique, géographique, physiologique ne lui semble infranchissable. Pourtant, ses projets pourraient, à court terme, poser de véritables difficultés du point de vue juridique. La recherche d’une fusion entre le cerveau et l’intelligence artificielle Avec Neuralink, l’un des objectifs visés par Elon Musk est de créer une interface entre l’humain et la machine . À plus ou moins court terme, le projet porte sur le développement d’implants cérébraux pour pallier des troubles neur

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor

Sondage : quatre Français sur dix craignent le vol d'identité

Selon un sondage représentatif commandé par le fournisseur de messagerie GMX , de nombreux internautes français sont préoccupés (31%), voire très inquiets (9%), d'être victimes d'un vol d'identité. La majorité craint que des inconnus puissent faire des achats (52%) avec leur argent. Dans le cas d'une usurpation d'identité, les criminels accèdent aux comptes en ligne et agissent au nom de leurs victimes. De nombreuses personnes interrogées craignent que des inconnus signent des contrats en leur nom (37 %), que des escrocs utilisent l'identité volée pour ouvrir de nouveaux comptes (36 %) et que des informations les plus privées tombent entre des mains étrangères ou soient rendues publiques (28 %). Besoin de rattrapage en matière de sécurité des mots de passe Il est urgent de rattraper le retard en matière d'utilisation de mots de passe sûrs selon GMX : 34 % des utilisateurs d'Internet en France utilisent dans leurs mots de passe des informations personnell