Accéder au contenu principal

L’IA menace-t-elle l’apprentissage des langues ?

Les téléphones permettent de communiquer avec des personnes qui ne parlent pas notre langue et dont nous ne parlons pas la langue. Maxx-Studio / Shutterstock Par  Pascual Pérez-Paredes , Universidad de Murcia Est-il encore utile d’apprendre des langues étrangères quand on dispose de smartphones équipés de traducteurs automatiques ? Si cette hypothèse inquiète, il semblerait que l’intelligence artificielle ouvre aussi de nouvelles pistes pour s’initier à différentes langues. En 2024, la société Open AI , spécialisée dans l’intelligence artificielle, a présenté GPT4-o, un nouveau grand modèle de langage capable de « raisonner » et d’interagir avec du texte, des images et des sons. Dans l’une des vidéos diffusées après ce lancement, on voit deux personnes sur leur téléphone portable qui demandent à GPT4-o de les écouter et de traduire leurs échanges de l’anglais à l’espagnol ou de l’espagnol à l’anglais, de sorte que

Et si on créait des « sanctuaires sans IA » ?


L’IA entre partout, mais peut-on en sortir ? Mo, Unsplash, CC BY
Antonio Pele, Université Paris Nanterre – Université Paris Lumières

Dans Hypérion, roman de science-fiction écrit par Dan Simmons en 1989, les personnages sont connectés à un réseau d’intelligences artificielles, appelé la « datasphère ». En leur permettant d’avoir un accès instantané à toute information, le savoir est immédiatement disponible, mais la capacité à penser par soi-même est désormais perdue.

Plus de trente ans après la publication de l’ouvrage de Dan Simmons, il est possible d’envisager l’impact toujours plus croissant de l’intelligence artificielle (IA) sur nos capacités cognitives en des termes similaires. Afin de réduire ces risques, je propose ici une solution qui défend aussi bien les progrès issus de l’IA que le besoin de respecter nos capacités cognitives.

L’IA offre de nombreux avantages. Parmi eux, on peut citer les possibilités de faire progresser la justice sociale, lutter contre le racisme, améliorer la détection de certains cancers, réduire les conséquences de la crise climatique et stimuler la productivité.

Mais les aspects plus sombres de l’IA sont aussi très discutés et pris en compte dans son développement, notamment ses biais raciaux, sa tendance à renforcer les inégalités socio-économiques et sa capacité à manipuler nos émotions et comportements.

Vers les premières régulations occidentales de l’IA

Malgré ces risques toujours plus croissants, il n’y a toujours pas de règles nationales ou internationales qui régulent l’IA. C’est pour cela que la proposition de la Commission européenne visant à établir une régulation des usages de l’IA est si importante.

Cette proposition de la Commission européenne, dont la dernière version a reçu l’aval et a été modifiée par les deux comités ad hoc du Parlement européen début juin 2023, se fonde sur les risques inhérents à toute utilisation de cette technologie et les classifie en trois catégories : « inacceptables », « élevés » et « autres ».

Pour les risques issus de la première catégorie, le recours à l’IA est interdit. Il s’agit des cas suivants :

  • La manipulation cognitivo-comportementale de personnes ou de groupes vulnérables, qui peut ou pourrait causer un dommage corporel ou cognitif.

  • L’exploitation des vulnérabilités d’un groupe spécifique de personnes, de sorte que l’IA puisse modifier le comportement de ces personnes et vienne causer un dommage.

  • Les scores sociaux : classer les individus en fonction de leur conduite et statut socio-économique.

  • Les systèmes d’identification biométrique en temps réel et à distance, sauf cas particulier (par exemple en cas d’attaque terroriste).

Dans cette Législation européenne portant sur l’IA, les notions de risques « inacceptables » et de dommages sont étroitement liées. Il s’agit d’un pas important et suggèrent le besoin de protéger certaines activités et des espaces physiques délimités de toute interférence de l’IA. Avec ma collègue Caitlin Mulholland, nous avons en ce sens montré comment nos droits fondamentaux et en particulier notre droit à la vie privée dépendent d’une plus forte régulation des applications de l’IA et de reconnaissance faciale.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Cela fait tout particulièrement sens en ce qui concerne le recours à l’IA en matière de décision judiciaire automatisée et de contrôle des frontières. Les débats autour de ChatGPT ont aussi soulevé des inquiétudes quant à leur incidence sur nos capacités intellectuelles.

Des sanctuaires sans IA

Tous ces cas soulèvent des interrogations quant au déploiement de l’IA à des domaines où sont en jeu nos droits fondamentaux, notre vie privée et nos capacités cognitives. Ils pointent aussi le besoin de créer des espaces où s’applique une forte régulation des activités liées à l’IA.

Il est possible définir ces espaces en empruntant un terme ancien, celui de sanctuaires. Dans son ouvrage, « L’âge du capitalisme de surveillance », Shoshana Zuboff définit le droit au sanctuaire comme remède aux excès de tout pouvoir. Les lieux sacrés, tels que les temples, les églises et les monastères permettaient en effet aux communautés persécutées d’y trouver refuge. Aujourd’hui, et afin de résister à la surveillance digitale, Zuboff actualise et réinterprète ce droit au sanctuaire par le truchement d’une forte régulation des activités digitales et cela afin que nous puissions encore profiter de l’« espace d’un refuge inviolable ».

La notion de « sanctuaires sans IA » n’implique pas une interdiction pure et simple de l’IA mais une vraie régulation des applications qui découlent de cette technologie. Dans le cas de la législation de l’Union européenne portant sur l’IA, cela reviendrait à mettre en place une définition plus précise de la notion de dommage. Pour l’instant, il n’existe pas en effet de définition claire et univoque de cette idée de dommage, ni dans la législation européenne portant sur l’IA ni entre les États membres. Comme le suggère Suzanne Vergnolle, une solution consisterait à établir des critères communs à tous les États membres afin d’identifier les types de dommages issus des pratiques manipulatrices liées à certaines applications de l’IA. En outre, les dommages fondés sur les profils raciaux et les statuts socio-économiques devraient aussi être envisagés.

La mise en place de sanctuaires sans IA signifie aussi une réglementation beaucoup plus ferme visant à nous protéger des dommages cognitifs et mentaux résultant de potentiels usages de l’IA. Un point de départ consisterait à instaurer une nouvelle génération de droits — les « neuro-droits » — qui viendraient protéger notre liberté cognitive eu égard au développement des neurotechnologies. Roberto Andorno and Marcello Ienca soutiennent ainsi que le droit à l’intégrité mentale, qui est déjà protégé par la Cour européenne des Droits de l’Homme, devrait s’appliquer au-delà des cas de maladies mentales et nous protéger face aux intrusions de l’IA.

Un manifeste des sanctuaires sans IA

Je souhaiterais défendre le droit aux « sanctuaires sans IA ». Il engloberait les articles suivants (qui sont bien entendu provisoires) :

  • Le droit de se retirer. Dans les domaines jugés sensibles, toute personne a le droit de se retirer d’un accompagnement basé sur l’IA, et cela pendant une durée dont elle sera libre de décider. Ce droit implique l’absence totale d’interférence de dispositif basé sur l’IA ou une interférence modérée.

  • Absence de sanction. Le fait de se retirer d’un dispositif d’IA n’entraînera jamais de désavantages de types économiques ou sociaux.

  • Le droit à la décision humaine. Tout individu a le droit à une décision finale qui soit faite par une personne humaine.

  • Personnes vulnérables et domaines sensibles. Les autorités publiques établiront en collaboration avec les acteurs de la société civile et de l’industrie, les domaines particulièrement sensibles (santé, éducation) et les groupes de personnes, comme les enfants, qui ne devront pas être ou être modérément exposés à des systèmes intrusifs d’IA.

Les Sanctuaires sans IA dans le monde physique

Jusqu’à présent, les espaces sans IA n’ont été que très inégalement mis en place, d’un point de vue spatial. Certains établissements scolaires en Europe et aux États-Unis ont en ce sens décidé d’exclure tout écran des salles de classe, en suivant ainsi les principes du mouvement low-tech/no tech dans le domaine de l’éducation. Il a en effet été prouvé que le recours à des supports digitaux dans le domaine de l’éducation n’est pas productif et provoque des dépendances parmi les plus jeunes. Cependant, de plus en plus d’écoles publiques, avec peu de moyens, ont tendance à faire recours aux écrans et aux outils digitaux, ce qui contribuerait à aggraver les inégalités sociales.

Même à l’extérieur d’espaces sécurisées comme les salles de cours, l’IA continue à s’étendre. Aux États-Unis, entre 2019 et 2021, une douzaine de municipalités avaient approuvé des lois interdisant le recours à la reconnaissance faciale dans le domaine du maintien de l’ordre. Depuis 2022 cependant, de nombreuses villes ont fait machine arrière afin de contrecarrer une augmentation des délits.

Même s’ils renforcent les inégalités, des systèmes de reconnaissances faciaux sont utilisés au cours de certains entretiens d’embauche. Dans la mesure où ces systèmes sont alimentés par les données des candidat·e·s qui ont réussi préalablement les processus de sélection, l’IA a tendance à sélectionner les candidat·e·s provenant d’un contexte privilégié et à exclure celles et ceux issus de milieux plus divers. De telles applications doivent être interdites.

Et malgré la future législation de l’UE portant sur l’IA, des systèmes vidéo basés sur l’IA surveilleront les spectateurs et les foules des Jeux olympiques de Paris en 2024. Cette vidéosurveillance automatisée sera en outre testée au cours de la Coupe du Monde de Rugby.

Les moteurs de recherche sur Internet guidé par l’IA doivent aussi être interdits, puisque cette technologie n’est pas encore au point. Comme le souligne Melissa Heikkiläa dans un article de 2023 de la [MIT Technology Review], « les textes générés par l’IA semblent dignes de foi et font des références, ce qui dissuade les usagers de vérifier l’information qu’ils reçoivent ». Il y a aussi une dose d’exploitation, car « les usagers sont aujourd’hui en train de tester cette technologie à titre gratuit ».

Accompagner le progrès tout en préservant nos droits

Le droit aux sanctuaires sans IA garantit le développement technologique de l’IA tout en protégeant nos capacités émotionnelles et cognitives. La possibilité d’avoir le choix se retirer de l’IA (opt out) est cruciale si nous souhaitons préserver nos capacités à apprendre, à vivre des expériences de manière autonome et à protéger notre jugement moral.

Dans le roman de Dan Simmons, l’un des protagonistes (réplique « cybride » du poète John Keat) n’est pas connecté à la DataSphère et peut donc résister aux menaces des Intelligences artificielles. Ce point est illustratif car il souligne l’importance des débats portant sur l’intromission de l’IA dans l’art, la musique, la littérature et la culture. En effet, en en plus des questions relatives à la propriété intellectuelle, ces activités sont étroitement liées à notre imagination et créativité, capacités qui forment aussi le socle de nos possibilités de résister et de penser par nous-mêmes.The Conversation

Antonio Pele, Associate professor, Law School at PUC-Rio University & Marie Curie Fellow at IRIS/EHESS Paris & MSCA Fellow at the Columbia Center for Contemporary Critical Thought (CCCCT) w/ the HuDig19 Project, Université Paris Nanterre – Université Paris Lumières

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

L’Europe veut s’armer contre la cybercriminalité avec le Cyber Resilience Act

  Par  Patricia Mouy , Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et Sébastien Bardin , Commissariat à l’énergie atomique et aux énergies alternatives (CEA) Assez des cyberattaques  ? La loi sur la cyberrésilience, ou Cyber Resilience Act a été adoptée par les députés européens le 12 mars dernier et arrive en application dans les mois à venir, avec l’ambition de changer la donne en termes de sécurité des systèmes numériques en Europe. Alors que les systèmes numériques sont littéralement au cœur des sociétés modernes, leurs potentielles faiblesses face aux attaques informatiques deviennent des sources de risques majeurs – vol de données privées, espionnage entre états ou encore guerre économique. Citons par exemple le cas de Mirai , attaque à grande échelle en 2016, utilisant le détournement de dispositifs grand public comme des caméras connectées pour surcharger des domaines Internet d’entreprise, attaque de type DDoS (déni de service distribué)