Accéder au contenu principal

Le bitcoin : une « valeur refuge » peut-elle être virtuelle ?

  Les fortes variations du cours du bitcoin sont-ils le signe de sa folle jeunesse ? Shutterstock Oatawa Par  Hervé Alexandre , Université Paris Dauphine – PSL Pour quelles raisons le cours de l’or et celui du bitcoin se sont-ils envolés au mois de février 2024 ? Faut-il voir dans cette concordance davantage qu’un hasard, l’un devenant après l’autre une valeur refuge prisée des particuliers et bientôt des institutionnels comme semblait l’indiquer la chroniqueuse économique de France Infos ? Avant de tenter d’apporter quelques éléments de réponse à cette question, rappelons que, de manière générale, notre monde se numérise inexorablement. À part quelques nostalgiques et autres collectionneurs, nous n’achetons plus de disque en vinyle ni de CD. Nous téléchargeons des morceaux de musique, quand nous ne les écoutons pas tout simplement en streaming . Dans ce dernier cas, moyennant le paiement d’un abonnement, nous pouvons écouter un morceau sans

Et si on créait des « sanctuaires sans IA » ?


L’IA entre partout, mais peut-on en sortir ? Mo, Unsplash, CC BY
Antonio Pele, Université Paris Nanterre – Université Paris Lumières

Dans Hypérion, roman de science-fiction écrit par Dan Simmons en 1989, les personnages sont connectés à un réseau d’intelligences artificielles, appelé la « datasphère ». En leur permettant d’avoir un accès instantané à toute information, le savoir est immédiatement disponible, mais la capacité à penser par soi-même est désormais perdue.

Plus de trente ans après la publication de l’ouvrage de Dan Simmons, il est possible d’envisager l’impact toujours plus croissant de l’intelligence artificielle (IA) sur nos capacités cognitives en des termes similaires. Afin de réduire ces risques, je propose ici une solution qui défend aussi bien les progrès issus de l’IA que le besoin de respecter nos capacités cognitives.

L’IA offre de nombreux avantages. Parmi eux, on peut citer les possibilités de faire progresser la justice sociale, lutter contre le racisme, améliorer la détection de certains cancers, réduire les conséquences de la crise climatique et stimuler la productivité.

Mais les aspects plus sombres de l’IA sont aussi très discutés et pris en compte dans son développement, notamment ses biais raciaux, sa tendance à renforcer les inégalités socio-économiques et sa capacité à manipuler nos émotions et comportements.

Vers les premières régulations occidentales de l’IA

Malgré ces risques toujours plus croissants, il n’y a toujours pas de règles nationales ou internationales qui régulent l’IA. C’est pour cela que la proposition de la Commission européenne visant à établir une régulation des usages de l’IA est si importante.

Cette proposition de la Commission européenne, dont la dernière version a reçu l’aval et a été modifiée par les deux comités ad hoc du Parlement européen début juin 2023, se fonde sur les risques inhérents à toute utilisation de cette technologie et les classifie en trois catégories : « inacceptables », « élevés » et « autres ».

Pour les risques issus de la première catégorie, le recours à l’IA est interdit. Il s’agit des cas suivants :

  • La manipulation cognitivo-comportementale de personnes ou de groupes vulnérables, qui peut ou pourrait causer un dommage corporel ou cognitif.

  • L’exploitation des vulnérabilités d’un groupe spécifique de personnes, de sorte que l’IA puisse modifier le comportement de ces personnes et vienne causer un dommage.

  • Les scores sociaux : classer les individus en fonction de leur conduite et statut socio-économique.

  • Les systèmes d’identification biométrique en temps réel et à distance, sauf cas particulier (par exemple en cas d’attaque terroriste).

Dans cette Législation européenne portant sur l’IA, les notions de risques « inacceptables » et de dommages sont étroitement liées. Il s’agit d’un pas important et suggèrent le besoin de protéger certaines activités et des espaces physiques délimités de toute interférence de l’IA. Avec ma collègue Caitlin Mulholland, nous avons en ce sens montré comment nos droits fondamentaux et en particulier notre droit à la vie privée dépendent d’une plus forte régulation des applications de l’IA et de reconnaissance faciale.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Cela fait tout particulièrement sens en ce qui concerne le recours à l’IA en matière de décision judiciaire automatisée et de contrôle des frontières. Les débats autour de ChatGPT ont aussi soulevé des inquiétudes quant à leur incidence sur nos capacités intellectuelles.

Des sanctuaires sans IA

Tous ces cas soulèvent des interrogations quant au déploiement de l’IA à des domaines où sont en jeu nos droits fondamentaux, notre vie privée et nos capacités cognitives. Ils pointent aussi le besoin de créer des espaces où s’applique une forte régulation des activités liées à l’IA.

Il est possible définir ces espaces en empruntant un terme ancien, celui de sanctuaires. Dans son ouvrage, « L’âge du capitalisme de surveillance », Shoshana Zuboff définit le droit au sanctuaire comme remède aux excès de tout pouvoir. Les lieux sacrés, tels que les temples, les églises et les monastères permettaient en effet aux communautés persécutées d’y trouver refuge. Aujourd’hui, et afin de résister à la surveillance digitale, Zuboff actualise et réinterprète ce droit au sanctuaire par le truchement d’une forte régulation des activités digitales et cela afin que nous puissions encore profiter de l’« espace d’un refuge inviolable ».

La notion de « sanctuaires sans IA » n’implique pas une interdiction pure et simple de l’IA mais une vraie régulation des applications qui découlent de cette technologie. Dans le cas de la législation de l’Union européenne portant sur l’IA, cela reviendrait à mettre en place une définition plus précise de la notion de dommage. Pour l’instant, il n’existe pas en effet de définition claire et univoque de cette idée de dommage, ni dans la législation européenne portant sur l’IA ni entre les États membres. Comme le suggère Suzanne Vergnolle, une solution consisterait à établir des critères communs à tous les États membres afin d’identifier les types de dommages issus des pratiques manipulatrices liées à certaines applications de l’IA. En outre, les dommages fondés sur les profils raciaux et les statuts socio-économiques devraient aussi être envisagés.

La mise en place de sanctuaires sans IA signifie aussi une réglementation beaucoup plus ferme visant à nous protéger des dommages cognitifs et mentaux résultant de potentiels usages de l’IA. Un point de départ consisterait à instaurer une nouvelle génération de droits — les « neuro-droits » — qui viendraient protéger notre liberté cognitive eu égard au développement des neurotechnologies. Roberto Andorno and Marcello Ienca soutiennent ainsi que le droit à l’intégrité mentale, qui est déjà protégé par la Cour européenne des Droits de l’Homme, devrait s’appliquer au-delà des cas de maladies mentales et nous protéger face aux intrusions de l’IA.

Un manifeste des sanctuaires sans IA

Je souhaiterais défendre le droit aux « sanctuaires sans IA ». Il engloberait les articles suivants (qui sont bien entendu provisoires) :

  • Le droit de se retirer. Dans les domaines jugés sensibles, toute personne a le droit de se retirer d’un accompagnement basé sur l’IA, et cela pendant une durée dont elle sera libre de décider. Ce droit implique l’absence totale d’interférence de dispositif basé sur l’IA ou une interférence modérée.

  • Absence de sanction. Le fait de se retirer d’un dispositif d’IA n’entraînera jamais de désavantages de types économiques ou sociaux.

  • Le droit à la décision humaine. Tout individu a le droit à une décision finale qui soit faite par une personne humaine.

  • Personnes vulnérables et domaines sensibles. Les autorités publiques établiront en collaboration avec les acteurs de la société civile et de l’industrie, les domaines particulièrement sensibles (santé, éducation) et les groupes de personnes, comme les enfants, qui ne devront pas être ou être modérément exposés à des systèmes intrusifs d’IA.

Les Sanctuaires sans IA dans le monde physique

Jusqu’à présent, les espaces sans IA n’ont été que très inégalement mis en place, d’un point de vue spatial. Certains établissements scolaires en Europe et aux États-Unis ont en ce sens décidé d’exclure tout écran des salles de classe, en suivant ainsi les principes du mouvement low-tech/no tech dans le domaine de l’éducation. Il a en effet été prouvé que le recours à des supports digitaux dans le domaine de l’éducation n’est pas productif et provoque des dépendances parmi les plus jeunes. Cependant, de plus en plus d’écoles publiques, avec peu de moyens, ont tendance à faire recours aux écrans et aux outils digitaux, ce qui contribuerait à aggraver les inégalités sociales.

Même à l’extérieur d’espaces sécurisées comme les salles de cours, l’IA continue à s’étendre. Aux États-Unis, entre 2019 et 2021, une douzaine de municipalités avaient approuvé des lois interdisant le recours à la reconnaissance faciale dans le domaine du maintien de l’ordre. Depuis 2022 cependant, de nombreuses villes ont fait machine arrière afin de contrecarrer une augmentation des délits.

Même s’ils renforcent les inégalités, des systèmes de reconnaissances faciaux sont utilisés au cours de certains entretiens d’embauche. Dans la mesure où ces systèmes sont alimentés par les données des candidat·e·s qui ont réussi préalablement les processus de sélection, l’IA a tendance à sélectionner les candidat·e·s provenant d’un contexte privilégié et à exclure celles et ceux issus de milieux plus divers. De telles applications doivent être interdites.

Et malgré la future législation de l’UE portant sur l’IA, des systèmes vidéo basés sur l’IA surveilleront les spectateurs et les foules des Jeux olympiques de Paris en 2024. Cette vidéosurveillance automatisée sera en outre testée au cours de la Coupe du Monde de Rugby.

Les moteurs de recherche sur Internet guidé par l’IA doivent aussi être interdits, puisque cette technologie n’est pas encore au point. Comme le souligne Melissa Heikkiläa dans un article de 2023 de la [MIT Technology Review], « les textes générés par l’IA semblent dignes de foi et font des références, ce qui dissuade les usagers de vérifier l’information qu’ils reçoivent ». Il y a aussi une dose d’exploitation, car « les usagers sont aujourd’hui en train de tester cette technologie à titre gratuit ».

Accompagner le progrès tout en préservant nos droits

Le droit aux sanctuaires sans IA garantit le développement technologique de l’IA tout en protégeant nos capacités émotionnelles et cognitives. La possibilité d’avoir le choix se retirer de l’IA (opt out) est cruciale si nous souhaitons préserver nos capacités à apprendre, à vivre des expériences de manière autonome et à protéger notre jugement moral.

Dans le roman de Dan Simmons, l’un des protagonistes (réplique « cybride » du poète John Keat) n’est pas connecté à la DataSphère et peut donc résister aux menaces des Intelligences artificielles. Ce point est illustratif car il souligne l’importance des débats portant sur l’intromission de l’IA dans l’art, la musique, la littérature et la culture. En effet, en en plus des questions relatives à la propriété intellectuelle, ces activités sont étroitement liées à notre imagination et créativité, capacités qui forment aussi le socle de nos possibilités de résister et de penser par nous-mêmes.The Conversation

Antonio Pele, Associate professor, Law School at PUC-Rio University & Marie Curie Fellow at IRIS/EHESS Paris & MSCA Fellow at the Columbia Center for Contemporary Critical Thought (CCCCT) w/ the HuDig19 Project, Université Paris Nanterre – Université Paris Lumières

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Des conseils d'administration inquiets et mal préparés face à la menace cyber

Alors que les Assises de la Sécurité ouvrent leurs portes ce mercredi 11 octobre, pour trois jours de réflexion sur l’état de la cybersécurité en France, la société de cybersécurité Proofpoint f ait le point sur le niveau de préparation des organisations face à l’avancée de la menace.  Cette année encore, les résultats montrent que la menace cyber reste omniprésente en France et de plus en plus sophistiquée. Si les organisations en ont bien conscience,  augmentant leur budget et leurs compétences en interne pour y faire face, la grande majorité d’entre elles ne se sont pour autant, pas suffisamment préparées pour l’affronter réellement, estime Proofpoint. En France, 80 % des membres de conseils d’administration interrogés estiment que leur organisation court un risque de cyberattaque d’envergure, contre 78 % en 2022 – 36 % d’entre eux jugent même ce risque très probable. Et si 92 % d’entre eux pensent que leur budget lié à la cybersécurité augmentera au cours des 12 prochains mois, ces