Accéder au contenu principal

L’IA au travail : un gain de confort qui pourrait vous coûter cher

Par  Kathleen Desveaud , Kedge Business School L’intelligence artificielle promet un soulagement face à l’ennui des tâches répétitives au travail, mais son usage excessif pourrait entraîner une déqualification progressive et une nouvelle forme de frustration professionnelle. Entre automatisation bénéfique et risque de « travail zombie », comment faire de l’IA un allié du développement des compétences plutôt qu’une source d’appauvrissement cognitif ? L’impact de l’intelligence artificielle (IA) sur les métiers est un sujet majeur , qui a été traité dans de nombreuses études . Si la question de la disparition des emplois retient souvent l’attention, une autre question de fond mérite d’être considérée : comment ces technologies transforment et transformeront-elles concrètement le quotidien, les compétences et la motivation des travailleurs ? L’IA, un remède contre l’ennui au travail ? L’IA est parfois présentée comme un parfait remède a...

Algorithmes de profilage : les dérives d’un système où l’humain devient le simple exécutant de la machine

 

algorithmes

Par Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies, professeur et coordinateur du programme Droit du Numérique & Propriété Intellectuelle et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD)

Une enquête du Monde montrait cette semaine comment la CAF faisait appel aux algorithmes pour orienter ses contrôles auprès des allocataires (Cliquez ici pour découvrir l'enquête). Ce type de dérive touche des millions de personnes et appelle à mettre en place de nouveaux garde-fous. 

Les décisions automatisées sont de plus en plus répandues aux États-Unis, dans l’administration, la justice, les banques ou autres instances qui traitent des données de millions de personnes. Le régime que nous connaissons en Europe est théoriquement plus protecteur : le RGDP interdit les décisions automatisées en tant que telles, sauf exceptions. Ces exceptions sont notamment la nécessité de la décision pour conclure ou exécuter un contrat avec la personne concernée ; ou le consentement explicite de celle-ci (Art 22 du RGPD). Dans ces cas, la personne peut exiger de parler à un être humain pour comprendre la décision qui a été prise, exprimer son point de vue et contester la décision. 

Mais nombre de décisions sont prises par les humains à l’aide d’outils d’aide à la décision. C’est le cas des décisions de contrôle prises par la CAF ; par le trésor public pour le contrôle de certaines infractions fiscales, par des banques pour l’octroi d’un crédit, par les assurances pour assurer tel risque, etc… Ces décisions ne sont pas à strictement parler des décisions automatisées et ne rentrent pas dans le régime protecteur de l’art 22 du RGPD. 

Mais, et c’est là le risque pour nos sociétés, ces recommandations sont suivies par les agents humains dans l’écrasante majorité des cas. La polémique du système de contrôles de la CAF en est une illustration. En effet, quel fonctionnaire ou salarié du secteur privé prendrait le risque de contredire la recommandation émise par l’algorithme, au risque de se voir reprocher cette attitude par ses supérieurs et a fortiori si la recommandation s’avérait juste a posteriori ? En outre, cette contestation se heurterait aux objectifs sous tendant ces systèmes, en termes de rapidité d’exécution et de productivité, et d’efficacité des décisions. 

Ce système fait de l’humain un simple exécutant de la machine, de l’algorithme, qui a ses biais. 

Ni les usagers de ces systèmes, agents de l’administration, salariés dans la banque, l’assurance, ou autres, ni les personnes concernées (dont certaines sont dans des situations précaires, comme on peut le constater dans le cas de la CAF), ne sont formés aux problématiques posées par les systèmes d’aide à la décision, à leur biais et à leurs dérives potentielles. Cela pose de gros problèmes de transparence.  

Paradoxalement, le Digital Service Act (DSA), règlement européen sur les services numériques, demande aux plateformes privées une transparence accrue dans l’utilisation des algorithmes, par exemple pour le ciblage publicitaire et le système de recommandations. 

Les outils d’aide à la décision utilisent les technologies d’intelligence artificielle, et peuvent avoir un impact négatif sur les droits fondamentaux des personnes. C’est à juste titre que le projet de règlement sur l’intelligence artificielle (IA Act), actuellement en dernière phase de trilogue, les classe à « haut risque » et les soumet à des exigences spécifiques, notamment leur évaluation avant leur mise sur le marché et tout au long de leur cycle de vie.

En attendant la finalisation de l’IA Act, nous pouvons envisager trois types de solutions cumulatives pour pallier aux effets négatifs des outils d’aide à la décision sur les droits fondamentaux des personnes : 

  • Travailler en amont pour éliminer les biais induits de l’algorithmes, en retirant des critères non pertinents et en responsabilisant les fabricants de systèmes d’aide à la décision basés sur l’intelligence artificielle. 
  • Renforcer la protection en aval en mettant en place un recours effectif et facile  pour la personne concernée, une transparence accrue avec une information pleine et entière sur les critères qui ont prévalu à la décision. 
  • Demander aux organismes utilisant ces outils d’aide à la décision de produire un rapport annuel sur les performances du système, le nombre de réclamations, les risques induits, à l’instar de ce qui est demandé aux plateformes au titre du DSA

Nous devons garantir que la technologie reste au service de l’humain et non l’inverse. A l’échelle individuelle, le fait de se reposer sur les algorithmes peut être problématique si nous ne faisons plus appel à notre propre esprit critique. A l’échelle globale, le danger est la déshumanisation, avec des dérives systémiques dont la CAF n’est qu’un exemple parmi d’autres. 

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...