Accéder au contenu principal

Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine

  Portraits de John Hopfield et Geoffrey Hinton, lauréats du prix Nobel de physique 2024 pour leurs découvertes et inventions qui ont permis de développer l'apprentissage machine avec des réseaux de neurones artificiels. Niklas Elmehed © Nobel Prize Outreach Par  Thierry Viéville , Inria Le prix Nobel de physique 2024 récompense des travaux précurseurs de John Hopfield et Geoffrey Hinton sur les réseaux de neurones artificiels, à la base de l’apprentissage machine. Ces travaux ont participé au développement de l’intelligence artificielle, qui chamboule aujourd’hui de nombreux secteurs d’activité. C’est à une question simple que John Hopfield et Geoffrey Hinton ont apporté une réponse qui leur vaut aujourd’hui le prix Nobel de physique : « Quelle est la description la plus simple que nous pourrions faire de nos neurones, ces composants du cerveau, siège de notre intelligence ? » Un neurone, qu’il soit artificiel ou biologique, est u

Des robots de plus en plus proches des humains

Depuis les années 50, les robots se rapprochent de nous. La cohabitation va-elle se changer en « incarnation » ? Louis-Philippe Demers, via ARS Electronica on Flickr, CC BY-NC-ND
Ganesh Gowrishankar, Université de Montpellier

Notre société change. De plus en plus, nous accueillons une nouvelle espèce parmi nous. Les robots.

Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain.

Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau.

La première génération d’interactions humain-robot, pour l’industrie

Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Schéma des quatre générations d’interactions
Ma vision personnelle de l’évolution de nos interactions avec les robots depuis les années 50. Ganesh Gowrishankar, Fourni par l'auteur

Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d'observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

chaine d’assemblage de voitures
Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains. Spencer Cooper/Flickr, CC BY-ND

Travailler côte à côte

La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

Interagir avec les humains

La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

un robot de rééducation
Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA

Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu'au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Contester la définition du corps humain

Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l'homme d'utiliser un corps de robot pour lui faire réaliser des tâches précises). D'autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

photo de main avec le 6ᵉ doigt accroché
Un sixième doigt robotique. Yoichi Miyawaki/Sixth finger Project, Fourni par l'auteur

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d'analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C'est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.The Conversation

Ganesh Gowrishankar, Chercheur au Laboratoire d'Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips. En