Accéder au contenu principal

Les GreenTech ont-elles rendu le changement d’heure obsolète ?

"Ce dimanche 25 mars, le changement d'heure va nous faire perdre 1h de sommeil mais surtout, nous fera-t-il réellement économiser de l'énergie ? " s'interroge Eficia, une GreenTech (start-up spécialisée dans les nouvelles technologies dédiées à la protection de l'environnement) qui optimise la performance énergétique des bâtiments. La société plaide pour le développement de son secteur en France. En France, le changement d'heure tel qu'on le connaît aujourd'hui a été mis en place en 1976, trois ans après un premier choc pétrolier qui aura eu des conséquences économiques et environnementales importantes pour les pays occidentaux. Cette période marque le démarrage embryonnaire des premières actions européennes en faveur de l’environnement. Pour l'anecdote, cette mesure fut d’abord une idée, celle de Benjamin Franklin, finalement mise en oeuvre durant la Première Guerre Mondiale, pour "participer à l’effort de guerre", avant d’être aband

Comment garantir des robots sans danger ? L’exemple des bus à conduite automatisée

bus
Les bus à conduite automatisée n'ont pas de chauffeurs. Ils doivent « décider » seuls quand accélérer et ralentir tout en garantissant la sécurité des passagers. Dennis Schroeder / NREL, CC BY-NC-ND
Par Pierre-Brice Wieber, Inria

Les robots arrivent petit à petit dans nos vies quotidiennes, des chaînes de production en usine au serveur de café, jusqu’aux bus à conduite automatisée qui sont entrés en phase de test, notamment en région parisienne.

Comment faire en sorte que leur autonomie (relative) s’exerce sans danger pour les humains ?

Alors que les dérives de nos créatures sont amplement explorées dans des œuvres de fiction, de Frankenstein de Mary Shelley à I, Robot d’Isaac Asimov (recueil de nouvelles adapté au cinéma en 2004), il faut aujourd’hui passer de ces réflexions littéraires à des règles mathématiques pour programmer des robots bien réels.

Dans les pas d’Isaac Asimov, père de la robotique

Isaac Asimov fait signe à un taxi
Isaac Asimov s’apprêtant à monter dans un transport en commun. Ed McDonald/Flickr, CC BY-NC

Isaac Asimov était professeur de biochimie à la Boston University. Il fut surtout un grand auteur de science-fiction, le premier notamment à entrevoir qu’il y aurait un jour une science dédiée aux robots. Il utilisa ainsi dès 1941, dans la nouvelle intitulée Menteur ! (relatant une histoire censée se passer de nos jours, en 2021 !), le mot robotique à une époque où les robots n’étaient encore que pure fiction, sans savoir que ce mot n’existait pas et qu’il venait donc de l’inventer. Il développa alors une réflexion sur les principes logiques qui devraient guider leur comportement, et il peut à ce titre être considéré comme le premier roboticien de l’histoire.

Aujourd’hui, un robot est une réalité : une machine contrôlée par un ordinateur, réunion d’un corps mécanique et d’un cerveau électronique, constituant une interface entre le monde numérique des ordinateurs et notre monde physique. Ce qui définit un robot et le sépare des autres outils fabriqués par les humains est son autonomie relative et son ambition d’être, plus qu’un outil qu’on utilise, un partenaire auquel nous pouvons déléguer des tâches.

Pour éviter que cette autonomie relative s’exerce aux dépens de ses créateurs, Isaac Asimov proposa trois lois :

Première loi : Un robot ne doit pas blesser un être humain ou, par inaction, permettre qu’un être humain soit blessé.

Deuxième loi : Un robot doit obéir aux ordres que lui donnent les êtres humains, sauf si ces ordres sont en conflit avec la première loi.

Troisième loi : Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Mais pour être efficace, le langage humain est nécessairement ambigu, son sens dépendant d’un contexte et d’un sens commun supposés partagés implicitement. Exprimées ainsi, ces trois lois peuvent être interprétées diversement selon les situations, entraînant autant de catastrophes potentielles qu’Isaac Asimov illustra lui-même abondamment dans ses récits de science-fiction. Par exemple, dans la nouvelle intitulée « Menteur ! » mentionnée précédemment, un robot décide de mentir à ses interlocuteurs humains pour ne pas les blesser émotionnellement, sans mesurer que les conséquences de ses mensonges finiront par être bien plus graves.

Comment s’y prendre alors pour programmer le comportement d’un robot, par exemple un bus à conduite automatisée ? Il s’agit d’un véhicule de 15 tonnes, qui est en train d’être mis au point, pour transporter 100 passagers à 40 kilomètres par heure en pleine ville de façon automatisée. Il serait irresponsable de soumettre le fonctionnement et notamment la sécurité de ce bus à de possibles aléas d’interprétation.

Traduire des lois en algorithmes

Il revient donc aux humains programmant ce bus d’anticiper les situations auxquelles il sera confronté, de donner un sens adéquat et précis à ces lois dans ces situations, et de les reformuler alors dans le langage le moins ambigu dont on dispose : celui des mathématiques et de l’informatique.

Par exemple, des décélérations trop fortes peuvent être extrêmement dangereuses pour les passagers assis, qui ne sont généralement pas maintenus par des ceintures de sécurité, et encore plus pour les passagers debout qui peuvent chuter. Notre équipe a donc postulé deux premières lois pour notre bus sans conducteur :

Première loi : Un bus ne doit jamais accélérer ou décélérer au-delà d’une limite de sécurité afin de ne pas mettre en danger ses propres passagers.

Deuxième loi : Tant qu’il est en mouvement, un bus doit maintenir une distance de sécurité vis-à-vis de son environnement extérieur afin d’éviter tout risque de collision, sauf si cela entre en conflit avec la première loi.

Il est généralement possible d’anticiper quelques secondes à l’avance comment l’environnement d’un bus va évoluer. En exigeant que notre bus soit toujours capable de s’arrêter en cas de besoin dans la limite de ces quelques secondes, on garantit qu’il respecte ces deux lois même au-delà : il resterait ensuite à l’arrêt – sans accélérer ni décélérer, et comme il ne serait plus en mouvement, il ne porterait pas la responsabilité première d’une collision, si elle arrivait après coup.

Accélération, décélération, distance, mouvement sont des attributs physiques sans ambiguïté que l’on peut mesurer, calculer de façon indiscutable. Ces deux lois peuvent alors être représentées comme autant de contraintes mathématiques. Elles peuvent ensuite être prises en compte par un algorithme de satisfaction de contraintes en charge de calculer le mouvement que notre bus doit réaliser pour les satisfaire. Dans notre cas, nous avons mis au point un algorithme d’optimisation lexicographique pour respecter la hiérarchie de priorités en cas de conflit entre ces deux lois.

Des priorités à clarifier

Un conflit entre ces deux lois peut représenter un choix à faire entre la mise en danger des passagers à l’intérieur du bus et celle de personnes dans son environnement extérieur.

Dans ce cas, l’ordre ci-dessus donne la priorité à la sécurité des passagers. Cela peut se justifier ainsi : toute décélération au-delà de la limite de sécurité mettrait immédiatement en danger l’ensemble des passagers du bus, qui n’ont aucune échappatoire, alors qu’une personne extérieure au bus peut avoir encore une chance d’éviter la collision tant que celle-ci n’a pas eu lieu. On peut évidemment décider de hiérarchiser différemment les priorités de notre bus, c’est un débat que nous ne pouvons prétendre trancher ici.

Une fois ces impératifs de sécurité garantis, la raison d’être de ce bus est naturellement d’amener ses passagers à leur destination en temps et en heure :

Troisième loi : Un bus doit rouler à la vitesse prévue par sa fiche horaire tant que cela n’entre pas en conflit avec la première ou la deuxième loi.

On voit donc que les lois d’Asimov fournissent un point de départ intéressant pour aborder le comportement des robots, mais elles doivent être reformulées sous une forme mathématique adaptée à chaque situation afin d’en ôter toute ambiguïté d’interprétation. C’est de cette façon que l’on peut ensuite garantir mathématiquement le comportement d’un robot.

La priorité aux transports en commun

Si la mise au point de véhicules à conduite automatisée bénéficie d’investissements colossaux depuis des années, ce progrès scientifique et technique n’aura un impact écologique positif que s’il porte sur des transports en commun. Car notre époque est avant tout celle d’une crise écologique majeure, constituant une menace existentielle pour l’humanité entière. Face à un défi de cet ordre, Isaac Asimov avait imaginé une loi « zéro » devançant les trois premières en importance :

Loi zéro : Un robot ne doit pas faire de mal à l’humanité ou, par inaction, permettre que du mal soit fait à l’humanité.

Cette loi a peut-être plus que les autres vocation à nourrir une réflexion éthique ne pouvant être réduite à une formule mathématique. C’est en ce sens que le Comité national pilote d’éthique du numérique questionne dans un avis rendu sur les enjeux d’éthique liés au « véhicule autonome » le bien-fondé même de développer de tels véhicules s’il ne s’agit pas de transports en commun : un robot ne devrait pas, par son existence même, contribuer à mettre en péril l’humanité.

Car, si les robots peuvent nous aider à répondre à nos besoins fondamentaux (nourriture, santé, vêtement, logement, déplacement) de manière plus efficace, plus économe, il faut évidemment être attentif à ce que, du point de vue écologique, ils contribuent à la solution et non au problème.The Conversation

Pierre-Brice Wieber, Chercheur en Robotique, Inria

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Univers parallèles et mondes virtuels : la guerre des métavers est commencée

  Une partie de poker dans le métavers (capture d'écran de la vidéo “Le métavers et comment nous allons le construire ensemble” sur YouTube) Par  Oihab Allal-Chérif , Neoma Business School Le 17 octobre 2021, Mark Zuckerberg a lancé les hostilités de manière assez théâtrale, comme s’il défiait ses concurrents d’en faire autant. Afin de concrétiser son rêve d’enfant, le métavers, il a décidé de mettre en œuvre des moyens colossaux : 10 000 ingénieurs hautement qualifiés seront recrutés en Europe dans les 5 prochaines années. Cette annonce a été faite quelques jours avant celle du changement de nom du groupe Facebook en Meta , le 28 octobre, démontrant ainsi l’engagement total du fournisseur de réseaux sociaux dans la transition vers le métavers. Le 22 juillet 2021, dans une interview à The Verge , le créateur de Facebook racontait : « Je pense à certains de ces trucs depuis le collège quand je commençais tout juste à coder. […] J’écrivais du code

Sans Sauvegarde, pas de cyber-résilience

Par Alexandra Lemarigny, directrice commercial Europe du Sud Opentext Security Solutions Les études diverses sur les habitudes de sauvegarde des entreprises et leurs collaborateurs sont sans équivoque : très majoritairement, elles ne s’attardent vraiment sur ces questions de sauvegarde ou de récupération qu’en cas d’incidents. Pourtant la sauvegarde est l’élément majeur des dispositifs de cyber-résilience, à savoir la capacité à rester opérationnel, même face aux cyberattaques et à la perte de données. La sauvegarde n’est pas suffisamment considérée Dans les faits, force est de constater que la sauvegarde n’est pas envisagée dans son entièreté par les entreprises qui n’ont pas eu à subir d’accidents et il est fréquent qu’elles ne sauvegardent pas les éléments les plus pertinents. A titre d’exemples une entreprise peut ne sauvegarder qu’un ou deux serveurs, ou un élément qu’elle a identifié comme critique quelques années auparavant. Certaines ne tiennent pas compte de l’évolution de leu

Implants cérébraux : la délicate question de la responsabilité juridique des interfaces homme-machine

Dans le film Transcendance , de Wally Pfister, sorti en 2014, le héros mourant transfère son esprit dans un ordinateur quantique. Wally Pfister, 2014 Par  Elise Roumeau , Université Clermont Auvergne (UCA) Depuis quelques années, Elon Musk ne cesse de faire des annonces relatives à des avancées technologiques. Voitures autonomes , voyages interplanétaires , interface homme-machine , achat du réseau social Twitter… rien ne semble arrêter l’homme d’affaires. Aucun obstacle technique, géographique, physiologique ne lui semble infranchissable. Pourtant, ses projets pourraient, à court terme, poser de véritables difficultés du point de vue juridique. La recherche d’une fusion entre le cerveau et l’intelligence artificielle Avec Neuralink, l’un des objectifs visés par Elon Musk est de créer une interface entre l’humain et la machine . À plus ou moins court terme, le projet porte sur le développement d’implants cérébraux pour pallier des troubles neur

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor

Sondage : quatre Français sur dix craignent le vol d'identité

Selon un sondage représentatif commandé par le fournisseur de messagerie GMX , de nombreux internautes français sont préoccupés (31%), voire très inquiets (9%), d'être victimes d'un vol d'identité. La majorité craint que des inconnus puissent faire des achats (52%) avec leur argent. Dans le cas d'une usurpation d'identité, les criminels accèdent aux comptes en ligne et agissent au nom de leurs victimes. De nombreuses personnes interrogées craignent que des inconnus signent des contrats en leur nom (37 %), que des escrocs utilisent l'identité volée pour ouvrir de nouveaux comptes (36 %) et que des informations les plus privées tombent entre des mains étrangères ou soient rendues publiques (28 %). Besoin de rattrapage en matière de sécurité des mots de passe Il est urgent de rattraper le retard en matière d'utilisation de mots de passe sûrs selon GMX : 34 % des utilisateurs d'Internet en France utilisent dans leurs mots de passe des informations personnell