Dans un contexte où la société française prend de plus en plus conscience de son empreinte numérique, l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (ARCEP) et l'Agence de la transition écologique (ADEME) viennent de franchir un pas décisif. Ces deux institutions ont annoncé ce jeudi 12 décembre la création d'un observatoire des impacts environnementaux du numérique, une initiative qui promet de révolutionner notre compréhension des enjeux écologiques liés aux technologies de l'information. Cette plateforme, fruit d'une collaboration initiée en 2020 à la demande des ministères de la Transition écologique et de l'Économie, vise à devenir une référence incontournable en matière de données fiables sur l'empreinte environnementale du numérique. "L'observatoire a vocation à constituer une plateforme de référence en matière de données fiables et sourcées sur les impacts environnementaux du numériqu...
Par Antoine Chéron, avocat associé, www.acbm-avocats.com
Depuis maintenant plusieurs années, le secteur de la technologie robotique a été particulièrement marqué par le développement de l’intelligence artificielle. La société des machines dans laquelle nous vivons aujourd’hui semble être à l’aube d’une nouvelle ère, où les robots ne seraient non plus utilisés à des fins purement techniques, mais seraient dotés d’une véritable intelligence et autonomie, leur permettant de remplacer l’homme dans l’accomplissement de certaines tâches. Plusieurs applications de l’intelligence artificielle ont déjà été pensées, notamment dans les domaines de la production et le commerce mais également dans le transport, les soins médicaux, l’éducation et l’agriculture, avec pour objectif l’amélioration de la vie des peuples et la croissance économique.
Si ces nouvelles avancées technologiques sont le symbole du progrès et de l’avenir, elles apportent également un lot important de risques et de problématiques auxquels il est impératif d’apporter un encadrement et une protection juridique adaptés. En effet, le développement de l’intelligence artificielle soulève nécessairement des questions, en matière d’éthique, de sécurité, mais aussi de respect, de protection et de garantie de nos valeurs, et de nos droits et libertés fondamentaux.
Dans une proposition de résolution contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103 (INL), le Parlement européen s’est prononcé en faveur de la reconnaissance d’une personnalité juridique spéciale pour les robots, pour « qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis y compris celui de réparer tout dommage causé à un tiers ».
En revanche, dans un avis publié le 31 mai 2017, le Conseil économique social et européen (CESE) s’y est opposé, préférant plutôt une approche « human in command », de l’intelligence artificielle, dans laquelle « les machines restent des machines que les hommes ne cessent jamais de contrôler » comme l’a déclaré la rapporteur Catelijne Muller, ce pour des raisons compréhensibles de développement responsable, sûr et utile de l’intelligence artificielle.
Le CESE avance comme principal argument pour justifier sa position, le fait que les effets correctifs préventifs du droit de la responsabilité civile seraient mis à mal, ce que le Parlement européen avait d’ailleurs déjà remarqué, en notant que « les règles habituelles ne suffiraient pas à établir la responsabilité du robot, puisqu’elles ne permettraient pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés ». Le CESE soutient par ailleurs que la reconnaissance de la personnalité juridique aux robots créerait des risques d’abus et moraux trop importants.
On peut soulever de nombreuses autres difficultés que poserait la reconnaissance d’une personnalité juridique pour les robots.
En effet, bien que reconnus comme sujets de droits, les robots devront nécessairement être représentés et gérés de façon ultime par un être humain. Dès lors, quel serait le mode de désignation de ce représentant ? De plus, la notion de responsable de l’éducation du robot devrait être définie de façon très précise dans l’hypothèse où le robot serait mis à la disposition d’utilisateurs tiers.
La personnalité juridique impliquera la reconnaissance de droits. Un robot peut-il bénéficier de droits patrimoniaux impliquant qu’ils puissent être rémunérés ? Doit-on reconnaître aux robots des droits fondamentaux, similaires à ceux accordés aux personnes morales, tel que la protection des biens, l’accès à la justice, la liberté d’expression, d’entreprendre, ou encore le principe d’égalité.
Enfin, et surtout, se pose la problématique fondamentale de la sécurité. Le CESE distingue la sécurité interne de la sécurité externe. La sécurité interne conduit à se poser la question de savoir si le système d’intelligence artificielle est suffisamment solide pour (continuer à) fonctionner correctement, si l’algorithme est fiable, efficace. La sécurité externe quant à elle se rapporte plutôt à l’utilisation du système d’intelligence artificielle au sein de la société, aussi bien dans une situation normale, qu’inconnue, critique ou imprévisible.
Autant de questions et d’incertitudes qui ont mené le CESE à se prononcer contre la reconnaissance de la personnalité juridique aux robots, et à émettre une série de propositions.
Ainsi, le CESE propose la création d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’intelligence artificielle, afin que l’exploitation des robots ne porte pas atteinte à la dignité humaine, l’intégrité personnelle, la liberté, le respect de la vie privée, la diversité culturelle et plus largement aux grands principes protecteurs de l’être humain.
Le CESE propose également la mise en place d’un système paneuropéen de normalisation pour la vérification, la validation et le contrôle des systèmes d’intelligence artificielle, avec des normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques, tel qu’il en existe dans les secteurs de l’alimentation et des appareils ménagers.
Enfin, le CESE souhaite la création d’une infrastructure d’intelligence artificielle européenne, composée de cadres d’apprentissage libres et respectueux de la vie privée, d’environnements d’essai en situation réelle et de séries de données de haute qualité pour que le développement et la formation des systèmes d’intelligence artificielle se fassent dans un cadre sûr et adapté.
Bien qu’un robot doté d’intelligence artificielle puisse prendre des décisions et agir de manière indépendante et autonome, il n’en demeure pas moins que cela résulte d’une programmation développée par l’homme. Dès lors, le robot n’existe pas par lui-même. A cela s’ajoute les risques qu’il représente pour l’être humain et la société en général, justifiant la position de la CESE concernant la reconnaissance d’une personnalité juridique aux robots, aussi spécifique soit-elle.