Accéder au contenu principal

Marchés prédictifs en ligne : miser sur un résultat sportif… ou sur la guerre en Ukraine

Par  Léo-Paul Barthélémy , Université de Lorraine Certains parient sur l’issue de tel ou tel événement sportif. D’autres sur l’évolution à court terme d’un indicateur économique largement suivi. D’autres encore – parfois les mêmes – engagent des sommes importantes sur des questions nettement plus discutables d’un point de vue moral, comme la prise d’une ville en Ukraine par l’armée russe. Les sites permettant ce type de paris sont en plein essor. Un marché prédictif n’est pas tout à fait un site de paris. C’est un dispositif de spéculation collective dans lequel des participants achètent et vendent des contrats indexés sur la réalisation d’un événement futur précisément défini (« X aura lieu avant telle date », « Y gagnera l’élection », etc.). Le prix de ces contrats fluctue en fonction de l’offre et de la demande : plus un événement est jugé probable par les participants, plus le contrat associé est recherché et plus son prix augmente. À la...

Se confier à une IA : trois questions juridiques sur les chatbots et l’adolescence

ia

Par Nathalie Devillier, Auteurs historiques The Conversation France

Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?


Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.

L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?

Le paradoxe de la protection : ignorer un besoin ou encadrer un risque ?

Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.

Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.

Quelles réponses le droit peut-il apporter ?

Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.

La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.

L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).

Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.

La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.

La responsabilité des concepteurs : quand le design devient préjudice

En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.

Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?

La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.

Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.

La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.

Les IA « génératives », des produits de consommation défectueux ?

Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).

Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.

Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.

L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.

La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).

La responsabilité institutionnelle : jusqu’où peut-on externaliser le soutien psychologique ?

La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?

Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.

L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.

Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.

Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.The Conversation

Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

Comment savoir si je suis touché par un logiciel espion ?

Par Allan Camps, Senior Enterprise Account Executive chez Keeper Security Les logiciels espions sont des logiciels malveillants qui, installés à votre insu sur votre appareil, permettent aux cybercriminels de vous espionner et de voler vos informations privées. Ces informations peuvent ensuite être utilisées par des cybercriminels ou vendues sur le dark web pour commettre des fraudes ou des usurpations d'identité. Il est possible de repérer ces logiciels malveillants sur votre appareil en observant des signes particuliers tels que l'épuisement rapide de la batterie, la surchauffe, l'augmentation du nombre de fenêtres pop-up ou de l'utilisation des données, et la présence d'applications inconnues. Comment détecter un logiciel espion sur votre smartphone Android ou votre iPhone ? Recherchez les applications que vous n'avez pas téléchargées. Les applications que vous n'avez pas téléchargées peuvent se cacher dans votre bibliothèque et contenir des logiciels ...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

Tribune libre. Maison et objets connectés : une véritable French touch

Alexandre Chaverot est président d' Avidsen et de Smart Home International Réjouissons nous que la France soit précurseur dans le domaine de la maison et des objets connectés. Oui, il existe un vrai savoir faire, une véritable « patte » française. Il n'y a qu'à voir le nombre de start-up qui existent et évoluent dans ce domaine là : Sigfox pour la partie protocole de communication, Netatmo sur l'objet connecté autour de la régulation thermique, MyFox sur la sécurité et, évidemment, Avidsen sur l'univers de la maison intelligente. Sans parler des grands groupes comme Legrand , Schneider , Somfy qui travaillent aussi sur ces sujets là et qui nous challengent. A moins que ce ne soit nous, les petites « boîtes » qui les challengions. En tant qu'entreprises françaises, nous n'avons donc pas à rougir par rapport à ce qu'il se passe en Asie ou aux États-Unis en matière de produits et de développement. Le « faire savoir » devient plus que nécessai...

Le retour de la pellicule argentique : Kodak investit pour l'avenir

La photographie argentique, longtemps considérée comme une relique du passé, connaît un regain d'intérêt spectaculaire en 2024. Kodak, l'emblématique entreprise américaine, a récemment annoncé des investissements significatifs pour moderniser ses infrastructures et augmenter sa production de pellicules. Cette décision intervient alors que la demande pour les films argentiques explose, portée par une nouvelle génération de passionnés et de créateurs en quête d'authenticité. L'engouement pour l'argentique n'est pas un simple effet de mode. Il s'agit d'un véritable retour aux sources, où la qualité des couleurs, les textures uniques et le processus créatif de la photographie analogique séduisent autant les amateurs que les professionnels. Kodak, conscient de cet engouement, s'engage à produire des films aussi longtemps que la demande existera. Cette modernisation de l'usine de Rochester, où sont fabriqués les films emblématiques de Kodak, représente...