Accéder au contenu principal

Le bitcoin : une « valeur refuge » peut-elle être virtuelle ?

  Les fortes variations du cours du bitcoin sont-ils le signe de sa folle jeunesse ? Shutterstock Oatawa Par  Hervé Alexandre , Université Paris Dauphine – PSL Pour quelles raisons le cours de l’or et celui du bitcoin se sont-ils envolés au mois de février 2024 ? Faut-il voir dans cette concordance davantage qu’un hasard, l’un devenant après l’autre une valeur refuge prisée des particuliers et bientôt des institutionnels comme semblait l’indiquer la chroniqueuse économique de France Infos ? Avant de tenter d’apporter quelques éléments de réponse à cette question, rappelons que, de manière générale, notre monde se numérise inexorablement. À part quelques nostalgiques et autres collectionneurs, nous n’achetons plus de disque en vinyle ni de CD. Nous téléchargeons des morceaux de musique, quand nous ne les écoutons pas tout simplement en streaming . Dans ce dernier cas, moyennant le paiement d’un abonnement, nous pouvons écouter un morceau sans

Apprendre la langue des signes grâce à l'IA générative et aux avatars en 3D


Grâce à de l'intelligence artificielle, des « avatars signant » peuvent communiquer en langue des signes et produire des ressources numériques pour les personnes sourdes. 3DPro et Motion-Up, Fourni par l'auteur
Par Sylvie Gibet, Université Bretagne Sud

Face aux problèmes d’accessibilité qui touchent un nombre croissant de personnes sourdes, les chercheurs s’intéressent aux nouvelles technologies pour l’apprentissage des langues des signes. Dans le domaine du numérique, les recherches se focalisent aujourd’hui sur le développement d’intelligences artificielles (IA) permettant de traduire automatiquement une langue vocale écrite ou parlée en langue des signes et vice-versa, en utilisant des avatars signant en 3D.

Les applications visées concernent notamment la traduction automatique qui permet de produire du contenu en langue des signes à partir de texte (SMS, contenu web…) ou de parole, de sous-titrer textuellement des vidéos en langue des signes, ou encore de concevoir des applications pédagogiques et des videobooks destinés aux enfants sourds. Faciliter la communication des personnes sourdes et leur accès à l’information et ainsi favoriser leur inclusion dans la société est l’objectif premier de ces travaux.

Des contraintes propres aux langues des signes

Les langues des signes sont des langues à part entière qui constituent des piliers de l’identité et des cultures sourdes. Il existe autant de langues des signes que de communautés de personnes sourdes, avec leurs déclinaisons nationales, leurs spécificités et leurs variantes régionales. Elles sont pratiquées non seulement par les personnes sourdes, mais également par toutes les personnes faisant partie de leur environnement familial, éducatif et professionnel. La langue des signes française (LSF) est la langue gestuelle pratiquée par les personnes sourdes de France. Longtemps interdite, elle n’a été reconnue qu’en 2005, ce qui peut expliquer le fait qu’elle soit peu dotée en matière de ressources telles que des ouvrages de référence lexicographiques, grammaticaux, voire encyclopédiques, ou encore des données numériques annotées.

Les rares bases de données de langues des signes existantes sont généralement constituées de vidéos, éventuellement accompagnées de traductions en langue vocale écrite. C’est vrai en particulier pour la LSF qui dispose essentiellement de dictionnaires lexicaux accessibles sur le Web. De plus, il n’existe pas de consensus dans la communauté internationale travaillant sur les langues des signes pour en définir une forme écrite. Il est donc difficile de procéder, comme pour les langues vocales, à l’alignement entre une vidéo en langue des signes et le texte correspondant. Le développement d’outils numériques dédiés aux langues des signes soulève par conséquent des enjeux linguistiques et technologiques importants.

Des spécificités linguistiques

Avec des grammaires qui leur sont propres, les langues des signes viennent bouleverser les théories associées aux langues vocales ou écrites. Portées par les modalités visuelle et gestuelle, elles sont caractérisées par la mise en parallèle et la simultanéité des mouvements et des configurations des mains, mais aussi des mouvements non manuels incluant l’orientation du buste, les expressions faciales et la direction du regard.

De plus elles s’appuient sur des dynamiques iconiques et spatiales. Ainsi, le locuteur sourd déploie son discours dans l’espace qui l’avoisine : il positionne par ses gestes les entités de son discours, animées ou non, à des emplacements spécifiques de l’espace qui permettent de référencer et de rappeler ces entités.

L’iconicité, qui s’exprime par une relation de ressemblance entre le geste et ce qu’il signifie, se manifeste de différentes façons. Certaines configurations manuelles, porteuses de sens, peuvent représenter des signes lexicaux (un avion, une personne), ou être insérées dans un énoncé. Par exemple, la phrase « l’avion décolle » est représentée en LSF par un seul signe réalisé à deux mains : l’une des mains (forme plate) représente la piste statique, l’autre main, dynamique, représente l’avion dont le mouvement suit sa trajectoire relativement à la piste.

Ces caractéristiques iconiques et spatiales, omniprésentes dans les langues des signes, supposent des mécanismes grammaticaux qui exploitent la géométrie dans l’espace ainsi que la temporalité des mouvements. Cela constitue un défi technique à relever pour la synthèse des mouvements.

Créer des avatars signant animés avec la motion capture

D’un point de vue numérique, la vidéo, qui reste le média privilégié des sourds, ne permet pas de garantir l’anonymat et impose de fortes contraintes au niveau du stockage et du transport des données. Une réponse adaptée pour la production de langue des signes se trouve dans les avatars signant, des personnages virtuels animés en 3D capables de signer des énoncés. Grâce à des interfaces 3D interactives intégrant ces avatars, il devient alors possible d’éditer les animations, de les ralentir, de les rejouer, de changer de point de vue ou de zoomer sur des parties spécifiques du corps de l’avatar, voire de modifier son apparence graphique. Concevoir de tels avatars signant nécessite d’enregistrer au préalable les mouvements d’une personne sourde par des techniques de capture de mouvement (motion capture ou mocap) et d’adapter ces données à un modèle de personnage 3D.

Au cours de la dernière décennie, la traduction d’un texte en une animation signée a été réalisée grâce à des algorithmes s’appuyant sur des données de mocap. Ces algorithmes permettent de synthétiser de nouveaux énoncés par concaténation de mouvements existants. Si ces approches sont satisfaisantes en termes de précision et de qualité de la langue des signes produite, elles nécessitent des traitements des données de mocap très longs, fastidieux et complexes à automatiser. De plus, la création de nouveaux énoncés reste contrainte par le vocabulaire et les structures grammaticales des énoncés initialement enregistrés. Avec ce type de technologie, il semble difficile de construire de grands corpus de données avec des phrases contenant des variations sémantiques dans des domaines thématiques diversifiés.

Générer du contenu en langue des signes avec des IA génératives

Les avancées récentes des IA génératives dans le domaine de la génération de textes, d’images ou de vidéos ouvrent des perspectives évidentes en matière de traduction entre langue vocale (parlée ou écrite) et langue des signes. Les travaux de recherche actuels visent à intégrer ces avancées en développant des architectures de réseaux de neurones profonds adaptées au traitement automatique des langues. Grâce à des algorithmes d’apprentissage automatique, ces derniers apprennent, en exploitant de grandes bases de données, à identifier et reconnaître les tendances et les corrélations cachées dans les données afin de produire de grands modèles de langue de plus en plus efficaces et polyvalents.

Dans le cadre des langues des signes, les réseaux de neurones apprennent en parallèle et en contexte les caractéristiques linguistiques (par exemple une configuration manuelle) et cinématiques (par exemple une séquence de postures de squelette 2D ou 3D) extraites respectivement des phrases et des mouvements.

L’IA au service de l’insertion des personnes sourdes

Si les performances de ces systèmes, notamment en termes de précision des animations produites, peuvent être améliorées dans un futur proche, ils permettent d’ores et déjà d’augmenter considérablement les ressources disponibles, notamment en remplaçant les vidéos par des animations d’avatars 3D de haute résolution. De plus, des méthodes qualifiées de bout en bout (end to end) permettront de concevoir un réseau neuronal global pour des tâches complexes de traduction d’une langue vers une autre.

À court terme, il devient possible d’inclure ce type d’outil numérique de traduction automatique dans des applications pédagogiques exploitant les logiques respectives des grammaires en langues vocale et signée, favorisant ainsi l’apprentissage coordonné des deux langues. Ces ressources langagières et ces outils numériques sont indispensables pour assurer l’accès des personnes sourdes aux parcours éducatifs, passages obligés pour l’acquisition des connaissances et des compétences nécessaires à une insertion réussie dans la société.


Le projet SignToKids est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.The Conversation

Sylvie Gibet, Professeure des universités en informatique, Université Bretagne Sud

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in

Des conseils d'administration inquiets et mal préparés face à la menace cyber

Alors que les Assises de la Sécurité ouvrent leurs portes ce mercredi 11 octobre, pour trois jours de réflexion sur l’état de la cybersécurité en France, la société de cybersécurité Proofpoint f ait le point sur le niveau de préparation des organisations face à l’avancée de la menace.  Cette année encore, les résultats montrent que la menace cyber reste omniprésente en France et de plus en plus sophistiquée. Si les organisations en ont bien conscience,  augmentant leur budget et leurs compétences en interne pour y faire face, la grande majorité d’entre elles ne se sont pour autant, pas suffisamment préparées pour l’affronter réellement, estime Proofpoint. En France, 80 % des membres de conseils d’administration interrogés estiment que leur organisation court un risque de cyberattaque d’envergure, contre 78 % en 2022 – 36 % d’entre eux jugent même ce risque très probable. Et si 92 % d’entre eux pensent que leur budget lié à la cybersécurité augmentera au cours des 12 prochains mois, ces