Technomedia

Numérique · médias · sciences · intelligence artificielle

Alan Turing : de l’ordinateur à l’IA, parcours d’un génie des maths

 

Pionnier de l’informatique, il a entrevu l’intelligence informatique et aidé les Alliés à remporter la Seconde Guerre mondiale. Alan Turing connut pourtant une fin tragique. Yiming Ma/Unsplash, CC BY
Par Delphine Billouard-Fuentes, EM Lyon Business School
Portrait photographique en noir et blanc d’Alan Turing
Alan Turing à l’Université de Princeton en 1936.

Connu du grand public grâce au film Imitation Game (2014), Alan Turing est un mathématicien anglais né en 1912. Ce film retrace une période marquante de sa vie, au cours de laquelle il a joué un rôle primordial dans le décryptage des messages de l’armée allemande pendant la Seconde Guerre mondiale. Mais la richesse de ses recherches va cependant bien au-delà de son apport à la victoire alliée : pionnier de l’informatique et de l’intelligence artificielle, il reste une figure marquante encore de nos jours.

Un attrait pour les sciences dès l’enfance

Fils d’un fonctionnaire détaché en Inde, Alan Turing débute sa scolarité dans un pensionnat en Angleterre. Peu attentif dans les matières littéraires, il est considéré comme un élève peu brillant, manquant de concentration. Il développe cependant une passion pour les sciences, lisant des ouvrages de sciences naturelles. Très jeune, il se passionne pour la régularité des formes dans la nature et pense qu’il est possible de déterminer les lois qui régissent leur construction.

À la sortie du pensionnat, son niveau en mathématiques lui permet de rejoindre le King’s College de Cambridge, un établissement très sélectif, pour préparer une licence de mathématiques. Après avoir publié plusieurs articles et obtenu une bourse de recherche, il décide de concentrer ses travaux sur le problème de la décision, problème formulé par le mathématicien David Hilbert en 1900. La question est ici de se demander s’il existe un procédé mécanique qui permette de déterminer après un certain nombre d’étapes si un énoncé mathématique est vrai ou faux.

La machine de Turing, ancêtre de l’ordinateur moderne

Cette avancée en mathématiques amène Alan Turing à s’interroger sur la résolution des problèmes calculables. Il établit que les problèmes calculables peuvent être décomposés en différentes étapes et imagine que chacune de ces étapes pourrait être réalisée par une machine. Il élabore une machine à calculer abstraite, appelée machine de Turing.

Celle-ci est composée d’une longue bande de papier divisée en cellules. Chaque cellule peut contenir un 1, un 0 ou un espace vide. Une tête de lecture/écriture peut lire le contenu de chaque cellule et éventuellement le modifier. Après chaque lecture, la tête peut soit se déplacer à gauche ou à droite, soit modifier la valeur inscrite dans la cellule. Une table de transition indique à la machine quelle action réaliser en fonction de la valeur contenue dans la cellule.

Reproduction d’une machine de Turing. Un long ruban, enroulé de chaque côté, passe sous la tête de lecture/écriture
S’il s’agit à l’origine d’une expérience de pensée, la machine de Turing a parfois été reproduite physiquement. On voit ici le ruban qui défile sous la tête de lecture/écriture, au centre de la machine. Rocky Acosta/Wikimedia, CC BY

La réflexion d’Alan Turing l’a même amené à envisager la création d’une machine de Turing universelle, qui pourrait reproduire le fonctionnement de toutes les machines de Turing. Ce concept pose les bases de ce qui sera l’informatique moderne, avec un ordinateur unique permettant d’utiliser différents programmes en fonction de l’objectif visé. Après la parution d’un article sur cette invention, Alan Turing part aux États-Unis pour préparer un doctorat à l’Université de Princeton. Il reviendra cependant en Angleterre au bout de 2 ans en 1938, alors que la Seconde Guerre mondiale s’annonce.

De la « bombe Turing » aux premiers ordinateurs

Dès son retour en Angleterre, Alan Turing rejoint la Government Code and Cypher School pour se former à la cryptographie. Il rejoint ainsi le quartier général des renseignements anglais à Bletchley Park en septembre 1939 pour contribuer à décoder les messages échangés par l’armée allemande.

Au début de la guerre, les Allemands remportèrent de nombreuses victoires, utilisant une machine à coder appelée Enigma pour transmettre les ordres aux troupes sur le terrain. Cette machine permettait de coder les messages à l’aide de clés de chiffrement changées tous les jours. Alan Turing contribue à décrypter ce code en créant les « bombes Turing », des machines permettant de décrypter les messages envoyés en testant toutes les clés de chiffrement possibles en un temps très court. Ainsi, en 1942, entre 40 000 et 80 000 messages étaient décryptés chaque mois ! Certains historiens estiment que des dizaines de milliers de vies ont été sauvées grâce à ces machines.

Après la guerre, Alan Turing rejoint le Laboratoire national de physique près de Londres où il dessine les plans d’un prototype d’Automatic Computing Machine (ACE), le premier prototype d’ordinateur conçu en Angleterre, qui sera mis en service dès 1950 dans une version simplifiée. Mais un laboratoire de l’Université de Manchester réussit à finaliser le premier ordinateur dès 1948, utilisant les principes de la machine de Turing universelle pour le développer. Alan Turing rejoint alors l’université de Manchester, où il endosse le rôle de directeur adjoint du laboratoire d’informatique.

La science cognitive, discipline fondatrice de l’intelligence artificielle

Toujours passionné par les sciences naturelles, Alan Turing envisage progressivement la possibilité de construire un équivalent au cerveau humain. Il imagine ce dernier comme une machine, qui serait non organisée à la naissance et qui le deviendrait grâce à l’entraînement. Il fait alors l’hypothèse que les machines pourraient à leur tour développer une forme d’intelligence, définissant les bases de l’intelligence artificielle. Cette idée novatrice pose les bases de la science cognitive, domaine pluridisciplinaire dont l’objectif est de décrire et expliquer les processus de la connaissance.

Pour démonter cette intelligence des machines, il élabore un test, appelé test de Turing ou « jeu de l’imitation ». Dans ce test, un évaluateur humain observe une conversation écrite entre un être humain et une machine, et doit déterminer quel interlocuteur est la machine. S’il n’y est pas parvenu après 5 minutes, le test est considéré comme réussi. Ce test est encore d’actualité avec l’apparition des intelligences artificielles conversationnelles comme ChatGPT ou Perplexity. Ces IA génératives ont en effet réussi à plusieurs reprises à passer le test de Turing. Pour certains cependant, cela montre que ce critère n’est pas assez fort pour déterminer ce qui relève véritablement de l’intelligence.

Un scientifique remarquable, mais une reconnaissance tardive

Au début des années 1950, Alan Turing retourne vers ses premiers centres d’intérêt et utilise ses multiples connaissances pour étudier la croissance des êtres vivants. Il publie un article dans lequel il modélise la croissance des formes biologiques en utilisant des équations différentielles très complexes. Cet article sera fondamental pour le domaine de la biologie du développement.

Les dernières années de la vie d’Alan Turing seront plus sombres. Accusé d’homosexualité, il accepte un traitement de castration chimique pour éviter la prison. Un après la fin de ce traitement, il est retrouvé mort chez lui après s’être suicidé par empoisonnement au cyanure, potentiellement en mangeant une pomme, retrouvée croquée près de son lit. Il n’aura jamais pu voir l’impact de ses recherches, en particulier dans les domaines de l’informatique et de l’intelligence artificielle.

En 1966, la communauté informatique, à travers l’Association for Computing Machinery (ACM), rend hommage à Alan Turing en créant le prix Turing, une récompense attribuée chaque année à une personne sélectionnée pour ses apports à la communauté informatique. Ce prix est considéré comme étant équivalent à un prix Nobel en informatique et rend le plus beau des hommages à ce scientifique incontournable.The Conversation

Delphine Billouard-Fuentes, Professeur associé, EM Lyon Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Premier rapport sur la cybercriminalité du ministère de l'Intérieur : les atteintes numériques ont bondi de +40% en 5 ans

hacking

Les analyses, études, prospectives sur l’état de la cybercriminalité et des cybermenaces ne manquent pas de la part des sociétés du secteur technologique. À ces données importantes, notamment pour les entreprises, s’est ajoutée ce mardi 30 juillet la publication du premier rapport sur la cybercriminalité du ministère de l’Intérieur.

C’est le CEntre d’analyse et de regroupement des Cybermenaces (CECyber) du COMCYBER-MI, le commandement cyber associant la police et la gendarmerie lancé en 2023, qui a rédigé – en complémentarité avec les analyses annuelles de l’ANSSI – ce document de 54 pages. Il analyse le niveau de la menace cyber qui pèse sur les citoyens, les entreprises (notamment les PME), et les institutions publiques.

cybercriminalité

« 9 Français sur 10 ont déjà été confrontés à une situation de malveillance informatique, notamment à l’hameçonnage (pour 70 % d’entre eux), mais aussi de nouvelles menaces comme le quishing, technique exploitant de faux QR codes pour subtiliser de l’argent », indique le rapport qui a comptabilisé 278 703 infractions liées au numérique enregistrées par les forces de sécurité intérieures en 2023, en augmentation de 9 % par rapport à 2022 et de 40 % en cinq ans, selon le Service statistique ministériel de la sécurité intérieure (SSMSI).

Les femmes particulièrement ciblées

59 % de ces infractions sont des atteintes « numériques » aux biens (escroqueries, arnaques en ligne etc.), 34 % sont des atteintes « numériques » à la personne, 5 % sont des atteintes aux institutions. « Toutes les couches de la population sont concernées par cette cyberdéliquance et notamment les plus jeunes : 47 % des victimes de préjudice financier en ligne ont moins de 44 ans. Les atteintes numériques à la personne visent pour leur part majoritairement les femmes, qui représentent 67 % du total des plaintes déposées. »

« De manière générale, on note une professionnalisation significative des cyberdélinquants, que ce soit en matière d’appropriation des outils techniques, de structuration en véritables réseaux, ou de lien avec les écosystèmes de blanchiment. Certains modes opératoires, tel que celui de la fraude au faux conseiller bancaire, sont réellement industrialisés par les groupes cybercriminels », note le rapport qui sera rendu tous les ans.

« Notre détermination à sécuriser l’espace numérique français est plus forte que jamais et nous continuerons à innover et à coopérer, tant au niveau national qu’international, pour relever ces défis », assure le général de division Christophe Husson, chef du commandement du ministère de l’Intérieur dans le cyberespace. La France est particulièrement exposée aux cybermenaces, notamment dans le contexte de la guerre en Ukraine ou des Jeux Olympiques de Paris 2024.

Deepfake, décryptage d’une arnaque

deepfake

Par Thomas Mannierre, Directeur EMEA Sud de BeyondTrust

L’IA a fait entrer les braquages dans une nouvelle dimension. Plus besoin d’une cagoule noire désormais. En améliorant les attaques d'ingénierie sociale modernes, l’IA a donné naissance à un autre type de menaces : les deepfakes. Bienvenue dans ce qui pourrait être un épisode de Black Mirror !

Le faux CFO de Hong Kong

En début d’année, une entreprise à Hong Kong s’est vue escroquée de 25,6 millions de dollars par un hacker utilisant l’IA et la technologie deepfake pour usurper l’identité d’un directeur financier. Si l'on en croit les rapports d’enquête, l'attaque a simulé un environnement de vidéoconférence complet et utilisé une fausse identité d'un important directeur financier de Hong Kong et d'autres participants à la réunion. La victime ciblée du département financier s'est d'abord méfiée d'un e-mail de phishing prétendant provenir du directeur financier. Cependant, la victime a rejoint une conférence Web au cours de laquelle les attaquants ont reproduit de manière convaincante la voix et l'apparence du directeur financier, et se sont fait passer pour d'autres participants en exploitant une intelligence artificielle (IA) avancée. La victime a ainsi été manipulée socialement par les participants à l'appel vidéo falsifié pour transférer 25,6 millions de dollars sur cinq comptes bancaires différents à Hong Kong.

Deepfake, la menace grandit 

Une attaque de type deepfake exploite la technologie pour créer de nouvelles identités, voler l’identité de personnes réelles ou se faire passer pour de vraies personnes, souvent dans le but d’accéder à des actifs, notamment des informations privilégiées ou de l’argent. Si cette pratique était autrefois observée dans la création d’images, de documents et de vidéos falsifiés, elle est désormais plus fréquemment utilisée pour créer des appels vidéo en temps réel, et même pour usurper l’identité de personnes dans des opérations de vishing élaborées. En 2022 déjà, 66 % des professionnels de la cybersécurité ont déclaré avoir vu des deepfakes exploités lors d’une cyberattaque. La plupart de ces attaques ont pris la forme de vidéos (58 %) plutôt que d’audio (42 %), ciblant les employés principalement par courrier électronique et messagerie mobile. 

Si les deepfakes sont créés à l’aide de diverses méthodes, l’IA porte ce phénomène à un tout autre niveau. Les applications deepfake peuvent utiliser des encodeurs automatiques pour transférer des images et des mouvements d’une image à une autre. Cela permet aux attaquants de créer facilement du contenu audio et vidéo hyperréaliste en temps réel. Des études récentes ont montré que les deepfakes sont de plus en plus difficiles à détecter pour les humains. Ces attaques gagnent en succès, tant en termes économiques que de notoriété.

Les conséquences d'une attaque deepfake

Les pertes financières

L'intelligence artificielle morphing et les menaces de deepfake contribuent à une augmentation générale de l'espionnage d'entreprise. Les attaques de phishing et de spear phishing par deepfake font partie des premières menaces connues utilisant l’IA. Une technique de plus en plus répandue de vol d’identité, connue sous le nom de « compromission d’email professionnel » (BEC), consiste pour un acteur malveillant à se faire passer pour un employé, un fournisseur ou une autre partie de confiance dans une communication par email pour inciter l’employé à envoyer des actifs précieux, comme de l’argent ou des informations privilégiées. Les deepfakes rendent ces attaques plus adaptées à leur cible et plus difficiles à détecter. Dans une note publique, le FBI a classé le BEC comme l’un des crimes en ligne les plus dommageables financièrement et a souligné le fait qu’il exploite la dépendance des organisations aux emails, et désormais aux appels vidéo, pour mener des affaires, tant personnelles que professionnelles. Le BEC a été responsable de 50,8 milliards de dollars de pertes entre octobre 2013 et décembre 2022, selon le Centre de plaintes pour la criminalité sur Internet (IC3) du FBI.

L’exposition ou vol d’actifs privilégiés

Les deepfakes peuvent également servir à obtenir l'authentification d'une identité non autorisée en utilisant une confirmation visuelle ou auditive. Si l'identité piratée fournit un accès privilégié, elle pourrait permettre à l'acteur malveillant de se déplacer latéralement et de prendre le contrôle ou la visibilité des données et systèmes sensibles. Les acteurs malveillants ciblent les équipes du service support via des attaques d’ingénierie sociale. Dans certaines violations, ils ont réussi à persuader les techniciens du ervice support de réinitialiser l’authentification sur des comptes. Cela peut permettre aux cybercriminels de détourner des comptes avec des privilèges et donc de traverser un environnement pour réaliser leurs activités illicites.

Le vol d’identité personnelle et l’atteinte à la réputation

Les deepfakes peuvent également être utilisés pour commettre des vols d'identité et du harcèlement. Les créations médiatiques malveillantes peuvent être d'un réalisme alarmant et peuvent nuire considérablement à la réputation d'une personne ou d'une organisation. Les deepfakes de personnalités, de clients ou d'employés importants peuvent être utilisés pour nuire à la marque ou créer un scandale.

La propagation de la désinformation

Les deepfakes relèvent de la catégorie plus large des médias synthétiques et sont souvent utilisés pour créer des vidéos, des images, des fichiers audio et des textes crédibles et réalistes sur des événements qui n'ont jamais eu lieu. Les reportages falsifiés, par exemple ceux d'une autorité respectée ou d'un présentateur de nouvelles, peuvent exploiter la tendance naturelle des gens à croire ce qu'ils voient et sont très efficaces pour diffuser de la désinformation. Cela peut constituer une menace claire, actuelle et évolutive pour le public dans les domaines de la sécurité nationale, de l'application de la loi, de la finance et de la société.

Mais les entreprises ne sont pas complètement démunies face à l’essor des menaces par deepfake.  Différentes stratégies leur permettent de se protéger contre les menaces modernes basées sur l’identité, telles que les deepfakes. En voici six dont l’efficacité n’est plus à prouver : adopter une stratégie Zero Trust, utiliser soi-même des deepfakes lors de tests de pénétration et d’exercices de formation pour évaluer les vulnérabilités et éduquer les salariés à reconnaître et contrecarrer de telles tactiques de manipulation, mettre en place des authentifications multifacteur (MFA) résistantes au phishing telles que FIDO2, veiller à la gestion des accès privilégiés (PAM), et adopter des technologies et des stratégies modernes, telles que la détection et la réponse aux menaces d’identité (ITDR), qui peuvent détecter de manière intelligente les menaces ou les risques liés à l’identité. 

Le cas du deepfake CFO à Hong Kong sert d'avertissement aux organisations pour qu'elles réévaluent leurs mesures de cybersécurité et leurs processus internes, car de plus en plus de ces types d'attaques modernes sont à venir. Il met en lumière les vulnérabilités émergentes auxquelles nous serons confrontés. Dans ce contexte de menaces, il est devenu primordial de se concentrer sur le zero trust et la sécurité des identités pour parer aux nouvelles attaques qui utilisent des techniques sophistiquées pour manipuler et exploiter les informations personnelles.

L’IA s'invite aux JO de Paris 2024 : quel impact pour le sport

ia
Photo CIO

Par Michel Wong, Consultant Senior CIO Advisory, au sein de Magellan ConsultingMagellan Consulting, (cabinet de Conseil en Organisation et Systèmes d’Information du Groupe Magellan Partners).

L’Intelligence Artificielle dans le sport représentera $29,7 milliards d’ici 2032, avec une croissance annuelle moyenne de 30,1% de 2023 à 2032, selon une étude de Allied Market Research. Elle offre de nouvelles perspectives pour les athlètes professionnels ou amateurs, les organisations sportives, les médias et les fans, transformant ainsi les données sportives en un vecteur de développement stratégique.

Tour d’horizon des cas d’usage

Performance et santé des athlètes
Un des usages les plus répandus est l’analyse prédictive de la performance des athlètes. En monitorant les mouvements, les données physiologiques et les caractéristiques techniques des exécutions, les algorithmes d’apprentissage automatique ou Machine Learning peuvent fournir des indications vitales sur les forces et faiblesses des athlètes en temps réel, ainsi proposer des ajustements personnalisés. L’équipe de cyclisme Jumbo Visma utilise par exemple l’IA pour prédire les besoins énergétiques des coureurs selon les données comme la puissance maximale limitée, le type de trajet et la météo.
L’IA contribue aussi à la santé des athlètes. L’algorithme peut évaluer le risque de blessure, en mesurant la sollicitation des muscles et le niveau de fatigue, ou personnaliser les exercices de récupération. Springbok Analytics, spécialisé dans la biologie musculaire avec leur modèle d’analyse 3D des muscles basé sur l’IA, collabore avec la NBA et GE HealthCare sur une étude des articulations du genou.

Coaching et stratégie
La grande quantité de données engendrée par le sport complexifie le traitement des informations. L’analyse par l’IA des séances d’entrainements et des matchs, via la capture de données utilisant la Computer Vision, fournit en temps réel des tendances invisibles à l’œil nu même pour un entraineur le plus expérimenté, ce qui permet au personnel encadrant d’élaborer de meilleurs schémas tactiques et de prendre des décisions stratégiques en cours de jeu. C’est ce que propose Genius Sports à la Premier League et la NBA4. Autre usage, la Formula-E a créé une interface conversationnelle utilisant le Natural Language Processing en combinant les données télémétriques des voitures et l’IA générative de la plateforme Vertex AI de Google pour que les pilotes et ingénieurs accèdent facilement aux données comportementales de leurs voitures.

Expérience des fans
Les organisations sportives et les diffuseurs puisent dans les solutions pilotées par l’IA pour améliorer l’engagement des passionnés et ainsi monétiser leurs contenus.
WSC Sports, partenaire de plusieurs ligues sportives et diffuseurs tels que la NBA, la Serie A, TF1 ou Canal+, utilise leur algorithme d’IA s’appuyant sur la plateforme de cloud computing Microsoft Azure pour proposer une expérience de visionnage immersive en analysant en temps réel les événements sportifs et en créant automatiquement des moments forts agrémentés de statistiques. Un partenariat équivalent est à noter entre la NFL (National Football League) et AWS via le programme Next Gen Stats. Autre exemple de personnalisation, US Open et Wimbledon utilisent la solution IBM Slamtracker s’appuyant sur la plateforme IBM Watsonx pour générer automatiquement des commentaires personnalisés, comme un focus sur un joueur ou uniquement des analyses techniques, prenant en compte l’historique de visionnage et les préférences de l’utilisateur.

Des solutions existent aussi pour améliorer l’expérience des fans allant aux stades. Manchester City FC utilise WaitTime pour la gestion des foules, de façon à diminuer les temps d’attente et éviter des goulots d’étranglement, avec des caméras intelligentes Cisco Meraki et un algorithme fonctionnant sur les processeurs Intel Xeon Scalable avec accélération intégrée de l'IA.

L’IA a la capacité de remodeler la manière de pratiquer et de consommer le sport. Pour certains, en prédisant et en optimisant les performances, l’IA risque de menacer l’authenticité et l’imprévisibilité qui font le charme du sport. Mais l’élément central reste l’humain. L’IA ne pourra pas suppléer la prise de décision de l’entraineur ou le jugement de l’arbitre, et il reviendra toujours à l’athlète de performer et de nous faire vibrer.

L’IA s’invite aux JO de Paris 2024

Le Comité International Olympique (CIO) saisit pleinement l’opportunité de transformation offerte par l’intelligence artificielle en lançant l’Agenda Olympique pour l’IA. Parmi les secteurs d’intérêt, on peut citer l’identification des talents, la personnalisation des programmes d’entrainement, le renforcement de l’équité avec l’aide à l’arbitrage, et l’amélioration de l’expérience des fans. Et cela commence avec les Jeux Olympiques et Paralympiques de Paris 2024.

Des innovations inédites
En tant que partenaire mondial de Paris 2024, Intel mettra en œuvre ses dernières innovations pour proposer une expérience immersive et interactive aux supporters sur place, ou du live streaming en 8K de bout en bout à faible latence aux téléspectateurs. L’occasion est trop belle pour démontrer le potentiel de leurs technologies comme les accélérateurs d’IA Intel Gaudi, ou l’association du toolkit Intel OpenVINO et de la plateforme Intel Geti pour la Computer Vision.

Bien-être des athlètes
Le CIO proposera une protection des athlètes et des encadrants contre les commentaires malveillants en ligne. Le système alimenté par l’IA surveillera en temps réel des milliers de comptes sur tous les principaux réseaux sociaux et dans plus de 35 langues. Le système sera accompagné d’une cellule présente dans le Village Olympique pour le suivi des cas signalés de violence en ligne et d’un service d’assistance téléphonique dédié.

Sécurité de l’événement

La très controversée vidéosurveillance par algorithme avec des caméras augmentées sera mise en place pour améliorer la sécurité des Jeux, malgré les critiques des associations de défense des libertés individuelles. 8 types d’événements seront détectés grâce à l’IA : non-respect du sens de circulation, franchissement d'une zone interdite, présence d'une arme, départ de feu, mouvement de foule, personne au sol, densité trop importante et objet abandonné. Le ministère de l’Intérieur assure que la solution est une aide à la lecture pour la police, la gendarmerie, les pompiers, la RATP et la SNCF, seuls habilités à l’utiliser, et que la reconnaissance faciale et le recoupement avec des fichiers ne seront pas utilisés.

Compagnon touristique
Pour bien accueillir les millions de visiteurs supplémentaires attendus pour les JO, les organismes touristiques se sont aussi transformés. L’Agence National de Tourisme intègre l’IA dans le site France.fr avec un travel planner intelligent et un chatbot nommé MarIAnne en tant que guide virtuel.

Les défis de l’adoption de l’IA dans le monde du sport

L’utilisation de l’IA varie considérablement en fonction des fédérations et équipes sportives. Les moyens financiers, le cadre réglementaire et la maturité des processus influencent fortement sur son adoption, et soulève des questions sur l’égalité des conditions de compétition. Quelques facteurs clés pour maximiser les bénéfices et minimiser les risques de l’IA :

  • Identifier des cas d’usages adaptés aux expériences des athlètes, du personnel encadrant et des équipes sportives pour améliorer la performance, faciliter le quotidien et redéfinir les business models.
  • Faire évoluer l’organisation en intégrant de nouveaux talents et en proposant des formations pour répondre aux besoins de compétences.
  • Déployer une stratégie de cybersécurité pour garantir la confidentialité des données sensibles des athlètes récoltées.
  • Adopter une démarche responsable en respectant les cadres réglementaires et en évaluant l’impact environnemental.
  • Préserver l’équité sportive en établissant des normes et en promouvant la transparence pour éviter que certains athlètes ou équipes ne bénéficient d’un avantage déloyal.
L’intégration de l’IA dans le domaine sportif n’est qu’à ses balbutiements, le potentiel est immense. Cependant, naviguer dans ce paysage complexe nécessite de la compétence et de l’expertise pour tirer pleinement parti des opportunités tout en relevant les défis éthiques et réglementaires. La prochaine décennie témoignera de la capacité de l’industrie du sport à prendre le virage de l’IA.

Les atouts de Galileo, le GPS européen

 

Galileo

Par Jean Maréchal, Centre national d’études spatiales (CNES)

Moins connu que le GPS américain, Galileo, le système européen de navigation par satellite, délivre des services opérationnels depuis 2016 et aujourd’hui massivement utilisés par les smartphones, les véhicules, les drones et toutes les applications grand public. Ce n’est pas un hasard. Alors que la constellation de satellites était encore incomplète, la performance du système européen s’est très rapidement révélée excellente, offrant un mètre de précision, deux fois mieux que GPS. Pour tirer profit de cette nouvelle performance, les puces de navigation ont très naturellement évolué en l’espace de quelques années, pour intégrer les nouveaux signaux Galileo, améliorant ainsi la disponibilité et la précision de la position pour l’utilisateur.

27 satellites à plus de 20 000 km d’altitude

Galileo, c’est bien sûr une constellation de satellites. Elle est organisée sur trois plans orbitaux à 23 200 km d’altitude, chacun des plans contenant 8 satellites nominaux et un ou plusieurs satellites redondants. Ces satellites redondants sont actifs et prêts à être déplacés sur l’orbite pour remplacer un satellite qui tomberait en panne. Au total, la constellation contient donc 24 satellites nominaux et au moins 3 satellites redondants. Et nous y sommes presque ! Après le 13e lancement qui aura lieu en septembre 2024, le défi aura été relevé et la constellation atteindra 27 satellites.

Aussi performants soient-ils, les satellites Galileo ne peuvent cependant pas fournir seuls les services. Ils ont besoin des données de navigation calculées et transmises par le segment sol qui joue un rôle déterminant. Le segment sol est composé de stations d’émission et de réception déployées sur quinze sites européens tout autour du globe, en particulier sur les territoires d’outre-mer français et néerlandais, et de différents centres dans plusieurs pays européens.

Les traitements réalisés au sol consistent principalement à déterminer en temps réel les orbites précises des satellites à 20 cm près, à resynchroniser entre elles les horloges atomiques de chacun des satellites à la nanoseconde (milliardième de seconde) puis à transmettre ces précieuses données aux satellites pour qu’ils les rediffusent aux utilisateurs dans les signaux de navigation.

Une précision inégalée

Il faut rappeler que les quatre constellations de navigation, Galileo, GPS (Global Positioning System, le système américain), Beidou (système chinois) et Glonass (système russe) sont interopérables : leurs signaux sont assemblés dans la puce de navigation pour produire une seule position. Rappelons aussi que ce calcul est réalisé localement et de façon autonome par la puce sans échanger d’informations avec le satellite. Les signaux sont en effet simplement diffusés par les satellites vers leurs milliards d’utilisateurs, tout comme un émetteur de radio FM transmet des signaux sans connaître les auditeurs qui l’écoutent.

Si Galileo est si précis, c’est parce que les ingénieurs européens qui l’ont conçu au début des années 2000 ont su observer et analyser le fonctionnement du GPS de l’époque. Cependant, faire la course à la précision avec le GPS n’est pas la raison d’être fondamentale du système européen. Galileo, infrastructure spatiale majeure, a d’abord été voulu il y a 20 ans par les États membres de l’Union européenne pour répondre à leurs exigences de souveraineté. Il s’agissait de satisfaire tout à la fois les besoins quotidiens de 450 millions de citoyens et de plus de 20 millions d’entreprises, et de fournir aux gouvernements et à leurs forces armées des services protégés et robustes, en toute indépendance du système militaire américain GPS et des systèmes chinois et russe.

Un système de navigation aux nombreux services

Galileo est un système civil qui a été pensé depuis sa genèse pour fournir gratuitement les meilleurs services aux citoyens. Le premier d’entre eux, le service de positionnement, délivre donc mondialement des performances de très bonne qualité. En complément, Galileo transmet aussi depuis janvier 2023 un service de positionnement très précis destiné aux professionnels, le High Accuracy Service. Ce service permet d’obtenir une précision de 20 cm utilisée par exemple dans l’agriculture ou le BTP.

Galileo fournit également deux services d’authentification pour lutter contre le leurrage, c’est-à-dire la transmission de faux signaux satellite pour tromper l’utilisateur sur sa position. Le premier, OSNMA (Open Service Navigation Message Authentication), destiné aux applications grand public, est actuellement diffusé en test, et le Signal Authentication Service, second service encore plus robuste, permettra à partir de 2026 des usages professionnels très exigeants. Cette capacité à authentifier les satellites protège l’utilisateur contre les menaces malveillantes. Elle permet également de lutter contre les fraudes, lorsque la position est indispensable pour contrôler une activité comme la pêche ou le transport. La première utilisation réglementaire de l’authentification Galileo consistera à confirmer les positions calculées dans les tachygraphes, les enregistreurs de la position et de la vitesse des poids lourds.

Protection, assistance et alertes

La protection et l’assistance aux personnes sont aussi des services ayant une place particulière. Chaque satellite embarque en effet un équipement spécifique qui relaye les signaux émis par les balises de détresse lorsqu’elles sont activées en cas d’accident aérien, de naufrage ou d’accident de personne dans des zones isolées. Cette capacité de retransmission mondiale et instantanée des signaux de détresse par la constellation Galileo a révolutionné la vitesse de calcul de la position des balises, permettant une localisation quasi instantanée des détresses, alors qu’il fallait attendre autrefois plusieurs heures pour les localiser. Galileo est aussi capable de confirmer aux balises que le message de détresse a bien été reçu. Cette voie retour vers les balises permettra bientôt aux équipes de sauvetage d’échanger avec les personnes à secourir afin d’optimiser l’organisation des opérations.

Pour compléter la panoplie des services rendus aux citoyens, il faut enfin citer une autre innovation, l’alerte d’urgence aux populations, qui sera accessible aux autorités de la sécurité civile des États membres de l’UE. À leur demande, Galileo pourra transmettre dans son signal de navigation, directement vers les smartphones et vers les panneaux d’affichage publics, des messages d’alertes. Ciblés sur les zones en situation d’urgence comme les feux de forêt, les inondations ou les accidents industriels, ces messages contiendront des informations et des recommandations pour les populations concernées. Le service aura l’avantage déterminant de pouvoir fonctionner partout et en l’absence de réseau téléphonique. Actuellement en démonstration sur la constellation, ce service devrait devenir opérationnel fin 2025.

Vers une deuxième génération de satellites

Cette longue liste de services pourrait étonner par sa diversité, mais l’histoire ne fait que commencer. À quoi ressembleront les nouveaux services de Galileo en 2050 ? Difficile à prédire, et pourtant, il est déjà nécessaire de construire les satellites de 2e génération qui prendront bientôt la relève des premiers satellites lancés il y a déjà treize ans. Douze satellites sont ainsi en construction. Ils seront de plus flexibles. Lorsque les premiers d’entre eux seront en orbite en 2027, ils seront d’abord programmés pour transmettre les signaux actuels afin de garantir la continuité du service. Et puis, dans 7 à 10 ans, une fois déployés en nombre suffisant, ils transmettront aussi de nouveaux signaux innovants pour répondre aux futurs besoins de l’Europe.

Rendu possible par la détermination des États membres de l’UE qui ont voulu ensemble se doter de ce moyen souverain, Galileo est désormais disponible dans presque toutes les poches et dans tous les véhicules récents d’Europe et du monde. Galileo est là, et pour longtemps !


Cet article a été co-écrit par Jean Maréchal et Damien Bellier, coordinateur interministériel délégué pour Galileo.The Conversation

Jean Maréchal, Responsable de programme Navigation et localisation, Centre national d’études spatiales (CNES)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Panne géante de Microsoft : "aucune réglementation globale prévue pour parer ce genre de cas"

microsoft


Constantin Pavléas,  avocat pratiquant le droit des nouvelles technologies, fondateur et dirigeant du cabinet Pavléas Avocats et professeur et coordinateur du programme Droit du Numérique & Propriété intellectuelle à l’école des Hautes Études Appliquées du Droit (HEAD) réagit à la panne mondiale qui affecte Microsoft.

"Alors que la panne informatique de Microsoft fait vaciller la planète entière depuis plusieurs heures, ce genre de situation n’est prévu par aucune réglementation mondiale ou européenne. Cette actualité démontre que les risques systémiques induits par la position dominante des géants de la tech ne sont pas pris suffisamment en compte. Or, ces risques vont s’amplifier avec l’IA générative.

Si des règlementations existent en matière de données personnelles, de cyberattaques, ce n’est pas le cas pour une faille informatique comme nous la connaissons aujourd’hui. La position dominante des géants de la tech est en soi problématique puisque le monde entier est concerné et qu’une panne de leur système n’a pas été identifiée comme un risque systémique.

Se pose donc la question de la règlementation, et de quelle manière : faut-il contrôler chaque mise à jour réalisée par l’un de ces géants, ce qui paraît impossible sur un plan opérationnel ? Ou faut-il plutôt envisager le démantèlement de ces mastodontes ? "

Quand le numérique booste le tourisme… mais révèle les inégalités entre grands groupes et PME

 

En quelques années, le numérique a révolutionné les pratiques du tourisme. Shutterstock
Par Damien Chaney, EM Normandie; Julian Hofmann, EM Normandie et Mustafeed Zaman, EM Normandie

L’industrie du tourisme a été profondément transformée par l’avènement du numérique. À titre d’illustration, en 2023, plus de 80 % des réservations de voyage par des touristes français ont été faites en ligne. Après la pandémie du Covid 19, l’attractivité touristique a connu une forte reprise, notamment grâce à la facilitation et à l’organisation numérique des voyages.

La crise sanitaire a agi comme un catalyseur. Elle a accéléré la transition numérique et rendu les outils en ligne encore plus essentiels pour la planification et la gestion des voyages. Dans l’industrie du tourisme, le numérique a remodelé la manière dont les voyageurs interagissent avec les services. Parallèlement, le développement du numérique a modifié la façon dont les entreprises adaptent leurs offres pour répondre aux attentes émergentes de leurs clients.

Une expérience personnalisée

Les comportements des voyageurs ont évolué de manière spectaculaire avec la montée en puissance du numérique. Désormais, les réservations en ligne sont devenues la norme, remplaçant les agences de voyages traditionnelles par des plates-formes. Booking, Airbnb, Expedia, parmi d’autres, offrent une accessibilité et une commodité sans précédent.Grâce à ces plates-formes, les voyageurs peuvent comparer les prix, lire des avis et réserver des services en quelques clics.

Par ailleurs, l’utilisation des algorithmes et des données massives (big data) permet aux entreprises de personnaliser les offres, en proposant des recommandations adaptées aux préférences individuelles des voyageurs.

De plus, les applications mobiles jouent un rôle crucial pendant le voyage. Elles fournissent des itinéraires, proposent des traductions en temps réel et dispensent des informations locales. Des applications comme TripAdvisor et Google Maps sont devenues des compagnons indispensables pour les voyageurs modernes. On ne le réalise plus, mais toutes ces possibilités étaient encore balbutiantes il y a une dizaine d’années. Par exemple, Airbnb a été créé en 2008 ! C’est dire la vitesse à laquelle se sont faites ces transformations.

Au-delà de ces avancées déjà bien établies, les perspectives à venir du numérique dans le tourisme sont encore prometteuses, avec des technologies émergentes qui s’apprêtent à révolutionner encore l’industrie. Ainsi, l’intelligence artificielle peut améliorer l’expérience touristique grâce au recours à des assistants virtuels et à des services de traduction instantanée. De son côté, la réalité augmentée devrait contribuer à enrichir les visites touristiques en offrant des informations contextuelles et immersives.

L’émergence du tourisme intelligent

« Le smart tourism » – ou tourisme intelligent – émerge comme une façon innovante d’intégrer les technologies de l’information afin d’améliorer l’expérience touristique, la gestion des destinations et la durabilité.

Parallèlement, les villes intelligentes (« smart cities ») intègrent des infrastructures numériques avancées pour fournir des informations en temps réel aux touristes et optimiser les flux de visiteurs. Par exemple, des capteurs et des données de localisation peuvent être utilisés pour gérer les foules dans les sites touristiques, tandis que des applications mobiles offrent des services personnalisés et des recommandations instantanées. Ces avancées technologiques offrent également des opportunités pour promouvoir un tourisme plus sûr et plus durable. Ainsi, la blockchain, avec sa capacité à sécuriser et à rendre les transactions plus transparentes, trouve des applications dans les réservations et les paiements, augmentant la confiance des consommateurs.

Une transformation nécessaire des entreprises touristiques

Les entreprises touristiques ont dû s’adapter rapidement à cette nouvelle ère numérique, en s’engageant dans la voie de la numérisation. Les grandes entreprises, grâce à leurs importantes ressources, ont adopté rapidement des technologies de pointe telles que le big data, l’intelligence artificielle et les technologies immersives, développant des stratégies de transformation digitale structurées.

C’est le cas de la chaine d’hôtels Marriott, qui a créé une expérience en réalité virtuelle permettant aux clients de visiter ses hôtels à travers le monde. De même, le Musée du Louvre a développé une application de réalité augmentée qui superpose des informations et des images sur des œuvres d’art exposées.

En revanche, les petites et moyennes entreprises (PME) adoptent les technologies numériques de manière plus progressive en raison de l’existence d’une contrainte budgétaire plus forte et de ressources humaines limitées. Cette différence de maturité technologique est dommageable car elle creuse l’écart concurrentiel entre les grandes entreprises et les PME, ce qui a un impact sur les économies locales. Cette situation peut freiner la croissance dans le secteur du tourisme car les PME sont souvent capables de compenser leur retard technologique par des pratiques innovantes et des approches plus disruptives.

En raison de leur taille réduite et de leur flexibilité, les PME permettent une adaptation rapide et l’expérimentation.

Cette agilité favorise une culture créative, essentielle pour répondre aux besoins émergents et stimuler l’économie. Ainsi, Blablacar a révolutionné le covoiturage en Europe. TransferWise, maintenant Wise, a innové les transferts d’argent internationaux avec des frais réduits. Oculus VR, avant son rachat par Facebook, a transformé la réalité virtuelle avec des casques abordables.

Face à ce constat, le projet DIBEST(Digital Innovation for Blue Enterprises & Social Tourism) s’avère une initiative intéressante pour combler ce fossé numérique. Financé par Interreg Atlantic Area et coordonné par la Western Development Commission, ce projet rassemble divers acteurs des mondes économiques et académiques d’Irlande, du Portugal, d’Espagne et de France. Son objectif principal est de soutenir les microentreprises touristiques de la région côtière atlantique dans l’adoption d’innovations numériques. En renforçant les capacités des PME touristiques, en développant des soutiens sur mesure et en facilitant l’adoption de nouvelles technologies, le projet DIBEST ambitionne d’améliorer leur compétitivité, leur accès au marché et leur durabilité environnementale.The Conversation

Damien Chaney, Professor, EM Normandie; Julian Hofmann, Professor of Marketing, EM Normandie et Mustafeed Zaman, Professeur Associé en Marketing Digital, EM Normandie

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Le Miliverse : quand les armées entrent dans le métavers

 

militaire

Par Jean Langlois-Berthelot, Sciences Po

Au croisement des technologies virtuelles et des applications militaires, le « Miliverse » émerge comme un élément prépondérant propulsant les stratégies et la préparation militaire vers une ère nouvelle et innovante.

Cette innovation a été décrite notamment par le lieutenant-colonel Ryan Kenny de l’US Army qui en défend la mise en place. En France, des travaux effectués entre 2020 et 2022 dans le cadre d’un projet entre l’Agence Innovation Défense (Direction générale de l’armement) et l’ENSTA proposaient également des pistes de réflexion pour le développement d’outils. Comme l’indiquait en 2021 Didier Bazalgette alors réfèrent innovation pour les domaines intelligence artificielle et cognition pour l’Agence innovation défense :

« L’idée d’un Miliverse n’est pas nouvelle mais elle prend une nouvelle dimension au regard des compétences croissantes dans les domaines de la réalité virtuelle et de la réalité augmentée. »

Le Miliverse, raccourci de « military metaverse », constitue une innovation qui révolutionne les entraînements, les simulations et la préparation des forces armées en s’appuyant sur les technologies numériques. Cette nouvelle approche tire parti des caractéristiques du métavers, monde virtuel collectif partagé, souvent accessible via Internet, qui associe des aspects de la réalité augmentée (AR), de la réalité virtuelle (VR) et de la technologie blockchain.

Le Miliverse permet aux acteurs du domaine militaire de se rencontrer, de travailler, de jouer et d’interagir dans des environnements 3D immersifs. Ces atouts contribuent à décupler les compétences opérationnelles, à tester des stratégies complexes et à anticiper des scénarios de haute intensité, le tout dans un environnement virtuel sécurisé et façonnable à l’envie.

Dans le domaine militaire, le Miliverse se déploie à travers des simulations interactives de haute sophistication. Les troupes peuvent s’immerger dans des environnements virtuels grâce à des casques de réalité virtuelle de dernière génération, reproduisant des scénarios variés, allant de missions de combat à des opérations de renseignement délicat. Par exemple, des unités spéciales peuvent simuler des interventions tactiques complexes, testant ainsi leurs compétences en matière de coordination et de réactivité. Un débriefing peut également être intégré aux simulations en fonction des résultats obtenus (précision des tirs, victimes alliées et/ou ennemies, etc.).

De nombreux pays intéressés

Aux États-Unis, le département de la Défense a prévu d’engager 500 M$ dans les quatre prochaines années pour le développement de ces technologies innovantes. Des simulations avancées ont été mises en œuvre pour former des unités spéciales dans des environnements virtuels reproduisant fidèlement des zones potentielles de conflit. Ces simulations utilisent la réalité virtuelle (VR) et augmentée (AR) pour recréer des conditions de combat complexes, permettant un entraînement réaliste sans les risques réels. Le programme Synthetic Training Environment (STE) inclut des simulateurs pour divers véhicules et hélicoptères, utilisant l’IA pour générer des forces adverses et analyser les performances en temps réel. Ces technologies réduisent les coûts et augmentent l’efficacité de la formation.

En Israël, les forces de défense ont intégré le Miliverse dans leur programme d’entraînement, utilisant des simulations pour tester des scénarios de cyberattaques et des opérations conjointes entre différentes branches des forces armées. Cette préparation dans des situations similaires à la réalité permet de tester les actions des forces en situation quasi réelle, d’identifier les bonnes pratiques et les points à améliorer, et accroît la capacité des équipes à collaborer, communiquer et interagir en situation de stress.

En Chine, de nombreuses utilisations sont en cours de développement et s’appuient sur les acteurs majeurs privés : 51World, Alibaba et Tencent. Ces sociétés ont créé des mondes virtuels imitant le monde réel (« jumeaux numériques ») qui permettent de simuler des évènements dans le temps.

En France, l’Armée de Terre, et en particulier le Centre d’enseignement militaire supérieur de l’armée de terre (CEMST) fait travailler actuellement des officiers supérieurs dans un travail profondément interdisciplinaire sur le développement de solutions en réalité augmentée pouvant être utilisée dans le cadre d’un Miliverse.

Un enjeu de recherche et développement

Le Miliverse se situe actuellement à un stade de développement avancé, soutenu par des investissements dans la recherche et le développement de technologies connexes. Les simulations intègrent désormais des intelligences artificielles avancées qui réagissent de manière dynamique aux actions des participants, offrant ainsi un réalisme sans précédent. En effet, ces technologies donnent lieu à de nombreuses applications : lunettes de réalité virtuelle, casque de réalité virtuelle et application de modélisation 3D par exemple. Chacune de ses implémentations permet de pénétrer dans une situation quasi réelle pour tester et ajuster les scénarios d’entraînement et vérifier l’effet de décisions opérationnelles, ce qui améliore l’expérience pour une meilleure progression des participants.

Cette nouvelle technologie améliore et accélère la prise de décisions. Elle offre la possibilité de traiter des situations plus complexes en optimisant l’expérience utilisateur, en permettant une simulation des scénarios envisagés de plus en plus élaborés et offre la possibilité de faire collaborer et interagir plusieurs participants au sein du multivers.

La mise en place du Miliverse apporte également de nombreuses avancées sur des aspects complémentaires des opérations militaires : accélération de la conception et l’innovation, optimisation de l’approvisionnement, amélioration de l’intégration de mécanismes multiniveaux… Très concrètement, les US Marines utilisent ce type de technologie pour disposer d’une vision détaillée de leurs équipements sur le front pacifique avec de nombreuses îles dispersées. De nombreux autres exemples d’applications existent : contrôle des armes à distance, formation médicale aux situations de guerre, entraînement à la communication de crise, etc.

Dans le contexte particulier de la cyberdéfense, le Miliverse fournit un environnement virtuel réaliste où les soldats peuvent s’entraîner à identifier et à neutraliser des menaces en temps réel. Par exemple, en simulant une cyberattaque sur une infrastructure critique, les experts de la cyberdéfense civils et militaires collaborent et apprennent à mieux détecter des intrusions, à isoler les systèmes compromis et à rétablir les services tout en minimisant les dommages collatéraux. Cela permet une préparation optimale pour des situations réelles où des réponses rapides et coordonnées sont cruciales.

Rester attentifs aux limites du Miliverse

Si les technologies liées au Miliverse pourraient révolutionner la préparation militaire, elles ne sont pas sans limites. En effet, une utilisation excessive peut créer une dépendance aux systèmes virtuels. En cas de défaillance technique ou d’attaque sur les systèmes numériques, les forces armées pourraient être désorientées et voir diminuer leur capacité à réagir en situation réelle. Par ailleurs, aussi réalistes que soient les simulations, elles ne reproduisent jamais parfaitement l’imprévisibilité et le stress du combat réel. Les soldats formés uniquement via des moyens numériques risqueraient de manquer d’expérience et de sang-froid face aux réalités du champ de bataille.

Ces technologies doivent donc être utilisées en complément des méthodes d’entraînement traditionnelles (exercices pratiques, simulations sur terrain). Une approche combinée garantit une formation complète et équilibrée, tirant parti des atouts technologiques tout en préservant l’importance de l’expérience concrète et de l’adaptation au combat réel. Intégrer cette approche à la formation militaire doit être encadrée pour renforcer, et non remplacer, les méthodes d’entraînement éprouvées. En reconnaissant et en abordant ses limites, elles peuvent devenir un outil précieux pour préparer les soldats aux défis du combat moderne.

Des perspectives prometteuses mais de nombreux défis

L’adoption du Miliverse transcende les frontières des États-Unis et d’Israël. Des nations telles que la Chine, le Royaume-Uni, et dans une large mesure la France, ont également intégré des technologies similaires dans leurs programmes d’entraînement militaire. Les retours d’expérience mettent en lumière une amélioration significative des compétences opérationnelles, de la prise de décision sous pression, et de la réactivité des troupes.

En parallèle des avantages, des préoccupations émergent concernant la dépendance croissante à la technologie, la vulnérabilité aux cyberattaques, et les enjeux éthiques liés à la simulation de scénarios de conflit réel. Le Miliverse pose des défis uniques qui nécessitent une approche réfléchie pour garantir son utilisation judicieuse.

Le Miliverse représente une avancée significative dans la préparation militaire, offrant des avantages tangibles et ouvrant la voie à des perspectives d’innovation continue. Toutefois, son utilisation doit être encadrée par des normes éthiques rigoureuses pour garantir la sécurité et l’intégrité des opérations militaires dans un monde de plus en plus numérique.


Cet article a été co-rédigé par le Dr Christophe Gaie, chef de division ingénierie et innovation numérique au sein des services du Premier Ministre et Senior Fellow CEMS-Terre.The Conversation

Jean Langlois-Berthelot, Adjunct, Sciences Po

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Lutter contre le « doomscrolling » : les stratégies des adolescents

 

smartphone

Par Anne Cordier, Université de Lorraine

Le temps des vacances est là. La réjouissance de cette perspective s’accompagne pourtant d’une crainte certaine pour nombre d’adultes : la vision de l’adolescente ou de l’adolescent de la famille scotché à son téléphone, s’adonnant à une activité désormais connue sous le nom de scrolling.

Ce terme, qui désigne le fait de faire défiler des contenus sur son écran d’ordinateur, de tablette ou de téléphone est souvent accompagné d’un autre : le doomscrolling. Cet ajout vient qualifier un phénomène, amplifié depuis la crise du Covid-19, consistant à scroller sans fin, qui soulève d’importantes questions sanitaires. Un phénomène de lassitude face à un trop-plein d’informations, de surcroit anxiogènes, qui engendre un processus cognitif bien connu : la surcharge cognitive.

Face à ce phénomène, les adolescents cherchent – et trouvent parfois – des parades pour garder la maîtrise de leur navigation sur le web, et plus largement de leur temporalité. Exploration et conseils pour passer tous ensemble des vacances (plus) sereines…

Un phénomène socialement partagé

Avant toute chose, il convient de prendre la mesure du phénomène de doomscrolling, et de reconnaître son impact social. En effet, si la focale est souvent mise sur les adolescents pour évoquer les craintes, non négligeables, que cette pratique fait peser sur la santé mentale et sociale de ces derniers, le doomscrolling n’est absolument pas générationnel. En tant qu’internautes, nous sommes tous confrontés et soumis aux stratégies mises en place par les plates-formes pour nous inciter à rester connectés le plus longtemps possible, et au même endroit.

Cette captation de l’attention nous concerne tous, quel que soit notre âge, notre statut, à partir du moment où nous utilisons des objets connectés. Nombreux sont d’ailleurs les adolescents qui pointent des usages adultes du smartphone peu exemplaires, à l’instar de Nicolas, 14 ans, qui s’amuse du paradoxe : « Mon beau-père va beaucoup sur Facebook, il y passe un temps fou et après il me dit ‘Hey oh, doucement avec Snapchat, Nico !’ ».

Ce constat d’une « société de maintenant » qui rend le téléphone indispensable au quotidien pour tous, et pour tout type d’activités, qu’elles soient professionnelles, académiques, ou personnelles, conduit Lucy, 16 ans, à appeler les adultes à une introspection :

« Je vois mes parents ils sont des fois plus sur les écrans que moi, et c’est un problème général en fait, ça ne concerne pas que moi, ou les jeunes, faut arrêter avec ça, les parents ils ne sont pas mieux et ils n’arrivent pas mieux que nous à gérer les choses, en fait ».

Entre culpabilité et stratégies pour faire face

Les usages et pratiques numériques des adolescents accordent, de fait, une place majeure au smartphone. Cet objet total répond à des besoins de sociabilités extrêmement structurants et nécessaires à cet âge de la vie, mais aussi à des besoins informationnels nombreux, assouvis quotidiennement, en lien avec l’actualité ou des questions liées à leurs centres d’intérêt ou encore aux activités scolaires.

Lorsqu’on écoute les adolescents sur ce rapport au smartphone, il est frappant de noter la culpabilité qui émane de leurs propos. Ainsi, Ambre, 17 ans, confie : « Des fois même on s’en veut, parce qu’on gâche du sommeil, on gâche du temps en famille, on gâche du temps pour faire nos devoirs ou faire des choses à l’extérieur ! », cependant que Melvin souligne : « Ce temps que tu passes comme ça, c’est franchement angoissant, et en même temps c’est compliqué parce que tu peux pas te couper du monde non plus ! Faut un équilibre, quoi ».

Cet équilibre, les adolescents le cherchent, déployant des stratégies multiples pour tenter de garder la maîtrise de leur temporalité, de leurs activités, de leur estime de soi aussi : « quand je perds du temps comme ça, je me sens nulle ! »,note ainsi Romane, 17 ans. Une enquête qualitative menée auprès de 252 adolescents âgés de 11 à 19 ans a permis de documenter plus avant ces stratégies.

Parmi ces stratégies, la plus répandue est l’activation du mode « Avion » ou « Ne pas déranger » du téléphone, avec l’espoir de favoriser sa concentration sur une tâche. D’aucuns prennent des décisions plus radicales, consistant à ne pas installer une application qu’ils ont identifiée comme potentiellement problématique pour eux. C’est le cas de Geoffrey, 17 ans, qui a « choisi de ne pas télécharger TikTok justement parce que ça prend trop de temps ».

Une autre stratégie souvent relatée consiste à désinstaller temporairement une application, « le temps que la tension retombe » face à l’afflux de notifications ; note Juliette, 17 ans. Cette stratégie est adoptée essentiellement par des lycéennes et lycéens soit lors de périodes de révisions intenses soit lorsque la saturation se fait sentir :

« Par moment, je le sens, je me sens oppressée par ça et j’arrive plus à gérer, alors je désinstalle l’appli. Tout de suite, je sens que ça va mieux, je me sens moins sous pression, et puis quand je sens que je me suis calmée, un peu apaisée on va dire, alors je réinstalle l’appli […] Je ne peux pas ne plus l’utiliser du tout, c’est pas possible, j’en ai besoin, j’aime ça, j’apprends des trucs avec ça, je suis les infos aussi avec ça » (Apolline, 16 ans).

L’éducation, meilleure ennemie du doomscrolling

Comment soutenir les adolescents dans ces efforts de résistance à la captation de l’attention et à la fatigue informationnelle qui s’en suit ?

De façon certaine, l’idée d’une imposition d’un contrôle strict est illusoire, et même contre-productive, cela ne ferait que générer frustrations et tensions. Plus encore, une telle mesure ne propose pas de solutions à l’adolescent pour exercer un véritable pouvoir d’agir. Prendre à bras-le-corps cette problématique suppose une réponse éducative à plusieurs niveaux.

Il apparait d’abord essentiel de considérer cette question pour ce qu’elle est : une question socialement partagée, qui nous engage tous dans des méandres et des recherches de tactiques pour ne pas se perdre dans le flux. Pour favoriser la concentration et la maîtrise, on peut ainsi (se) conseiller de désactiver au maximum les notifications des applications les plus chronophages. En outre, l’excès en tout est un défaut, et dégrade le plaisir ressenti dans l’activité : plus on maîtrise le temps passé en ligne, plus on le savoure aussi dignement. Voilà un argument qui peut faire mouche.

Ceci dit, pour comprendre ce qui (nous) pousse à ce « défilement morbide » (appellation québécoise du doomscrolling), il faut apprendre les ressorts de l’économie de l’attention, saisir finement quels sont les processus qui nous traversent lorsqu’on est confronté aux stratégies mises en œuvre par les industries du numérique (dark pattern, design émotionnel, notamment).

Réseaux sociaux, tous accros ? (Décod’actu – Lumni, 2018).

Pour autant, cette explication essentielle ne doit pas renvoyer aux seuls utilisateurs la responsabilité de la maîtrise : l’arsenal juridique déployé, à travers le règlement sur les marchés numériques (Digital Market Act – DMA) en complément du règlement sur les services numériques (Digital Service Act – DSA), vient précisément protéger les internautes et tenter de faire contre-poids face à la puissance économique et industrielle des plates-formes.

Étant donné son importance quasiment existentielle au sens propre du terme, une éducation aux médias et à l’information du quotidien se doit d’intégrer cette problématique à la fois sociale et politique. Tous les adolescents racontent leurs difficultés à faire face à cette fatigue informationnelle et aux processus de captation, mais racontent aussi et surtout conjointement leur aspiration à partager des moments de qualité avec les autres, dont la famille.

Ces adolescents expriment le souhait de s’informer de façon apaisée, et d’être dépositaires d’une capacité à agir sur le monde qui les entoure. On ne peut ainsi que leur recommander et nous recommander de s’abonner à ces « médias positifs » qui se sont donnés pour mission de nous informer avec de l’actualité joyeuse. De quoi non seulement nourrir autrement les algorithmes en leur imposant un autre monde souhaité, le nôtre, mais aussi partager une information qui fait du bien et enrichit les sociabilités.

Enfin, le ralentissement face à l’accélération est un enjeu politique majeur. Parce que ralentir, arrêter le flux, c’est prendre le temps de la réflexion et de la maturation de la pensée. Une qualité citoyenne. Et cela peut même passer par le fait de scroller… Ensemble.The Conversation

Anne Cordier, Professeure des Universités en Sciences de l’Information et de la Communication, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

deepfakes


Par Divina Frau-Meigs, Auteurs historiques The Conversation France

Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes », ou hypertrucages, ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu.

Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio.

Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips.

En Slovaquie, en mars 2024, une fausse conversation générée par IA mettait en scène la journaliste Monika Tódová et le dirigeant du parti progressiste slovaque Michal Semecka fomentant une fraude électorale. Les enregistrements diffusés sur les réseaux sociaux pourraient avoir influencé le résultat de l’élection.

Le même mois, en Angleterre, une soi-disant fuite sur X fait entendre Keir Starmer, le leader de l’opposition travailliste, insultant des membres de son équipe. Et ce, le jour même de l’ouverture de la conférence de son parti. Un hypertrucage vu plus d’un million de fois en ligne en quelques jours.

Un seul « deepfake » peut causer de multiples dégâts, en toute impunité. Les implications de l’utilisation de cette technologie affectent l’intégrité de l’information et du processus électoral. Analyser comment les hypertrucages sont générés, interpréter pourquoi ils sont insérés dans les campagnes de déstabilisation et réagir pour s’en prémunir relève de l’Éducation aux médias et à l’information.

Analyser : un phénomène lié à la nouvelle ère des médias synthétiques

Le deepfake audio est une composante des médias synthétiques, à savoir des médias synthétisés par l’intelligence artificielle, de plus en plus éloignés de sources réelles et authentiques. La manipulation audio synthétisée par l’IA est un type d’imitation profonde qui peut cloner la voix d’une personne et lui faire dire des propos qu’elle n’a jamais tenus.

C’est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix qui permettent de produire une fausse voix, difficile à distinguer de la parole authentique d’une personne, sur la base de bribes d’énoncés pour lesquels quelques minutes, voire secondes, suffisent.

L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a contribué à son perfectionnement. La mise à disposition publique de ces technologies à bas coût, accessibles et performantes, ont permis, soit de convertir du texte en son, soit de procéder à une conversion vocale profonde. Les vocodeurs neuronaux actuels sont capables de produire des voix synthétiques qui imitent la voix humaine, tant par le timbre (phonation) que la prosodie (accentuation, amplitude…)

Comment repérer les « deepfakes » ? (France 24, mars 2023).

Les deepfakes sonores sont redoutablement efficaces et piégeants parce qu’ils s’appuient également sur les avancées révolutionnaires de la psycho-acoustique – l’étude de la perception des sons par l’être humain, notamment en matière de cognition. Du signal auditif au sens, en passant par la transformation de ce stimulus en influx nerveux, l’audition est une activité d’attention volontaire et sélective. S’y rajoutent des opérations sociocognitives et interprétatives comme l’écoute et la compréhension de la parole de l’autre, pour nous faire extraire de l’information de notre environnement.

Sans compter le rôle de l’oralité dans nos cultures numériques, appuyée sur des usages en ligne et en mobilité, comme en témoigne la vogue des podcasts. Les médias sociaux se sont emparés de cette réalité humaine pour construire des outils artificiels qui instrumentent la voix comme outil narratif, avec des applications comme FakeYou. La voix et la parole relèvent du registre de l’intime, du privé, de la confidence… et la dernière frontière de la confiance en l’autre. Par exemple, la radio est le média en qui les gens ont le plus confiance, selon le dernier baromètre de confiance Kantar publié par La Croix !

Interpréter : des opérations d’influence facilitées par l’intelligence artificielle

Le clonage vocal présente un énorme potentiel pour détruire la confiance du public et permettre à des acteurs mal intentionnés de manipuler les appels téléphoniques privés. Les deepfakes audio peuvent être utilisés pour générer des falsifications sonores et diffuser de la désinformation et du discours de haine, afin de perturber le bon fonctionnement de divers secteurs de la société, des finances à la politique. Ils peuvent aussi porter atteinte à la réputation des personnes pour les diffamer et les faire chuter dans les sondages.

Le déploiement de deepfakes audio présente de multiples risques, notamment la propagation de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Les risques ne sont pas particulièrement nouveaux mais néanmoins réels, contribuant à dégrader le climat politique, selon le Alan Turing Institute au Royaume-Uni.

Le deepfake, expliqué (Brut, 2021)

Il ne faut donc pas sous-estimer cette amplification à échelle industrielle. Les deepfakes audio sont plus difficiles à détecter que les deepfakes vidéo tout en étant moins chers et plus rapides à produire : ils se greffent facilement sur une actualité récente et sur les peurs de certains secteurs de la population, bien identifiés. En outre, ils s’insèrent avantageusement dans l’arsenal des extrémistes, lors de campagnes d’ingérence en temps de paix comme les élections.

Réagir : de la détection des fraudes à la régulation et à l’éducation

Il existe plusieurs approches pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et relèvent les fréquences plus ou moins élevées, pour filtrer et localiser les manipulations. D’autres entraînent des IA pour qu’elles distinguent des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, les solutions techniques existantes ne parviennent pas à résoudre complètement la question de la détection de la parole synthétique.

Cette détection reste un défi car les manipulateurs tentent de supprimer leurs traces de contrefaçon (par des filtres, des bruits…), avec des générateurs de deepfake audio qui sont de plus en plus sophistiqués. Face à ces vulnérabilités démocratiques restent donc des solutions humaines diverses, qui vont de l’autorégulation à la régulation et impliquent divers types d’acteurs.

Les journalistes et les fact-checkeurs ont augmenté leurs techniques de recherche contradictoire, pour tenir compte de cette nouvelle donne. Ils s’en remettent à leurs stratégies de vérification des sources et de validation du contexte d’émission. Mais ils font aussi appel, via Reporters sans Frontières, au corps juridique, pour la protection des journalistes, afin qu’ils créent un « délit de deepfake » capable de dissuader les manipulateurs.

Les plates-formes de médias sociaux (Google, Meta, Twitter et TikTok) qui les véhiculent et les amplifient par leurs algorithmes de recommandation sont soumises au nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les Deepfakes et enjoint les plates-formes à utiliser leurs outils (modération, déplatformisation…) pour s’en assurer.

Les enseignants et les formateurs en Éducation aux Médias et à l’Information se doivent à leur tour d’être informés, voire formés, pour pouvoir alerter leurs étudiants sur ce type de risque. Ce sont les plus jeunes qui sont les plus visés. A leurs compétences en littératie visuelle, ils doivent désormais ajouter des compétences en littératie sonore.

Les ressources manquent à cet égard et réclament de la préparation. C’est possible en choisissant de bons exemples comme ceux liés à des personnalités politiques et en faisant attention aux 5D de la désinformation (discréditer, déformer, distraire, dévier, dissuader). S’appuyer sur le contexte et le timing de ces cyberattaques est aussi fructueux.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Aux personnalités politiques, somme toute concernées mais très peu formées, le Alan Turing Institute propose une stratégie partageable par tous, les 3I : informer, intercepter, insulariser. En phase de pré-élection, cela consiste à informer sur les risques des deepfakes audio ; en phase de campagne, cela implique d’intercepter les deepfakes et de démonter les scénarios de menace sous-jacents ; en phase post-électorale, cela oblige à renforcer les stratégies d’atténuation des incidents relevés et à les faire connaître auprès du public.

Toutes ces approches doivent se cumuler pour pouvoir assurer l’intégrité de l’information et des élections. Dans tous les cas, soignez votre écoute et prenez de l’AIR : analysez, interprétez, réagissez !The Conversation

Divina Frau-Meigs, Professeur des sciences de l'information et de la communication, Auteurs historiques The Conversation France

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.