Accéder au contenu principal

Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine

  Portraits de John Hopfield et Geoffrey Hinton, lauréats du prix Nobel de physique 2024 pour leurs découvertes et inventions qui ont permis de développer l'apprentissage machine avec des réseaux de neurones artificiels. Niklas Elmehed © Nobel Prize Outreach Par  Thierry Viéville , Inria Le prix Nobel de physique 2024 récompense des travaux précurseurs de John Hopfield et Geoffrey Hinton sur les réseaux de neurones artificiels, à la base de l’apprentissage machine. Ces travaux ont participé au développement de l’intelligence artificielle, qui chamboule aujourd’hui de nombreux secteurs d’activité. C’est à une question simple que John Hopfield et Geoffrey Hinton ont apporté une réponse qui leur vaut aujourd’hui le prix Nobel de physique : « Quelle est la description la plus simple que nous pourrions faire de nos neurones, ces composants du cerveau, siège de notre intelligence ? » Un neurone, qu’il soit artificiel ou biologique, est u

Secteur public : 5 conseils pour mettre en place une stratégie de données efficace


data



Par Raphaël Savy, Directeur Europe du Sud, Alteryx

Depuis le premier recensement « moderne » effectué au niveau national en 1694 par Louis Phélypeaux, comte de Pontchartrain, le gouvernement français a commencé à recueillir des données. L’État est ainsi l’un des plus anciens producteurs de données et ce pour des besoins d’analyse et de gouvernance. Un travail si essentiel qu’il est de nos jours difficile à quantifier tant l’usage que l’on a des données est omniprésent. Aujourd’hui, les données gouvernementales jouent un rôle majeur dans tous les domaines. C’est le cas notamment d’Etalab qui illustre la volonté de la France d’ouvrir les données publiques via le lancement du portail Data.gouv.fr.

Si la science des données peut avoir un impact significatif sur des décisions cruciales prises dans le secteur public, le sujet reste complexe et difficile à traiter. En effet, la majorité des données gouvernementales sont difficiles d’accès et d’utilisation tant elles sont hétérogènes. Afin d’aider les Chief Data Officer (CDO) du secteur public, Alteryx a listé cinq conseils que ces derniers doivent suivre afin de pouvoir exploiter, pour le bien commun, les bases de données de l’État.

Tirer parti des meilleurs modèles de leur catégorie pour le partage des données

De nombreuses organisations publiques et privées ont créé des centres de données pour pouvoir partager celles qui sont utiles entre divers utilisateurs. Néanmoins, ces nombreuses bases sont difficilement accessibles et cela peut freiner la collaboration. Il est donc crucial pour les CDOs, notamment dans le secteur public, de construire des bases de données communes, avec des modèles permettant à d’autres entités, en particulier les agences locales et régionales, de contribuer avec leurs propres données. Grâce à un référentiel collaboratif, les data scientists pourront identifier des tendances et recueillir des informations précieuses pour faciliter le processus décisionnel.

L’importance de la diversité

A l’heure où les sources et les formats de données disponibles se diversifient, les entreprises qui sauront en tirer profit seront celles avec la plus forte croissance. Il en est de même pour les administrations publiques. En sachant extraire l’essence même des données dont ils disposent, ils pourront ainsi améliorer le service usager. Transport of London (TfL) a d’ailleurs annoncé le lancement d’un programme d’analyse de données pour surveiller les mouvements des passagers sur le réseau londonien. En collectant anonymement ces données, TfL veut ainsi aider les usagers à éviter les encombrements et améliorer la politique des transports.

Mais plus que l’hétérogénéité des données, c’est de la diversité au sein des équipes dont dépendra la réussite d’un projet. D’ailleurs, ceux qui savent travailler avec plusieurs interlocuteurs (industriels, universitaires, …) font de la diversité des profils un levier de richesse, de performance et de développement pour leurs projets.

Les CDOs devraient donc faire appel à ce vaste réseau diversifié pour composer leurs équipes. Néanmoins, l’un des principaux obstacles auquel ils sont actuellement confrontés est l’absence de profils qualifiés dans la science des données. Face à une telle pénurie de talents, force est de constater que les administrations publiques ne pourront pas enrôler le (ou les) profil(s) tant recherché(s). Pour y remédier, certaines font appel à des profils hétérogènes. Ces profils et leurs différents points de vue s’avèrent exceptionnellement précieux en science des données, surtout lorsqu’il s’agit de résoudre des problèmes incroyablement complexes. Cette diversité de pensées peut contrebalancer les préjugés et les idées reçues qui peuvent être pénalisants pour créer une meilleure analyse des données.

Créer des ensembles de données en se basant sur un problème

De nombreuses administrations ont progressivement repensé leur organisation en créant des départements « data », afin d’imaginer une nouvelle gouvernance de leurs données. Cette nouvelle organisation s’explique par un paysage de plus en plus complexe suite à l’explosion des sources de données mal structurées, mal documentées et mal entretenues et qui sont souvent appelées « data swamps ». Mal conservés et perdant rapidement leur valeur, ces ensembles de données peuvent rapidement devenir des failles de sécurité. Pour éviter cela, les CDOs doivent acquérir une vision d’ensemble des données et démarrer une gouvernance data.

Fournir des données aussi précises que possible

Il existe toute une série d’ensembles de données gouvernementales qui sont regroupées au niveau national, régional ou parfois local. Cette disponibilité des données administratives à grande échelle pourrait permettre d'obtenir de meilleurs moyens de mesurer l’efficacité de mesures économiques grâce à des données plus étendues et granulaires. En effet, la granularité ou la finesse des données recueillies sont essentielles pour la qualité des observations faites. Cette granularité est d’autant plus utile à l’heure du RGPD. En effet, l’anonymisation nécessite une analyse des données méticuleuse afin de décider de quelles données l’administration aura besoin et celles qu’il est inutile de garder, décuplant la valeur des données restantes.

Profiter des meilleures technologies existantes


Chaque jour, ce sont 4 millions de recherches Google qui sont effectuées, 2,46 millions de contenus partagés sur Facebook, 347 222 photos via WhatsApp ou encore 204 millions emails qui sont envoyés. Toutes ces données représentent une source incroyable, dès lors qu’elles sont rendues accessibles et exploitées. En effet, leur mise à la disposition de tous permet de tester, valider et améliorer les modèles prédictifs existants afin de les faire progresser. L’accessibilité des données est le fondement même de la capacité de chacun à les explorer et les associer pour mieux les comprendre et en tirer de plus grands bénéfices.

Ainsi, afin de tirer profit des technologies et des outils existants les CDOs peuvent mettre en œuvre des plateformes communautaires. Ces outils pourront être un levier de connaissance et de croissance pour l’entreprise et l’administration, fournissant de précieuses ressources pour les équipes qui pourront y trouver les méthodes existantes et les meilleures pratiques. Par exemple Kaggle Data, une communauté de scientifiques des données en ligne, est un excellent exemple du type de plateforme dont les CDOs peuvent s’inspirer pour construire des modèles basés sur des informations accessibles au public.

Assumer le rôle de CDO pour un organisme public comporte des nuances et, pour assurer son succès, les nouveaux CDOs du secteur public doivent tenir compte de bien plus que le simple fait de structurer des ensembles de données. Dans cette révolution des données, la France devra tracer son propre chemin. Elle le fera avec d’autant plus de clarté, et d’autant plus de vigueur, qu’elle aura pris soin de maîtriser et de s’approprier les outils et les pratiques qui vont lui permettre d’exploiter tout le potentiel qui réside dans toutes ses données qui sont actuellement éparpillées à travers ses différentes administrations.

La diversité des données qui existent dans le secteur public est unique et exige des CDOs et des professionnels des données qu’ils exploitent les meilleurs modèles de leur catégorie et qui sont propices à la collaboration. Ces ensembles de données, en particulier, ont le potentiel d’orienter les décisions qui ont une répercussion sur certains des plus grands défis du pays.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips. En