Accéder au contenu principal

Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine

  Portraits de John Hopfield et Geoffrey Hinton, lauréats du prix Nobel de physique 2024 pour leurs découvertes et inventions qui ont permis de développer l'apprentissage machine avec des réseaux de neurones artificiels. Niklas Elmehed © Nobel Prize Outreach Par  Thierry Viéville , Inria Le prix Nobel de physique 2024 récompense des travaux précurseurs de John Hopfield et Geoffrey Hinton sur les réseaux de neurones artificiels, à la base de l’apprentissage machine. Ces travaux ont participé au développement de l’intelligence artificielle, qui chamboule aujourd’hui de nombreux secteurs d’activité. C’est à une question simple que John Hopfield et Geoffrey Hinton ont apporté une réponse qui leur vaut aujourd’hui le prix Nobel de physique : « Quelle est la description la plus simple que nous pourrions faire de nos neurones, ces composants du cerveau, siège de notre intelligence ? » Un neurone, qu’il soit artificiel ou biologique, est u

Universités : l'usage d'outils d'analyses et de visualisation de données progresse



Par Edouard Beaucourt, Directeur France & Europe du Sud, Tableau


Les universités abritent les plus éminents penseurs et chercheurs dans toutes les disciplines, qu'il s'agisse de la médecine, du droit, des mathématiques ou de l'économie. Pourtant, ces établissements ne sont pas toujours très à l'aise en ce qui concerne les données, ce qui peut leur porter préjudice, car leurs besoins en la matière sont nombreux. Si le marché français des solutio ns analytiques, de Big Data et de gestion des données ainsi que des services associés pesait 1,9 milliard d'euros fin 2015, ce dernier devrait croitre à un rythme annuel de plus de   12% ent re 2016 et 2018*. Un chiffre démontrant bien le rôle important que joue l'analyse de données pour tous types d'administration.

Les établissements de l'enseignement supérieur ont besoin de suivre les tendances au sein de la population universitaire actuelle ainsi que d'évaluer les futurs candidats. Les chercheurs et les services administratifs s'appuient sur des données en temps réel pour la prise de décisions et la planification dans tous les domaines. Les professeurs impliqués dans des programmes de subventions de recherche sont confrontés quant à eux à de nouvelles exigences liées aux données. Toutes ces données sont aussi variées que les formations proposées aux étudiants. Pour couronner le tout, de nombreux facteurs externes, tels que l'augmentation du nombre d'inscriptions ou la concurrence des autres établissements, viennent compliquer les défis à relever en matière de données.

Afin de faire face à cette nouvelle problématique, de nombreuses universités adoptent des solutions d'analyse en libre-service. Voici quatre mesures qu'elles mettent en œuvre pour reprendre en main leurs données.

Démocratisation de l'accès aux données

Comme dans bien d'autres secteurs et structures, les établissements d'enseignement supérieur subissent la lenteur et le manque de cohésion de l'exploitation traditionnelle des données. Seul le service IT a accès à ces données et les distille dans des rapports publiés au compte-gouttes. Les enseignants, le personnel et les administrateurs qui ont besoin de ces données passent le plus clair de leur temps à attendre des rapports qui sont obsolètes avant même d'être exploités.

A l'instar de l'université de De Montfort qui est située à Leicester, au Royaume-Uni, qui dispose d'une solution analytique évolutive pour l'ensemble du complexe, de nombreux établissements cherchent à s'affranchir de ces délais d'attente interminables et des résultats statiques et limités.

Initialement, le département de Planification Stratégique de De Montfort analysait des données variées allant des campagnes marketing aux statistiques d'admission. Mais ce dernier a rapidement constaté que l'attrait pour l'analyse de données allait au-delà du département – touchant les professeurs comme les directeurs – ayant immédiatement décelé les avantages et la facilité d'utilisation des outils de visualisation de données.

Aujourd'hui, les équipes des départements financiers et des ressources humaines utilisent l'analyse de données pour découvrir des tendances et trouver de nouvelles opportunités pour leurs 27 000 étudiants.

Accélération notable des analyses

Les analyses en libre-service reposent sur la démocratisation des données, ce qui permet de trouver plus vite des informations exploitables. Les utilisateurs qui connaissent le mieux leurs données peuvent commencer à les exploiter rapidement, sans connaissances particulières en informatique ou formation approfondie. Nous avons l'habitude d'utiliser notre téléphone, ordinateur portable ou tablette pour trouver des réponses à nos questions d'ordre personnel, et il en va de même en milieu professionnel.

Cependant, cette rapidité comporte de nombreuses facettes

Par exemple, l'université de l'Indiana, grand centre de recherche, tire profit de la rapidité des analyses en libre-service depuis plusieurs années. Le personnel chargé des inscriptions utilise des tableaux de bord pour explorer rapidement, sous tous les angles et au niveau de détail nécessaire, les données dont il dispose sur les étudiants. Des tendances qui étaient identifiées au bout de plusieurs semaines ou mois auparavant sont désormais décelées en quelques heures, voire en quelques minutes.

Les analyses en libre-service présentent un autre bénéfice : la prise en main demande beaucoup moins de temps. Aujourd'hui, avec ces nouveaux outils, l'adoption et la formation nécessitent seulement quelques heures, contre plusieurs mois auparavant. Les départements au sein des universités qui ont besoin de réponses rapides apprécient un déploiement accéléré grâce à une prise en main simplifiée.

Optimisation de la flexibilité et de la sécurité

Le fait que les analyses en libre-service améliorent l'écosystème de données existant au lieu de le remplacer entièrement explique en partie leur adoption rapide. Les outils informatiques sont compatibles avec les données existantes. Si ces données résident dans une base SQL, un système ERP ou dans des feuilles de calcul, nul besoin de changer quoi que ce soit.

Même si les analyses en libre-service peuvent laisser penser que tout est permis, la sécurité des données est plus importante que jamais. Une approche IT solide en matière d'information doit réunir ces trois composantes : précision, disponibilité et contrôle. La précision des données tombe sous le sens, mais cet aspect reste trop souvent ignoré. Si les données ne sont pas fiables, elles produiront des résultats qui manqueront eux aussi de fiabilité, quelle que soit la manière dont elles sont analysées.

La disponibilité des données est une question complexe. Avec les analyses en libre-service, les données doivent être disponibles pour tous les utilisateurs qui en ont besoin, sans pour autant être rendues publiques. Pour les universités en particulier, la sécurité et la confidentialité des données sont primordiales. L'IT, entre autres attributions, doit déterminer le niveau d'accès approprié pour chaque département, chaque fonction et chaque utilisateur. En effet, savoir qui a accédé à quelles informations est très important pour le suivi.

À l'université Carnegie-Mellon, le service financier utilise les analyses en libre-service pour moderniser ses procédures d'analyse, tout en garantissant la confidentialité des données. Les administrateurs de l'établissement peuvent ainsi consulter des données financières à jour, où qu'ils soient et sur tout type de terminal. Ce projet a également permis de tester ces différentes méthodes avant de les déployer dans toute l'université.

Communication simplifiée grâce à la visualisation des données

À la manière d'un enseignant qui utilise des supports visuels pour aider les étudiants à mieux appréhender des concepts difficiles, les logiciels en libre-service créent des visualisations qui facilitent la compréhension des données. Ces visualisations sont le fruit de recherches menées par des experts très qualifiés sur la capacité du système visuel humain à traiter l'information et s'appuient sur nos forces et faiblesses naturelles.

L'université du Lancashire central (UCLan) – l'une des plus grandes universités au Royaume-Uni qui regroupent 37 000 étudiants et membres du personnel – continue à s'étendre tant à l'intérieur du pays qu'à l'étranger. Pour gérer soigneusement cette croissance, l'université utilise l'analyse en libre-service pour s'assurer que les indicateurs clés de performance sont respectés à travers les départements et qu'il est possible d'en extraire un aperçu exploitable.

Un des principaux résultats de cette approche est une compréhension plus unifiée des défis et des opportunités. L'équipe s'occupant des stratégies d'entreprise est ainsi capable de développer et de partager des tableaux de bord visuels informant les différents départements des taux de rétention des étudiants ou des départs anticipés. En partant d'un ensemble de données commun, les départements peuvent découvrir des tendances comme la saisonnalité des départs d'étudiants et les soutenir directement de la meilleure manière possible et au meilleur moment.

Une expérience enrichissante également sur le plan éducatif

Les universités sont souvent critiquées quand elles cherchent à adapter une stratégie du secteur privé pour soutenir leur mission éducative. Cependant, les analyses en libre-service sont un bon exemple des enseignements que peut leur apporter le secteur privé. Les outils conçus à l'origine pour améliorer la satisfaction client et maximiser la croissance permettent aux universités d'atteindre ces mêmes objectifs, ou certains plus ambitieux encore, comme l'amélioration des taux de réussite et du niveau d'éducation de la société.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips. En