Portraits de John Hopfield et Geoffrey Hinton, lauréats du prix Nobel de physique 2024 pour leurs découvertes et inventions qui ont permis de développer l'apprentissage machine avec des réseaux de neurones artificiels. Niklas Elmehed © Nobel Prize Outreach Par Thierry Viéville , Inria Le prix Nobel de physique 2024 récompense des travaux précurseurs de John Hopfield et Geoffrey Hinton sur les réseaux de neurones artificiels, à la base de l’apprentissage machine. Ces travaux ont participé au développement de l’intelligence artificielle, qui chamboule aujourd’hui de nombreux secteurs d’activité. C’est à une question simple que John Hopfield et Geoffrey Hinton ont apporté une réponse qui leur vaut aujourd’hui le prix Nobel de physique : « Quelle est la description la plus simple que nous pourrions faire de nos neurones, ces composants du cerveau, siège de notre intelligence ? » Un neurone, qu’il soit artificiel ou biologique, est u
Par Edouard Beaucourt, Directeur France & Europe du Sud, Tableau
Les universités abritent les plus éminents penseurs et chercheurs dans toutes les disciplines, qu'il s'agisse de la médecine, du droit, des mathématiques ou de l'économie. Pourtant, ces établissements ne sont pas toujours très à l'aise en ce qui concerne les données, ce qui peut leur porter préjudice, car leurs besoins en la matière sont nombreux. Si le marché français des solutio ns analytiques, de Big Data et de gestion des données ainsi que des services associés pesait 1,9 milliard d'euros fin 2015, ce dernier devrait croitre à un rythme annuel de plus de 12% ent re 2016 et 2018*. Un chiffre démontrant bien le rôle important que joue l'analyse de données pour tous types d'administration.
Les établissements de l'enseignement supérieur ont besoin de suivre les tendances au sein de la population universitaire actuelle ainsi que d'évaluer les futurs candidats. Les chercheurs et les services administratifs s'appuient sur des données en temps réel pour la prise de décisions et la planification dans tous les domaines. Les professeurs impliqués dans des programmes de subventions de recherche sont confrontés quant à eux à de nouvelles exigences liées aux données. Toutes ces données sont aussi variées que les formations proposées aux étudiants. Pour couronner le tout, de nombreux facteurs externes, tels que l'augmentation du nombre d'inscriptions ou la concurrence des autres établissements, viennent compliquer les défis à relever en matière de données.
Afin de faire face à cette nouvelle problématique, de nombreuses universités adoptent des solutions d'analyse en libre-service. Voici quatre mesures qu'elles mettent en œuvre pour reprendre en main leurs données.
Démocratisation de l'accès aux données
Comme dans bien d'autres secteurs et structures, les établissements d'enseignement supérieur subissent la lenteur et le manque de cohésion de l'exploitation traditionnelle des données. Seul le service IT a accès à ces données et les distille dans des rapports publiés au compte-gouttes. Les enseignants, le personnel et les administrateurs qui ont besoin de ces données passent le plus clair de leur temps à attendre des rapports qui sont obsolètes avant même d'être exploités.
A l'instar de l'université de De Montfort qui est située à Leicester, au Royaume-Uni, qui dispose d'une solution analytique évolutive pour l'ensemble du complexe, de nombreux établissements cherchent à s'affranchir de ces délais d'attente interminables et des résultats statiques et limités.
Initialement, le département de Planification Stratégique de De Montfort analysait des données variées allant des campagnes marketing aux statistiques d'admission. Mais ce dernier a rapidement constaté que l'attrait pour l'analyse de données allait au-delà du département – touchant les professeurs comme les directeurs – ayant immédiatement décelé les avantages et la facilité d'utilisation des outils de visualisation de données.
Aujourd'hui, les équipes des départements financiers et des ressources humaines utilisent l'analyse de données pour découvrir des tendances et trouver de nouvelles opportunités pour leurs 27 000 étudiants.
Accélération notable des analyses
Les analyses en libre-service reposent sur la démocratisation des données, ce qui permet de trouver plus vite des informations exploitables. Les utilisateurs qui connaissent le mieux leurs données peuvent commencer à les exploiter rapidement, sans connaissances particulières en informatique ou formation approfondie. Nous avons l'habitude d'utiliser notre téléphone, ordinateur portable ou tablette pour trouver des réponses à nos questions d'ordre personnel, et il en va de même en milieu professionnel.
Cependant, cette rapidité comporte de nombreuses facettes
Par exemple, l'université de l'Indiana, grand centre de recherche, tire profit de la rapidité des analyses en libre-service depuis plusieurs années. Le personnel chargé des inscriptions utilise des tableaux de bord pour explorer rapidement, sous tous les angles et au niveau de détail nécessaire, les données dont il dispose sur les étudiants. Des tendances qui étaient identifiées au bout de plusieurs semaines ou mois auparavant sont désormais décelées en quelques heures, voire en quelques minutes.
Les analyses en libre-service présentent un autre bénéfice : la prise en main demande beaucoup moins de temps. Aujourd'hui, avec ces nouveaux outils, l'adoption et la formation nécessitent seulement quelques heures, contre plusieurs mois auparavant. Les départements au sein des universités qui ont besoin de réponses rapides apprécient un déploiement accéléré grâce à une prise en main simplifiée.
Optimisation de la flexibilité et de la sécurité
Le fait que les analyses en libre-service améliorent l'écosystème de données existant au lieu de le remplacer entièrement explique en partie leur adoption rapide. Les outils informatiques sont compatibles avec les données existantes. Si ces données résident dans une base SQL, un système ERP ou dans des feuilles de calcul, nul besoin de changer quoi que ce soit.
Même si les analyses en libre-service peuvent laisser penser que tout est permis, la sécurité des données est plus importante que jamais. Une approche IT solide en matière d'information doit réunir ces trois composantes : précision, disponibilité et contrôle. La précision des données tombe sous le sens, mais cet aspect reste trop souvent ignoré. Si les données ne sont pas fiables, elles produiront des résultats qui manqueront eux aussi de fiabilité, quelle que soit la manière dont elles sont analysées.
La disponibilité des données est une question complexe. Avec les analyses en libre-service, les données doivent être disponibles pour tous les utilisateurs qui en ont besoin, sans pour autant être rendues publiques. Pour les universités en particulier, la sécurité et la confidentialité des données sont primordiales. L'IT, entre autres attributions, doit déterminer le niveau d'accès approprié pour chaque département, chaque fonction et chaque utilisateur. En effet, savoir qui a accédé à quelles informations est très important pour le suivi.
À l'université Carnegie-Mellon, le service financier utilise les analyses en libre-service pour moderniser ses procédures d'analyse, tout en garantissant la confidentialité des données. Les administrateurs de l'établissement peuvent ainsi consulter des données financières à jour, où qu'ils soient et sur tout type de terminal. Ce projet a également permis de tester ces différentes méthodes avant de les déployer dans toute l'université.
Communication simplifiée grâce à la visualisation des données
À la manière d'un enseignant qui utilise des supports visuels pour aider les étudiants à mieux appréhender des concepts difficiles, les logiciels en libre-service créent des visualisations qui facilitent la compréhension des données. Ces visualisations sont le fruit de recherches menées par des experts très qualifiés sur la capacité du système visuel humain à traiter l'information et s'appuient sur nos forces et faiblesses naturelles.
L'université du Lancashire central (UCLan) – l'une des plus grandes universités au Royaume-Uni qui regroupent 37 000 étudiants et membres du personnel – continue à s'étendre tant à l'intérieur du pays qu'à l'étranger. Pour gérer soigneusement cette croissance, l'université utilise l'analyse en libre-service pour s'assurer que les indicateurs clés de performance sont respectés à travers les départements et qu'il est possible d'en extraire un aperçu exploitable.
Un des principaux résultats de cette approche est une compréhension plus unifiée des défis et des opportunités. L'équipe s'occupant des stratégies d'entreprise est ainsi capable de développer et de partager des tableaux de bord visuels informant les différents départements des taux de rétention des étudiants ou des départs anticipés. En partant d'un ensemble de données commun, les départements peuvent découvrir des tendances comme la saisonnalité des départs d'étudiants et les soutenir directement de la meilleure manière possible et au meilleur moment.
Une expérience enrichissante également sur le plan éducatif
Les universités sont souvent critiquées quand elles cherchent à adapter une stratégie du secteur privé pour soutenir leur mission éducative. Cependant, les analyses en libre-service sont un bon exemple des enseignements que peut leur apporter le secteur privé. Les outils conçus à l'origine pour améliorer la satisfaction client et maximiser la croissance permettent aux universités d'atteindre ces mêmes objectifs, ou certains plus ambitieux encore, comme l'amélioration des taux de réussite et du niveau d'éducation de la société.