Accéder au contenu principal

Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine

  Portraits de John Hopfield et Geoffrey Hinton, lauréats du prix Nobel de physique 2024 pour leurs découvertes et inventions qui ont permis de développer l'apprentissage machine avec des réseaux de neurones artificiels. Niklas Elmehed © Nobel Prize Outreach Par  Thierry Viéville , Inria Le prix Nobel de physique 2024 récompense des travaux précurseurs de John Hopfield et Geoffrey Hinton sur les réseaux de neurones artificiels, à la base de l’apprentissage machine. Ces travaux ont participé au développement de l’intelligence artificielle, qui chamboule aujourd’hui de nombreux secteurs d’activité. C’est à une question simple que John Hopfield et Geoffrey Hinton ont apporté une réponse qui leur vaut aujourd’hui le prix Nobel de physique : « Quelle est la description la plus simple que nous pourrions faire de nos neurones, ces composants du cerveau, siège de notre intelligence ? » Un neurone, qu’il soit artificiel ou biologique, est u

Intelligence artificielle : les défis que les entreprises vont devoir relever dans les prochains mois

ia


Par Alain Biancardi, vice-président Sales & Marketing chez Expert.ai

L’intelligence artificielle cristallise de nombreux fantasmes sur son utilisation et ses perspectives. Dans les faits, les chercheurs et les entreprises sont confrontés à des défis conséquents qu’il faudra régler dans un avenir proche. Parmi ceux-ci il faut souligner un point clé : l’une des idées fausses les plus répandues autour de l’IA est que machine learning et IA sont synonymes, et les autres options – nombreuses – ne sont malheureusement que peu explorées. Or, pour que le machine learning soit efficace il est nécessaire de disposer de volumes de données conséquents. Sont-ils à notre portée ? Est-on capable de traiter ces ensembles gigantesques de data ? Quel est l’impact environnemental lié à leur traitement et à leur stockage ? Des questions qu’il convient d’aborder pour dresser un des axes futurs de la recherche et développement en intelligence artificielle.

Descartes et l’allégorie du bâton dans l’eau

Il y a près de 4 siècles, le philosophe français René Descartes commençait son œuvre majeure à travers une mise en situation de nos connaissances. L’objectif du penseur est simple, démontrer que ce que l’on perçoit n’est pas nécessairement réel et qu’il convient donc de se méfier de nos perceptions. C’est le fameux exemple du bateau plongé dans un verre d’eau. Observé dans ces conditions, le bâton semble courbe alors qu’il ne l’est pas. En intelligence artificielle nous subissons le même biais cognitif. Le succès du machine learning et sa percée fulgurante dans notre quotidien nous donne à penser que cette technologie est le futur de l’intelligence artificielle. Dans les faits, les résultats sont plus mitigés.

Machine learning : les limites de la statistique

En juillet 2020, le cabinet Deloitte publiait la troisième édition de son étude sur l’intelligence artificielle. Selon celle-ci, près de 67% des entreprises utiliseraient des solutions intégrant des technologies liées à l’IA. Gain de productivité, simplification des process métiers et opérationnels, les bénéfices du machine learning sont indéniables pour ces professionnels. Par contre, les résultats sont beaucoup moins probants dès que cette technologie traite des fonctions plus complexes engageant un lien avec une compréhension du langage naturel. La raison de cette déperdition technologique est simple : le langage ne peut être traité de manière approximative. Le principe de fonctionnement du machine learning est avant tout statistique. Or le langage ne se comprend pas de manière statistique. Le sens est produit à partir de la connaissance.

Les enjeux liés à la création de bases de connaissance

Le projet Google Talk to Books de Ray Kurzweil est un très bon exemple de cette difficulté. Celui-ci a été conçu pour "répondre à n'importe quelle question en lisant des milliers de livres". Cependant, ce modèle basé sur le machine learning ne pouvait pas toujours générer la bonne réponse à des questions simples telles que "Où Harry Potter a-t-il rencontré Hermione Granger ?". Cette information n'est pas explicitement énoncée dans un livre et ne peut pas être déduite par manque de connaissances. La question des graphes de connaissance, qui modélisent la connaissance de manière à ce qu’elle soit comprise par la machine, est au cœur de cet enjeu. Pour qu’une intelligence artificielle puisse produire du sens, il est nécessaire de disposer d’ensembles de données structurées de manière adéquate et de taille conséquente.

Le dilemme de la pénurie des données

Les données alimentent tous les modèles d'intelligence artificielle. Les entreprises sous-estiment souvent le volume de données et le temps nécessaires pour démarrer un modèle de machine learning efficace. Pour de nombreuses organisations, ce besoin en volume important de données met le plus souvent un terme aux projets d'IA avant même qu'ils ne démarrent. En fait, 96% des organisations rencontrent des problèmes avec leurs projets de machine learning en raison de la rareté,de la qualité et de l'étiquetage des données. Dans le monde de l'entreprise, la pénurie de données est plus fréquente qu'on ne le croit. Il est donc important pour ces organisations de développer des modèles moins gourmands en données.

La flambée des coûts et l'empreinte carbone

Le coût et l'empreinte carbone nécessaires aux organisations pour former et maintenir des modèles de machine learning liés à des enjeux linguistiques sont immenses. En effet, ils ne sont viables que pour les organisations les plus riches. Selon les recherches d'Emma Strubell, pour former un modèle de langage efficace qui utiliserait près de 213 millions de paramètres basés sur un modèle d'architecture neuronal, le coût de son déploiement serait d’environ 1 à 3 millions de dollars. Son utilisation générerait l'équivalent de 284 tonnes de dioxyde de carbone soit la production carbone de cinq voitures sur toute leur durée de vie.

Les entreprises sont dès lors confrontées à des exigences difficilement soutenables en termes de données. Au-delà du coût et de l'empreinte carbone, un modèle d’intelligence artificielle linguistique nécessite également d’entraîner l’IA de manière adéquate. Un autre problème est que les systèmes d’apprentissage déployés doivent disposer d’une maturité suffisante pour offrir un rendu acceptable pour leurs utilisateurs. Ces enjeux ne doivent pas être perçus comme des impasses, bien au contraire, mais plutôt comme une incitation à explorer des technologies d’IA différentes, complémentaires du machine learning, capables de résoudre ces défis et de proposer à court et moyen terme des solutions qui permettent de démocratiser l’IA.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips. En