Accéder au contenu principal

Intelligence artificielle : les défis que les entreprises vont devoir relever dans les prochains mois

ia


Par Alain Biancardi, vice-président Sales & Marketing chez Expert.ai

L’intelligence artificielle cristallise de nombreux fantasmes sur son utilisation et ses perspectives. Dans les faits, les chercheurs et les entreprises sont confrontés à des défis conséquents qu’il faudra régler dans un avenir proche. Parmi ceux-ci il faut souligner un point clé : l’une des idées fausses les plus répandues autour de l’IA est que machine learning et IA sont synonymes, et les autres options – nombreuses – ne sont malheureusement que peu explorées. Or, pour que le machine learning soit efficace il est nécessaire de disposer de volumes de données conséquents. Sont-ils à notre portée ? Est-on capable de traiter ces ensembles gigantesques de data ? Quel est l’impact environnemental lié à leur traitement et à leur stockage ? Des questions qu’il convient d’aborder pour dresser un des axes futurs de la recherche et développement en intelligence artificielle.

Descartes et l’allégorie du bâton dans l’eau

Il y a près de 4 siècles, le philosophe français René Descartes commençait son œuvre majeure à travers une mise en situation de nos connaissances. L’objectif du penseur est simple, démontrer que ce que l’on perçoit n’est pas nécessairement réel et qu’il convient donc de se méfier de nos perceptions. C’est le fameux exemple du bateau plongé dans un verre d’eau. Observé dans ces conditions, le bâton semble courbe alors qu’il ne l’est pas. En intelligence artificielle nous subissons le même biais cognitif. Le succès du machine learning et sa percée fulgurante dans notre quotidien nous donne à penser que cette technologie est le futur de l’intelligence artificielle. Dans les faits, les résultats sont plus mitigés.

Machine learning : les limites de la statistique

En juillet 2020, le cabinet Deloitte publiait la troisième édition de son étude sur l’intelligence artificielle. Selon celle-ci, près de 67% des entreprises utiliseraient des solutions intégrant des technologies liées à l’IA. Gain de productivité, simplification des process métiers et opérationnels, les bénéfices du machine learning sont indéniables pour ces professionnels. Par contre, les résultats sont beaucoup moins probants dès que cette technologie traite des fonctions plus complexes engageant un lien avec une compréhension du langage naturel. La raison de cette déperdition technologique est simple : le langage ne peut être traité de manière approximative. Le principe de fonctionnement du machine learning est avant tout statistique. Or le langage ne se comprend pas de manière statistique. Le sens est produit à partir de la connaissance.

Les enjeux liés à la création de bases de connaissance

Le projet Google Talk to Books de Ray Kurzweil est un très bon exemple de cette difficulté. Celui-ci a été conçu pour "répondre à n'importe quelle question en lisant des milliers de livres". Cependant, ce modèle basé sur le machine learning ne pouvait pas toujours générer la bonne réponse à des questions simples telles que "Où Harry Potter a-t-il rencontré Hermione Granger ?". Cette information n'est pas explicitement énoncée dans un livre et ne peut pas être déduite par manque de connaissances. La question des graphes de connaissance, qui modélisent la connaissance de manière à ce qu’elle soit comprise par la machine, est au cœur de cet enjeu. Pour qu’une intelligence artificielle puisse produire du sens, il est nécessaire de disposer d’ensembles de données structurées de manière adéquate et de taille conséquente.

Le dilemme de la pénurie des données

Les données alimentent tous les modèles d'intelligence artificielle. Les entreprises sous-estiment souvent le volume de données et le temps nécessaires pour démarrer un modèle de machine learning efficace. Pour de nombreuses organisations, ce besoin en volume important de données met le plus souvent un terme aux projets d'IA avant même qu'ils ne démarrent. En fait, 96% des organisations rencontrent des problèmes avec leurs projets de machine learning en raison de la rareté,de la qualité et de l'étiquetage des données. Dans le monde de l'entreprise, la pénurie de données est plus fréquente qu'on ne le croit. Il est donc important pour ces organisations de développer des modèles moins gourmands en données.

La flambée des coûts et l'empreinte carbone

Le coût et l'empreinte carbone nécessaires aux organisations pour former et maintenir des modèles de machine learning liés à des enjeux linguistiques sont immenses. En effet, ils ne sont viables que pour les organisations les plus riches. Selon les recherches d'Emma Strubell, pour former un modèle de langage efficace qui utiliserait près de 213 millions de paramètres basés sur un modèle d'architecture neuronal, le coût de son déploiement serait d’environ 1 à 3 millions de dollars. Son utilisation générerait l'équivalent de 284 tonnes de dioxyde de carbone soit la production carbone de cinq voitures sur toute leur durée de vie.

Les entreprises sont dès lors confrontées à des exigences difficilement soutenables en termes de données. Au-delà du coût et de l'empreinte carbone, un modèle d’intelligence artificielle linguistique nécessite également d’entraîner l’IA de manière adéquate. Un autre problème est que les systèmes d’apprentissage déployés doivent disposer d’une maturité suffisante pour offrir un rendu acceptable pour leurs utilisateurs. Ces enjeux ne doivent pas être perçus comme des impasses, bien au contraire, mais plutôt comme une incitation à explorer des technologies d’IA différentes, complémentaires du machine learning, capables de résoudre ces défis et de proposer à court et moyen terme des solutions qui permettent de démocratiser l’IA.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Univers parallèles et mondes virtuels : la guerre des métavers est commencée

  Une partie de poker dans le métavers (capture d'écran de la vidéo “Le métavers et comment nous allons le construire ensemble” sur YouTube) Par  Oihab Allal-Chérif , Neoma Business School Le 17 octobre 2021, Mark Zuckerberg a lancé les hostilités de manière assez théâtrale, comme s’il défiait ses concurrents d’en faire autant. Afin de concrétiser son rêve d’enfant, le métavers, il a décidé de mettre en œuvre des moyens colossaux : 10 000 ingénieurs hautement qualifiés seront recrutés en Europe dans les 5 prochaines années. Cette annonce a été faite quelques jours avant celle du changement de nom du groupe Facebook en Meta , le 28 octobre, démontrant ainsi l’engagement total du fournisseur de réseaux sociaux dans la transition vers le métavers. Le 22 juillet 2021, dans une interview à The Verge , le créateur de Facebook racontait : « Je pense à certains de ces trucs depuis le collège quand je commençais tout juste à coder. […] J’écrivais du code

Sans Sauvegarde, pas de cyber-résilience

Par Alexandra Lemarigny, directrice commercial Europe du Sud Opentext Security Solutions Les études diverses sur les habitudes de sauvegarde des entreprises et leurs collaborateurs sont sans équivoque : très majoritairement, elles ne s’attardent vraiment sur ces questions de sauvegarde ou de récupération qu’en cas d’incidents. Pourtant la sauvegarde est l’élément majeur des dispositifs de cyber-résilience, à savoir la capacité à rester opérationnel, même face aux cyberattaques et à la perte de données. La sauvegarde n’est pas suffisamment considérée Dans les faits, force est de constater que la sauvegarde n’est pas envisagée dans son entièreté par les entreprises qui n’ont pas eu à subir d’accidents et il est fréquent qu’elles ne sauvegardent pas les éléments les plus pertinents. A titre d’exemples une entreprise peut ne sauvegarder qu’un ou deux serveurs, ou un élément qu’elle a identifié comme critique quelques années auparavant. Certaines ne tiennent pas compte de l’évolution de leu

Implants cérébraux : la délicate question de la responsabilité juridique des interfaces homme-machine

Dans le film Transcendance , de Wally Pfister, sorti en 2014, le héros mourant transfère son esprit dans un ordinateur quantique. Wally Pfister, 2014 Par  Elise Roumeau , Université Clermont Auvergne (UCA) Depuis quelques années, Elon Musk ne cesse de faire des annonces relatives à des avancées technologiques. Voitures autonomes , voyages interplanétaires , interface homme-machine , achat du réseau social Twitter… rien ne semble arrêter l’homme d’affaires. Aucun obstacle technique, géographique, physiologique ne lui semble infranchissable. Pourtant, ses projets pourraient, à court terme, poser de véritables difficultés du point de vue juridique. La recherche d’une fusion entre le cerveau et l’intelligence artificielle Avec Neuralink, l’un des objectifs visés par Elon Musk est de créer une interface entre l’humain et la machine . À plus ou moins court terme, le projet porte sur le développement d’implants cérébraux pour pallier des troubles neur

Sondage : quatre Français sur dix craignent le vol d'identité

Selon un sondage représentatif commandé par le fournisseur de messagerie GMX , de nombreux internautes français sont préoccupés (31%), voire très inquiets (9%), d'être victimes d'un vol d'identité. La majorité craint que des inconnus puissent faire des achats (52%) avec leur argent. Dans le cas d'une usurpation d'identité, les criminels accèdent aux comptes en ligne et agissent au nom de leurs victimes. De nombreuses personnes interrogées craignent que des inconnus signent des contrats en leur nom (37 %), que des escrocs utilisent l'identité volée pour ouvrir de nouveaux comptes (36 %) et que des informations les plus privées tombent entre des mains étrangères ou soient rendues publiques (28 %). Besoin de rattrapage en matière de sécurité des mots de passe Il est urgent de rattraper le retard en matière d'utilisation de mots de passe sûrs selon GMX : 34 % des utilisateurs d'Internet en France utilisent dans leurs mots de passe des informations personnell

Sources d’information et orientation politique : ce que nous apprend Twitter

  Par  Laura Hernandez , CY Cergy Paris Université et Rémi Perrier , CY Cergy Paris Université Plusieurs études du discours médiatique ont mis en lumière, par des analyses quantitatives et qualitatives, des soutiens à peine voilés de certains médias envers certains courants politiques . Et si l’on inversait la question ? Bien qu’on ait tendance à considérer, par exemple, qu’un lecteur régulier du Figaro s’oriente politiquement à droite, peut-on établir des corrélations à grande échelle entre choix de sources d’information et orientation politique ? Des études basées sur des enquêtes d’opinion ont montré notamment la part grandissante des réseaux sociaux dans la diffusion de l’information et le rôle qu’ils jouent dans la formation de l’opinion publique depuis une décennie, à l’image des évolutions observées lors de deux dernières élections aux États-Unis (voir ici et ici ). Les médias traditionnels ont intégré cette donnée et utilisent les réseaux sociaux en se faisant l’écho