Accéder au contenu principal

Avec « Osez l’IA », la France veut transformer l’intelligence artificielle en levier concret pour ses entreprises

En annonçant le plan national « Osez l’IA » ce 1er juillet, Clara Chappaz, ministre déléguée à l’Intelligence artificielle et au Numérique, n’a pas déclenché une révolution, mais acté une inflexion majeure : celle du passage à l’échelle. La France s’était dotée, dès 2018, d’une stratégie nationale ambitieuse issue du rapport Villani, posant les bases d’un écosystème de recherche performant, d’un financement public structurant et d’une régulation éthique. Une décennie plus tard, avec 1 000 start-up dans le domaine, un supercalculateur de pointe (Jean Zay) et des leaders comme Mistral AI, le socle est posé. Mais l’adoption reste lacunaire. En 2025, seules 13 % des PME utilisent réellement une solution IA. Le plan « Osez l’IA » veut inverser cette tendance. Ce plan s’inscrit dans le sillage de France 2030, qui a déjà engagé plus de 2,5 milliards d’euros pour soutenir l’intelligence artificielle. Il s’appuie également sur les enseignements du rapport de Bpifrance Le Lab (« L’IA dans les PM...

L'analyse des données, au coeur de l'entreprise de demain




Florian Douetteau, CEO, Dataiku

Alors que les données se multiplient et que les consommateurs prennent conscience de leur empreinte numérique, les entreprises vont très vite faire face à un nouveau un défi : exploiter d'importants volumes de données en temps réel afin d'optimiser leur réactivité.
C'est le data-analyst, dont la place dans l'enteprise est en pleine mutation, qui peut relever ce challenge, à condition que son rôle se rapproche de l'opérationnel. Agir sur le churn une fois qu'il est prédit, agir sur les machines quand elles montrent des signes de faiblesse, éviter les fraudes en analysant les comportements clients : hors de son antre, le data-analyst sera en première ligne pour permettre à son équipe de tirer avantage du Big Data.

Données en temps réel et automatisation : le nouveau quotidien des analystes
Prédire les évènements futurs aura été la principale préoccupation des entreprises ces dernières années, bien plus que l'étude du passé. C'est là la force du temps réel. Mais c'est un réel défi, car les données affluent par milliers à la seconde : c'est à la réactivité que se mesure la performance, à sa rapidité d'ajustement en fonction des évènements que l'on évalue à présent une bonne stratégie. Pour répondre à ces nouvelles exigences, il ne suffira pas de se doter de profils qualifiés en analyse des données. Il faudra également faire évoluer l'action des équipes d'analystes, leur attribuer un rôle en première ligne, les faire entrer au cœur de l'action de l'entreprise.
Jusqu'ici dédiées à l'étude des évènements passés en vue de prédire ce qui peut se produire, et de transformer en information exploitation les millions de données collectées, les équipes d'analystes verront leur structure entièrement modifiée. L'automatisation des reportings et le machine learning auront raison des tâches répétitives. Les analystes de données disposeront ainsi de plus de temps pour ce qui constitue le cœur de leur métier : la construction de modèles prédictifs basés sur l'observation en temps réel des données et le machine learning. Des modèles qui pourront ensuite être reproduits et appliqués à différents cas de figure. Les analystes adoptent ainsi de nouvelles fonctions au sein de l'entreprise : l'exploration et la modélisation des données, et l'accompagnement de leurs interlocuteurs vers la compréhension de celles-ci.

Les nouveaux challenges : rendre les données accessibles et deep learning
L'apparition du deep learning a de quoi bouleverser la manière dont les data-analysts travaillent. Capables de reconnaître seules des schémas dans la parole ou l'image, les machines soumises au deep learning constituent des alliés pour le data-analyst : leur capacité de calcul rapide permet d'accélérer l'aide à la décision, et se révèle particulièrement utile dans des domaines tels que le ciblage marketing ou la météorologie. A ces nouveaux outils succéderont de nouvelles exigences et une restructuration des modes de travail des analystes. Habitués à travailler en équipes plus ou moins distinctes du reste de l'entreprise, les analystes seront amenés à se répartir entre les différentes équipes de l'entreprise, du marketing à l'équipe technique. L'agilité sera donc le maître mot. Plus intégré auprès des autres collaborateurs, le data-analyst tiendra lieu de passerelle pour mieux comprendre et interpréter les données. Une implication supplémentaire qui sera particulièrement bénéfique dans certains champs d'application qui appellent l'action de techniciens de terrain, tels que la maintenance prédictive ou la médecine spécialisée.
Par ailleurs, les consommateurs sont de plus en plus conscients de la valeur de leurs données pour les entreprises. Le RGPD (Règlement Général sur la Protection des Données) va d'ailleurs dans leur sens, puisqu'il vise à redonner aux consommateurs le pouvoir sur l'exploitation de leurs données personnelles. Autant d'exigences qui appellent les équipes de data-analysts à se mêler davantage aux équipes opérationnelles. « Agile » sera donc le nouveau synonyme de « data-analyst » !

Agrandir le spectre des compétences pour une action optimisée
Dans le domaine de l'entreprise comme ailleurs, formulaires de contact et machines ne sont plus les seuls fournisseurs de données de navigation. Les data-analysts doivent à présent se familiariser avec les blogs, les réseaux sociaux et les diverses applications, nouvelles mines de données à exploiter et à interpréter. Un élargissement du spectre des compétences est donc nécessaire, car l'analytique peut s'appliquer dans de nombreux secteurs. Plus avertis quant aux supports d'où proviennent les données et à leur fonctionnement, les data-analysts pourront gagner en réactivité et optimiser la conception de leurs modèles prédictifs, qu'ils pourront reproduire d'autant plus facilement. Ceux-ci seront plus rapidement autonomes et adaptables à d'autres configurations.

Pour que l'analyse soit davantage une source de productivité en interne, l'entreprise doit lui conférer une plus grande liberté d'action. Il peut s'avérer utile, par exemple, de donner aux analystes les moyens de réagir aux données transmises par les machines dans le cadre d'une maintenance prédictive, et de procéder à l'action adéquate. L'analyste pourra aussi agir, après analyse des données, pour éviter le renoncement d'un client ou contrecarrer une fraude de la part d'un consommateur, sans passer par les équipes marketing. Plus encore : les analystes seront amenés à créer des modèles d'action adaptables à chaque situation, et automatiser ces tâches le plus possible.

Avec l'avènement de l'approche prédictive, le data-analyst est la clé de voûte de l'efficacité des organisations, dans plusieurs secteurs (économie, santé, météorologie, etc.). Elargie à un champ plus global, ce métier si prisé sera plus à même d'adopter un fonctionnement plus agile.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...

Écrans et santé oculaire : comment protéger nos yeux à l’ère du numérique ?

Par le Dr Camille Rambaud, co-fondateur de l’Institut Voltaire L’omniprésence des écrans dans nos vies transforme notre manière de travailler, de communiquer et même de nous divertir. Mais ce mode de vie connecté à un coût pour notre santé visuelle. Fatigue oculaire, sécheresse, maux de tête, troubles du sommeil : les symptômes de ce que l’on appelle désormais le syndrome de vision artificielle touchent de plus en plus de personnes, et ce, dès le plus jeune âge. Alors, comment protéger nos yeux sans renoncer aux technologies numériques ? Comprendre les risques : l’impact des écrans sur nos yeux La lumière bleue émise par les écrans numériques est l’un des principaux facteurs incriminés. Bien qu’elle soit essentielle pour réguler notre rythme circadien, une surexposition peut perturber le sommeil et provoquer des lésions oculaires à long terme. De plus, le clignement naturel des yeux diminue significativement devant un écran, ce qui entraîne une sécheresse oculaire accrue. Enfin, la pos...