Accéder au contenu principal

L’IA au travail : un gain de confort qui pourrait vous coûter cher

Par  Kathleen Desveaud , Kedge Business School L’intelligence artificielle promet un soulagement face à l’ennui des tâches répétitives au travail, mais son usage excessif pourrait entraîner une déqualification progressive et une nouvelle forme de frustration professionnelle. Entre automatisation bénéfique et risque de « travail zombie », comment faire de l’IA un allié du développement des compétences plutôt qu’une source d’appauvrissement cognitif ? L’impact de l’intelligence artificielle (IA) sur les métiers est un sujet majeur , qui a été traité dans de nombreuses études . Si la question de la disparition des emplois retient souvent l’attention, une autre question de fond mérite d’être considérée : comment ces technologies transforment et transformeront-elles concrètement le quotidien, les compétences et la motivation des travailleurs ? L’IA, un remède contre l’ennui au travail ? L’IA est parfois présentée comme un parfait remède a...

Pourquoi ne faut-il pas mettre tous ses œufs dans le même cloud ?

cloud


Par Bertrand Masson, Co-Fondateur et Directeur Stratégie de Moskitos 

Guidées par des enjeux business toujours plus critiques et urgents, de nombreuses entreprises se sont jetées avec une confiance aveugle dans les filets d’un unique fournisseur de cloud public. Elles font aujourd’hui marche arrière en prenant conscience que la meilleure défense contre certaines pratiques hégémoniques des GAFAM est une approche multicloud.

L’intérêt de déplacer une partie de ses infrastructures et services informatiques dans le cloud public ne fait désormais plus débat, tant les avantages générés en termes de productivité ont été prouvés après plus d’une décennie de tests, essais et projets concluants. Le phénomène s’accélère aujourd’hui avec la migration de nombreuses offres existantes vers le cloud, l’arrivée sur le marché d’éditeurs et de start-ups « cloud native » ou bien encore l’émergence de la Data Science ou de l’IA, consommatrices de données et de puissance de calcul.

Les données et applications les plus sensibles ou qui n’ont pas d’utilité à basculer dans le cloud sont, elles, restées dans le système d'information à demeure, sur les clouds privés des entreprises, qui optent massivement pour une stratégie que l’on qualifie de « cloud hybride ». Si les services cloud de type SaaS sont souvent souscrits auprès de multiples fournisseurs (CRM chez Salesforce, gestion des talents chez Talentsoft…), il n’en va pas de même lorsque les décideurs informatiques doivent faire le choix stratégique d’un partenaire pour une infrastructure cloud (IaaS/PaaS). 

De prime abord, il peut paraître plus simple de ne faire appel qu’à un seul fournisseur sur un marché du cloud public dont les leaders se nomment Amazon (AWS), Microsoft (Azure) ou Google (Google Cloud), ceci afin de ne pas ajouter de complexité là où il y en a déjà beaucoup. Et pourtant, faire le choix d’une stratégie que l’on qualifie de « multicloud », à savoir utiliser plusieurs fournisseurs de cloud public, est aujourd’hui l’option la plus pertinente. Voici pourquoi.

La dépendance envers un fournisseur crée un risque économique

Les grands acteurs américains du cloud opèrent dans d’autres marchés grand public (B2C) où ils ont déjà démontré leur capacité à inventer et exploiter des modèles d’écosystèmes fermés, et ils les appliquent aujourd'hui au marché du cloud pour entreprises (B2B). Si un abonnement Amazon Prime donnant accès à de multiples services réussit à garder captifs des millions de particuliers, pourquoi ne pas appliquer la même recette avec les entreprises ? Mais si les conséquences restent mesurées et facilement rectifiables pour un individu, elles s'avèrent bien plus impactantes et engageantes pour une entreprise, quelle que soit sa taille.

Ce genre de pratiques commerciales agressives, que l’on a pu constater aussi chez d’autres géants du logiciel, est un piège qu’il faut éviter si l’on ne souhaite pas se retrouver pieds et poings liés contractuellement avec une politique tarifaire fluctuante à la hausse. Choisir un unique fournisseur de cloud, c’est devenir dépendant de ses décisions unilatérales.

En revanche, en choisissant une logique multicloud, l’entreprise instaure entre ses fournisseurs un rapport de force, permettant une saine mise en concurrence des conditions contractuelles et des tarifs. La question des coûts est en effet sensible car derrière une apparence séduisante, le cloud public sans contrôle ni concurrence peut se révéler plus onéreux qu’envisagé. D’après une étude récente de Kentik, 30% des entreprises affirment ainsi que leur plus grand challenge dans la gestion du cloud est la maîtrise des coûts. En disposant de plusieurs clouds, il devient plus aisé de faire baisser le prix du stockage de données ou la consommation d’algorithmes d’IA, par exemple.

Profiter du meilleur de chaque cloud selon ses besoins

Choisir le multicloud permet donc d’échapper aux engagements exclusifs avec un seul fournisseur. C’est aussi le moyen de conserver son agilité en profitant des forces et avantages de chacun. Qui peut en effet croire que tous les fournisseurs de cloud public répondent à tout, sont bons sur tout et sont même les meilleurs partout ? Si IBM est réputé pour l’IA avec Watson, l’est-il pour les bases de données ? Google Cloud est-il reconnu pour autre chose que le Big Data et AWS est-il le meilleur en dehors de ses infrastructures solides ?

L’intérêt du multicloud est de pouvoir remédier au fait qu’aucun fournisseur de cloud n’offre une couverture complète de fonctionnalités, une qualité exemplaire sur chaque service et une performance optimale partout dans le monde. Le multicloud permet d’aller chercher le meilleur là où il est et se donner également la possibilité d’avoir recours à des start-ups pouvant répondre de manière plus précise qu’un fournisseur généraliste à un besoin particulier ou innovant.

C’est pourquoi il est impératif de bien définir les besoins de l’entreprise en termes d’usages technologiques et de proposition de valeur (Big Data, IA, IoT…), de fonctionnalités requises, de coûts et de qualité de service recherchée, afin d’être en mesure de choisir les partenaires de cloud public les plus adaptés.

S’ouvrir à de multiples marchés plus ou moins contraignants

Les considérations d’ordre géographique ne doivent pas non plus être oubliées. En misant sur plusieurs fournisseurs cloud, on acquiert la possibilité d’utiliser un éventail de réseaux de data centers plus vastes, et donc d’être présent partout sur la planète. Dans le domaine du retail à l’ère de l’omnicanal par exemple, cela peut permettre de garantir une même performance à tous ses clients dans le monde. Et si l’on souhaite opérer en Chine, passer par un fournisseur local comme Alibaba ou Tencent devient obligatoire pour passer les barrières protectionnistes et se plier aux contraintes réglementaires.

La réglementation, c’est en Europe qu’elle est la plus forte concernant les données. Est-on sûr que chaque fournisseur de cloud public soit parfaitement conforme au Règlement Général sur la Protection des Données (RGPD) ? Il peut ainsi s’avérer utile de travailler avec des acteurs domestiques comme OVH pour la France ou T-Systems en Allemagne pour pénétrer un marché vigilant sur le traitement des données de ses citoyens.

Enfin, dans le contexte géopolitique actuel et la forte expansion de l’espionnage industriel, difficile de ne pas prendre en considération les risques pour une entreprise européenne de conserver ses données critiques sur un cloud américain ou chinois. La non-porosité entre certains gouvernements et des fournisseurs de cloud n’est pas garantie à 100%. Il semble donc sage pour l’entreprise d’associer ses solutions de cloud public mondiales à celle d’un cloud français ou européen, lui permettant de stocker ses données sensibles loin du regard des acteurs économiques trop curieux.

Bien s’outiller pour gérer la complexité du multicloud

Décider de basculer en multicloud paraît donc être une décision pertinente pour des raisons de maîtrise des coûts, de liberté de choix, d’agilité et de contrôle de ses données. La tendance devrait d’ailleurs s’accélérer fortement puisque selon le cabinet Gartner, 75% des entreprises à la recherche de solutions cloud d’ici deux ans réclameront des fonctionnalités multicloud, contre 30% aujourd’hui. En revanche, cette stratégie « multisourcing » n’est pas sans conséquences organisationnelles et technologiques pour l’entreprise.

En premier lieu, à charge de la DSI de l’entreprise de mettre en place une gouvernance et un suivi des opérations menées avec chaque fournisseur, et de la facturation qui en résulte. Ce qui ne représente pas un défi majeur, d’autant qu'il existe des outils packagés pour répondre à ce besoin.

C’est davantage au niveau de l’architecture du système IT de l’entreprise que se situe le challenge du multicloud. L’objectif est en effet de déployer des interconnexions temps réel entre les différents cloud, qu’ils soient privés ou publics, de manière totalement sécurisée. Une plateforme d’API Management permet de faire le premier pas en exposant les API de l’entreprise en un point centralisé, plus simple à sécuriser et gouverner.

La problématique s’étend toutefois au-delà de la simple exposition des API. Il est essentiel aussi de pouvoir orchestrer les données hétérogènes au sein d'un système d’information devenu hybride. Le recours à une plateforme d’intégration de type iPaaS doit ainsi être envisagé. Cet outil, véritablement dédié au multicloud, va se charger de composer, enrichir et agréger les données de multiples sources, afin d’organiser l’ensemble des informations internes et externes de l’entreprise, de manière performante et conforme aux réglementations.

L’entreprise ainsi outillée, il devient alors plus simple et rapide d’exploiter les technologies consommatrices de données, comme l’IA, l’automatisation RPA ou bien l’Open Data et ce, partout dans le monde. Pour au final développer sa capacité d’innovation et lui permettre de bénéficier avant ses concurrentes des opportunités business générées par la transformation numérique.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...