Accéder au contenu principal

Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine

  Portraits de John Hopfield et Geoffrey Hinton, lauréats du prix Nobel de physique 2024 pour leurs découvertes et inventions qui ont permis de développer l'apprentissage machine avec des réseaux de neurones artificiels. Niklas Elmehed © Nobel Prize Outreach Par  Thierry Viéville , Inria Le prix Nobel de physique 2024 récompense des travaux précurseurs de John Hopfield et Geoffrey Hinton sur les réseaux de neurones artificiels, à la base de l’apprentissage machine. Ces travaux ont participé au développement de l’intelligence artificielle, qui chamboule aujourd’hui de nombreux secteurs d’activité. C’est à une question simple que John Hopfield et Geoffrey Hinton ont apporté une réponse qui leur vaut aujourd’hui le prix Nobel de physique : « Quelle est la description la plus simple que nous pourrions faire de nos neurones, ces composants du cerveau, siège de notre intelligence ? » Un neurone, qu’il soit artificiel ou biologique, est u

Les avantages et les inconvénients du multicloud pour les entreprises



Par Edouard Beaucourt, Directeur France & Europe du Sud, chez Tableau


De plus en plus d'entreprises transfèrent données et applications principales vers le cloud. Elles adoptent le cloud très rapidement : optant pour le « lift and shift » ou pour le « re-platforming ».
Les entreprises ont vite pris conscience qu'une solution cloud unique ne peut pas répondre à leurs futurs besoins. Aussi, en 2018, leur stratégie sera progressivement axée autour d'un modèle multi-cloud.  Gartner prévoit que l'approche multi-cloud deviendra la norme pour 70 % des entreprises d'ici 2019, contre à peine 10 % à l'heure actuelle.
Toutefois, l'adoption de cette tendance doit s'accompagner d'une prise de conscience lucide des bénéfices et des difficultés impliqués par la migration vers ce type d'environnement. Même si l'approche multi-cloud offre une plus grande flexibilité, elle peut augmenter les coûts car elle implique de répartir la charge de travail de l'entreprise entre plusieurs fournisseurs. Les gains en termes de fiabilité et de temps de disponibilité sont des points forts, mais la gestion de plusieurs environnements cloud risque de disperser le service informatique.
Les entreprises doivent donc peser le pour et le contre de ces deux courants de pensée pour réussir leur déploiement multi-cloud :

Avantage n° 1 : opter pour le fournisseur le plus performant
Les entreprises craignent de plus en plus d'être confinées à une solution existante unique. C'est pourquoi l'évaluation et la mise en place d'un environnement multi-cloud peuvent les aider à déterminer le fournisseur dont les performances et la prise en charge conviennent les mieux à leurs besoins spécifiques. L'entreprise GE, par exemple, a revu sa stratégie d'hébergement cloud pour exploiter à la fois Microsoft Azure et Amazon Web Services. Son intention était de comprendre quel environnement d'hébergement était le plus performant et de voir quel contrat lui permettait de minimiser les coûts répercutés sur les clients. En fin de compte, les entreprises peuvent tester plusieurs technologies de différents fournisseurs avant de faire leur choix. Elles sont ainsi sûres d'acquérir la solution qui leur convient le mieux et au meilleur prix.

Inconvénient n° 1 : augmenter ses coûts et réduire son pouvoir d'achat 
L'adoption d'une stratégie multi-cloud peut diminuer le pouvoir d'achat d'une entreprise. Si elle répartit ses achats entre plusieurs fournisseurs, elle ne peut pas profiter d'économies d'échelle. L'entreprise risque donc d'acheter moins, pour plus cher. En outre, les coûts peuvent augmenter, car dans ce scénario, le service informatique travaille avec plusieurs fournisseurs de services cloud au lieu de se consacrer à une plateforme cloud unique.

Avantage n° 2 : gagner en fléxibilité 
L'approche multi-cloud offre une plus grande flexibilité aux entreprises en permettant au service informatique de concevoir un cloud réellement adapté à leurs exigences. A titre d'exemple, un fournisseur de services cloud peut proposer de meilleurs contrôles de sécurité que ses concurrents, tandis qu'un autre prestataire peut se vanter d'offrir une architecture avec un plus haute disponibilité. En utilisant plusieurs clouds, les entreprises ont la possibilité de choisir l'option de déploiement la plus adaptée à une grande variété de tâches informatiques en combinant les atouts de ces différents clouds pour atteindre leurs objectifs commerciaux.

Inconvénient n° 2 : comprendre le fonctionnement et gérer différentes plateformes 
Il faut déjà beaucoup de temps et de ressources pour se familiariser avec une plateforme cloud unique. L'utilisation de plusieurs environnements cloud, ayant chacun leurs complexités, peut donc s'avérer vite problématique. Les ressources mobilisées ont, en effet, moins de temps à consacrer à d'autres tâches comme la création de nouvelles fonctionnalités informatiques ou la gestion du service client. Qui plus est, si un environnement multi-cloud n'est pas surveillé et contrôlé correctement, les problèmes opérationnels commencent à s'accumuler et créent des obstacles à la gestion du contrôle des accès et des mises à jour de sécurité. Un environnement multi-cloud efficace nécessite donc une planification et une allocation des ressources poussées, car les équipes de développeurs internes doivent maîtriser plusieurs plateformes et mettre en place des processus de gouvernance supplémentaires en fonction des différents environnements à prendre en charge.

Avantage n° 3 : diminuer ses risques de temps d'arrêt 
L'utilisation d'une seule plateforme cloud peut s'avérer risquée, étant donné que la majorité des données est stockée au même endroit.  L'avantage avec une stratégie multi-cloud, c'est qu'en cas de panne ou de baisse de performances de l'une des plateformes cloud, les applications peuvent continuer à tourner sur une autre. Il est essentiel de prendre en compte la question de la fiabilité et du temps de disponibilité, car la diminution des risques de temps d'arrêt permet de booster la productivité et les performances globales des entreprises.

Inconvénient n° 3 : assurer la sécurité des données
La sécurité est une question importante lorsque l'on parle du cloud, et encore plus des environnements multi-cloud, car les données qui y sont hébergées sont sensibles. La complexité accrue que sous-tend l'approche multi-cloud peut entraîner davantage de problèmes de sécurité, surtout si l'environnement multi-cloud n'est pas géré de manière adéquate et si les mises à jour de sécurité ne sont pas appliquées correctement. En revanche, l'utilisation de plusieurs clouds peut réduire le risque de perte généralisée des données ainsi que les temps d'arrêt dus aux pannes matérielles. En combinant plusieurs clouds, les entreprises ont la possibilité de sécuriser leurs données sur un cloud privé et de mener d'autres activités dans un environnement cloud public. Enfin, avec un environnement multi-cloud, les équipes de développeurs internes doivent maîtriser plusieurs plateformes et mettre en place des processus de gouvernance supplémentaires en fonction des différents environnements à prendre en charge.

Comme tout porte à croire que l'approche multi-cloud va se généraliser en 2018, les entreprises vont devoir ruser en mesurant le degré d'adoption de chaque plateforme cloud, l'utilisation en interne, ainsi que le coût des exigences et de la mise en œuvre des charges de travail.  Afin de trouver la bonne solution pour son entreprise, il faut absolument commencer par peser le pour et le contre de cette tendance. 

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips. En