Accéder au contenu principal

Cybersécurité : l’explosion du cloud et de l’IA fait bondir les attaques de 168 % en un an, selon QBE

  Le dernier rapport de QBE montre que l'adoption accélérée du cloud et de l’intelligence artificielle bouleverse la carte mondiale des risques cyber. En 2025, les ransomwares atteignent des niveaux inédits tandis que les deepfakes deviennent un vecteur d’attaque majeur. La transformation numérique accélérée par l’intelligence artificielle, la migration vers le cloud et l’explosion des volumes de données redessine en profondeur le paysage mondial des menaces cyber. Le dernier rapport de QBE révèle une progression fulgurante : en un an, le nombre d’attaques a bondi de 168 %, les alertes critiques cloud ont augmenté de 235 %, et 10 % des cyberattaques impliquent désormais des deepfakes. Ces chiffres traduisent un basculement structurel où innovation et vulnérabilité avancent de concert. Une attaque sur dix réussie s’appuie sur des contenus falsifiés par IA L’IA générative, longtemps perçue comme un levier de productivité, devient aussi une arme d’ingénierie s...

Tribune libre. Customer Data Platform : vers la personnalisation du marketing en temps réel


Par Jean-Michel Franco, Directeur Marketing Produit, Talend

Les big data ont envahi l’espace médiatique depuis quelques années. Si nombre d’articles détaillent les bénéfices qu’elles procurent, tant en termes de connaissance client, d’optimisation de processus ou d’amélioration des capacités de prévision des entreprises, peu s’attardent sur les méthodes qui permettent de les matérialiser. C’est certainement la raison pour laquelle seulement 25% des entreprises déclarent avoir déjà mis en place un marketing personnalisé omnicanal, alors qu’elles sont 80% à souhaiter exploiter davantage les données « temps réel » dans leurs actions marketing.
Pourtant, la technologie est désormais mature. Les pionniers que sont Mint dans le secteur bancaire, Amazon dans la distribution ou NetFlix dans les médias, nous l’ont prouvé : il est aujourd’hui possible de mettre en place une plate-forme centralisée de gestion des données clients, capable d’intégrer et de fournir des informations en temps réel, quel que soit le canal d’interaction utilisé.
Cette plate-forme, communément appelée Customer Data Platform (CDP), permet de reconstituer l’intégralité du parcours client en centralisant et en croisant non seulement des données d’interaction : historique d’achat, préférences, satisfaction, fidélité, etc. (données internes), mais également des informations sociales permettant de comprendre les intentions ou l’appétence : goûts, instants décisifs, habitudes d’achat, parcours web, réseaux sociaux, etc. (données externes). Grâce à la puissance de la nouvelle génération de technologies analytiques – tirant notamment parti d’Hadoop et de son écosystème – et à la baisse drastique de leurs coûts la consolidation de ces énormes volumes de données est aujourd’hui très rapide et offre les moyens de réagir en temps réel à tout événement.
Ainsi, elle aide en amont à améliorer la connaissance client et à bien appréhender les besoins d’un individu. Elle permet en outre de prédire ses intentions et au final, elle offre à l’entreprise toute l’information nécessaire pour influencer le parcours client, en proposant des expériences significatives, au bon moment et via le bon canal.

Pour y parvenir, la Customer Data Platform doit reposer sur quatre piliers principaux. D’une part, des fonctions de gestion de données permettant de récupérer, intégrer et centraliser toute source de données utiles. Ces fonctions incorporent des modules de qualité de données qui garantissent la pertinence et l’actualisation des informations client, ainsi que de Master Data Management (MDM) à travers lesquelles sont fixées les règles d’association entre ces données.
Le second pilier consiste à établir une liste des offres et les conditions d’éligibilité, tenant par exemple compte des spécificités de l’entreprise : clients premiums, cartes de fidélité, etc. Le troisième pilier vise à analyser les données et leurs relations, pour établir une segmentation client. Enfin, le dernier pilier concerne la capacité prédictive et prescriptive de l’entreprise, qui grâce au machine learning, permet de pousser l’offre qui sera la plus probablement acceptée par le client (la recommandation).

Côté méthode, quatre étapes nous semblent essentielles pour parvenir au Graal ultime du marketing one-to-one en temps réel. Avant le projet, il est évidemment capital de définir le business case de votre projet : quels enjeux (augmenter les taux de transformation commerciaux, fidéliser le client en leur proposant le bon service au bon moment, lancer un nouveau produit ou service) ? et quel retour sur investissement ? Les pionniers nous conseillent ainsi de concevoir un storyboard décrivant le parcours client idéal, en s’intéressant aux « moments de vérité » c’est-à-dire aux interactions qui ont le plus de valeur et d’impacts aux yeux du client.

Le respect de la vie privée est évidement un point clé dès que l’on s’intéresse à la personnalisation. On pense bien sûr à la dimension réglementaire, mais cela va bien au-delà, puisque l’enjeu, c’est la relation de confiance et le bénéfice qu’en retire le client. Sans doute ici faut-il s’inspirer de ce qu’a su institutionnaliser le corps médical : il est dans notre intérêt de transmettre à notre médecin toute l’information utile, y compris la plus confidentielle. Mais, nous le faisons que parce que son corps de métier a établi des règles de gouvernance claires et strictes. L’entreprise doit à son tour établir ses règles de gouvernance, voire même son « serment d’Hippocrate ».

Pendant le projet, deux étapes consistent d’une part à importer les données et à les intégrer, afin de bien comprendre ce qu’elles contiennent (« découverte »), et d’autre part à ébaucher les premiers modèles de recommandation (« scoring ») qu’il conviendra de tester et d’affiner en fonction des premiers résultats. Les scores seront actualisés lors de chaque interaction.

Cette capacité à personnaliser la relation en temps réel peut paraitre complexe : les systèmes d’information ont effet jusqu’à présent pris le soin de découpler les fonctions transactionnelles et analytiques, réservant les systèmes analytiques à une petite population d’utilisateurs en les alimentant en information en temps différé. Or, il s’agit désormais d’alimenter les systèmes d’informations transactionnels, site web, applications mobiles, systèmes de point de vente, CRM, etc. avec de l’information analytique, en temps réel, pour faire les bonnes recommandations. Ceci s’effectue donc en général au travers d’une approche progressive. Par exemple en commençant par l’ajout de parcours personnalisés sur une application mobile ou dans les échanges entre le client et le centre d’appel. Ceci a l’avantage d’offrir rapidement de premiers résultats mesurables qui permettront d’élargir peu à peu le périmètre du projet et de s’assurer des retours sur investissements en conditions réelles. La dernière étape permet justement d’intégrer de plus en plus profondément les points de contact – web, centre d’appels, points de vente, etc. – afin d’enrichir le profil client et de pouvoir personnaliser l’ensemble des interactions.

Lorsque l’ensemble des points de contact a été intégré, l’entreprise dispose de toutes les informations nécessaires à la recommandation. C’est le fameux Graal du marketing one-to-one en temps réel, avec quatre bénéfices principaux : visibilité totale sur le parcours client (en d’autres termes l’alignement du marketing et des ventes), satisfaction du client reconnu (pas besoin de s’authentifier) et donc fidélité, mesure des actions marketing et au final, augmentation du chiffre d’affaires grâce à la hausse des taux de conversion. Quand on sait que les entreprises utilisant ce type de technique analytique se distinguent largement des concurrents qui ne l’utilisent pas, on aurait tort de s’en priver…

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Comment savoir si je suis touché par un logiciel espion ?

Par Allan Camps, Senior Enterprise Account Executive chez Keeper Security Les logiciels espions sont des logiciels malveillants qui, installés à votre insu sur votre appareil, permettent aux cybercriminels de vous espionner et de voler vos informations privées. Ces informations peuvent ensuite être utilisées par des cybercriminels ou vendues sur le dark web pour commettre des fraudes ou des usurpations d'identité. Il est possible de repérer ces logiciels malveillants sur votre appareil en observant des signes particuliers tels que l'épuisement rapide de la batterie, la surchauffe, l'augmentation du nombre de fenêtres pop-up ou de l'utilisation des données, et la présence d'applications inconnues. Comment détecter un logiciel espion sur votre smartphone Android ou votre iPhone ? Recherchez les applications que vous n'avez pas téléchargées. Les applications que vous n'avez pas téléchargées peuvent se cacher dans votre bibliothèque et contenir des logiciels ...

Le retour de la pellicule argentique : Kodak investit pour l'avenir

La photographie argentique, longtemps considérée comme une relique du passé, connaît un regain d'intérêt spectaculaire en 2024. Kodak, l'emblématique entreprise américaine, a récemment annoncé des investissements significatifs pour moderniser ses infrastructures et augmenter sa production de pellicules. Cette décision intervient alors que la demande pour les films argentiques explose, portée par une nouvelle génération de passionnés et de créateurs en quête d'authenticité. L'engouement pour l'argentique n'est pas un simple effet de mode. Il s'agit d'un véritable retour aux sources, où la qualité des couleurs, les textures uniques et le processus créatif de la photographie analogique séduisent autant les amateurs que les professionnels. Kodak, conscient de cet engouement, s'engage à produire des films aussi longtemps que la demande existera. Cette modernisation de l'usine de Rochester, où sont fabriqués les films emblématiques de Kodak, représente...