Accéder au contenu principal

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Par  Laurence Corroy , Université de Lorraine Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles. Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques. Dans le cadre de l’étude Sexteens , menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries on...

Tribune libre. Customer Data Platform : vers la personnalisation du marketing en temps réel


Par Jean-Michel Franco, Directeur Marketing Produit, Talend

Les big data ont envahi l’espace médiatique depuis quelques années. Si nombre d’articles détaillent les bénéfices qu’elles procurent, tant en termes de connaissance client, d’optimisation de processus ou d’amélioration des capacités de prévision des entreprises, peu s’attardent sur les méthodes qui permettent de les matérialiser. C’est certainement la raison pour laquelle seulement 25% des entreprises déclarent avoir déjà mis en place un marketing personnalisé omnicanal, alors qu’elles sont 80% à souhaiter exploiter davantage les données « temps réel » dans leurs actions marketing.
Pourtant, la technologie est désormais mature. Les pionniers que sont Mint dans le secteur bancaire, Amazon dans la distribution ou NetFlix dans les médias, nous l’ont prouvé : il est aujourd’hui possible de mettre en place une plate-forme centralisée de gestion des données clients, capable d’intégrer et de fournir des informations en temps réel, quel que soit le canal d’interaction utilisé.
Cette plate-forme, communément appelée Customer Data Platform (CDP), permet de reconstituer l’intégralité du parcours client en centralisant et en croisant non seulement des données d’interaction : historique d’achat, préférences, satisfaction, fidélité, etc. (données internes), mais également des informations sociales permettant de comprendre les intentions ou l’appétence : goûts, instants décisifs, habitudes d’achat, parcours web, réseaux sociaux, etc. (données externes). Grâce à la puissance de la nouvelle génération de technologies analytiques – tirant notamment parti d’Hadoop et de son écosystème – et à la baisse drastique de leurs coûts la consolidation de ces énormes volumes de données est aujourd’hui très rapide et offre les moyens de réagir en temps réel à tout événement.
Ainsi, elle aide en amont à améliorer la connaissance client et à bien appréhender les besoins d’un individu. Elle permet en outre de prédire ses intentions et au final, elle offre à l’entreprise toute l’information nécessaire pour influencer le parcours client, en proposant des expériences significatives, au bon moment et via le bon canal.

Pour y parvenir, la Customer Data Platform doit reposer sur quatre piliers principaux. D’une part, des fonctions de gestion de données permettant de récupérer, intégrer et centraliser toute source de données utiles. Ces fonctions incorporent des modules de qualité de données qui garantissent la pertinence et l’actualisation des informations client, ainsi que de Master Data Management (MDM) à travers lesquelles sont fixées les règles d’association entre ces données.
Le second pilier consiste à établir une liste des offres et les conditions d’éligibilité, tenant par exemple compte des spécificités de l’entreprise : clients premiums, cartes de fidélité, etc. Le troisième pilier vise à analyser les données et leurs relations, pour établir une segmentation client. Enfin, le dernier pilier concerne la capacité prédictive et prescriptive de l’entreprise, qui grâce au machine learning, permet de pousser l’offre qui sera la plus probablement acceptée par le client (la recommandation).

Côté méthode, quatre étapes nous semblent essentielles pour parvenir au Graal ultime du marketing one-to-one en temps réel. Avant le projet, il est évidemment capital de définir le business case de votre projet : quels enjeux (augmenter les taux de transformation commerciaux, fidéliser le client en leur proposant le bon service au bon moment, lancer un nouveau produit ou service) ? et quel retour sur investissement ? Les pionniers nous conseillent ainsi de concevoir un storyboard décrivant le parcours client idéal, en s’intéressant aux « moments de vérité » c’est-à-dire aux interactions qui ont le plus de valeur et d’impacts aux yeux du client.

Le respect de la vie privée est évidement un point clé dès que l’on s’intéresse à la personnalisation. On pense bien sûr à la dimension réglementaire, mais cela va bien au-delà, puisque l’enjeu, c’est la relation de confiance et le bénéfice qu’en retire le client. Sans doute ici faut-il s’inspirer de ce qu’a su institutionnaliser le corps médical : il est dans notre intérêt de transmettre à notre médecin toute l’information utile, y compris la plus confidentielle. Mais, nous le faisons que parce que son corps de métier a établi des règles de gouvernance claires et strictes. L’entreprise doit à son tour établir ses règles de gouvernance, voire même son « serment d’Hippocrate ».

Pendant le projet, deux étapes consistent d’une part à importer les données et à les intégrer, afin de bien comprendre ce qu’elles contiennent (« découverte »), et d’autre part à ébaucher les premiers modèles de recommandation (« scoring ») qu’il conviendra de tester et d’affiner en fonction des premiers résultats. Les scores seront actualisés lors de chaque interaction.

Cette capacité à personnaliser la relation en temps réel peut paraitre complexe : les systèmes d’information ont effet jusqu’à présent pris le soin de découpler les fonctions transactionnelles et analytiques, réservant les systèmes analytiques à une petite population d’utilisateurs en les alimentant en information en temps différé. Or, il s’agit désormais d’alimenter les systèmes d’informations transactionnels, site web, applications mobiles, systèmes de point de vente, CRM, etc. avec de l’information analytique, en temps réel, pour faire les bonnes recommandations. Ceci s’effectue donc en général au travers d’une approche progressive. Par exemple en commençant par l’ajout de parcours personnalisés sur une application mobile ou dans les échanges entre le client et le centre d’appel. Ceci a l’avantage d’offrir rapidement de premiers résultats mesurables qui permettront d’élargir peu à peu le périmètre du projet et de s’assurer des retours sur investissements en conditions réelles. La dernière étape permet justement d’intégrer de plus en plus profondément les points de contact – web, centre d’appels, points de vente, etc. – afin d’enrichir le profil client et de pouvoir personnaliser l’ensemble des interactions.

Lorsque l’ensemble des points de contact a été intégré, l’entreprise dispose de toutes les informations nécessaires à la recommandation. C’est le fameux Graal du marketing one-to-one en temps réel, avec quatre bénéfices principaux : visibilité totale sur le parcours client (en d’autres termes l’alignement du marketing et des ventes), satisfaction du client reconnu (pas besoin de s’authentifier) et donc fidélité, mesure des actions marketing et au final, augmentation du chiffre d’affaires grâce à la hausse des taux de conversion. Quand on sait que les entreprises utilisant ce type de technique analytique se distinguent largement des concurrents qui ne l’utilisent pas, on aurait tort de s’en priver…

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...