C'est l'un des principaux rendez-vous du secteur numériique et des télécoms qu'accueillera la nouvelle grande région Occitanie du 15 au 17 novembre à Montpellier.

La 38e édition du DigiWorld Summit, organisée avec les entreprises Membres du DigiWorld Institute, déclinera le thème « The Digital Trust Economy ». L'occasion d'un large débat international sur les questions de la confiance numérique qui sont devenues l'une des préoccupations majeures de l'écosystème numérique.

Va-t-on atteindre le seuil de tolérance de la confiance numérique ? Comment les acteurs historiques du numérique (équipementiers, telcos, IT) peuvent-ils en tirer parti ? Les verticaux sont-ils menacés ou au contraire favorisés par la montée des questions liées à la confiance et à la sécurité ? Un nouveau cadre réglementaire devra-t-il émerger pour encadrer, voire rassurer, les acteurs en présence et les consommateurs ? Autant de questions qui seront abordées lors de conférences et d'ateliers avec des experts internationaux reconnus.

"La confiance est reconnue depuis longtemps comme un facteur important du succès d'une marque, d'une économie ou d'une société. Cela est encore plus vrai dans un monde transformé par l'innovation numérique. IDATE DigiWorld a montré, dans ses scénarios « Internet 2025 », que la confiance était une des variables clés dans l'écosystème numérique du futur", expliquent les organisateurs.

La confiance, point de convergence de l'économie numérique

Entre les cyberattaques contre des telcos, des chaînes de télévision ou des services publics ;les péripéties d'Apple ou Whatsapp avec les autorités pour avoir accès aux clés des terminaux ou du chiffrement des messages ; les très longues négociations au sein de l'Union européenne pour s'entendre sur un nouveau règlement relatif à la protection des données personnelles ; la remise en cause de l'accord transatlantique 'Safe Harbor' et le débat autour du 'Privacy Shield' ; ou encore les questions sur les impacts sur la solidité du système bancaire des multiples offres de la FinTech ou de la capacité de la blockchain à se substituer aux tiers de confiance : les débats sont aussi nombreux, complexes que passionnants.

La confiance, "c'est donc un point de convergence pour les telcos, les acteurs du cloud, les géants de l'Internet, les start-ups, les gouvernements et les régulateurs, mais bien plus largement pour tous les secteurs de l'économie et les consommateurs/citoyens. Et comme toujours, la mesure du risque ne doit pas écarter l'analyse des opportunités, en termes d'innovations, de stratégies de différenciation ou d'avantages concurrentiels pour beaucoup d'acteurs.

1 200 participants sotn attendus pour le DigiWorld Summit et plus de 5 000 pour la DigiWorld Week. 120 intervenants du monde entier et près de 400 pour la DigiWorld Week délivreront leur expertise.





Un mois après son lancement, la nouvelle application du Stade Toulousain a déjà été téléchargée plus de 20 000 fois, viennent d'annoncer le club et Orange.

Le Stade Ernest Wallon, propriété du Stade Toulousain, est devenu le 24 août dernier, le premier stade de rugby 100% connecté d’Europe et l’un des stades les mieux connectés du monde.
René Bouscatel, Président du Stade Toulousain et Patricia Goriaux Directrice Orange Sud, ont présenté aujourd’hui au stade Ernest Wallon, un premier bilan et les perspectives d’évolution de la transformation digitale du Stade Toulousain. Un mois après son lancement, la nouvelle application du Stade Toulousain a été téléchargée plus de 20 000 fois par les supporters, et plus de 7 000 comptes ont été créés.

Grâce à la connectivité wifi et 4G dans l’enceinte du stade et à l’application mobile « Stade Toulousain », le supporter peut vivre une expérience numérique de bout en bout avant, pendant et après chaque match. Cette réalisation résulte d’une étroite collaboration entre le Stade Toulousain et Orange qui lui a fourni les technologies et l’a accompagné dans sa transformation digitale.


La startup toulousaine Flipr qui a inventé un objet connecté qui mesure en temps réel la qualité de l'eau des piscines accélère son développement. Ce mercredi 21 septembre, Flipr lance une opération de financement participatif afin de collecter les fonds nécessaires à l’industrialisation et au recrutement de nouveaux collaborateurs. L'objectif à atteindre est de 300 000€.

La levée de fond est organisée sur la plateforme toulousaine Wiseed.fr, qui permet à des investisseurs particuliers de prendre des parts dès 100€ dans des entreprises à fort potentiel de développement.

"L’investissement dans Flipr est éligible à une défiscalisation sur l’impôt sur le Revenu ou l’impôt sur la Fortune. Lors d’une phase de vote précédemment organisée sur la plateforme, Flipr a reçu le soutien de plus de 300 Wiseeders, et plus de 200 000€ de promesses d’investissement", expliquent les fondateurs de Flipr.

Il y a 15 ans, le 21 septembre 2001, à 10h17, l'usine AZF explosait. A l'occasion de la date anniversaire de cette tragédie, l'une des plus grandes catastrophes industrielles au monde, la rédaction de La Dépêche du Midi s'est mobilisée.

Alors que va s'ouvrir un 3e procès le 24 janvier 2017 à Paris, le journal revient sur cette tragédie à travers un long format multimédia exceptionnel. Infographies interactives, vidéos d'époque, récit de la journée du 12 septembre, décryptage des procès, interviews vidéos des acteurs clé, témoignages.

Pour consulter ce long format, cliquez sur le bouton "View Story" dans l'image ci-dessous.


Par ailleurs, La Dépêche a lancé début septembre un appel à témoignages. Ces derniers, nombreux et émouvants, sont compilés dans un Tumblr spécial, véritable espace de mémoire, consultable à l'adresse : http://azf15ans.tumblr.com/


Par Stéphane Castagné, Responsable Commercial France chez  Barracuda Networks

A quelques jours de la diffusion de l'épisode final de la saison 2 aux Etats-Unis, France 2 diffuse ce lundi 19 septembre les tout premiers épisodes de la série américaine à succès Mr Robot. Si cette série séduit un large public, elle est aussi d'ores et déjà reconnue par les professionnels et les passionnées d'informatique pour sa justesse en terme de cyber sécurité – et devrait être conseillée aux chefs d'entreprises.

La fiction est souvent proche la réalité, mais dans le cas de Mister Robot c'est également l'inverse. La série vedette de USA Networks, Mr Robot, relate l'histoire d'un groupe d'individus – Fsociety – tentant de pirater une multinationale appelée Evil Corp. Et ce piratage pourrait avoir de lourdes conséquences pour l'entreprise, mais aussi pour l'économie mondiale dans son ensemble.

Sans dévoiler toute l'intrigue de la série, la technique choisie par Fsociety  est simple : ils tentent d'obtenir l'accès à un système utilisé par un fournisseur externe de services informatiques gérés d'Evil Corp. Et la réalité semble s'inspirer de la fiction puisque de nombreux sites spécialisés détaillent les techniques utilisées dans les nombreux hacks de la série. Un groupe de hackers a par ailleurs publié des échantillons de code de ransomware, portant le nom de « fsociety ».

Même si les techniques de piratage semblent à l'écran beaucoup plus faciles qu'elles ne le sont en réalité, les experts de la sécurité informatique en entreprise devraient conseiller à leurs collègues de regarder Mr Robot – ou du moins quelques extraits sélectionnés. Nous le savons tous, en cyber-sécurité, l'éducation de chaque collaborateur de l'entreprise est primordiale puisque l'humain est régulièrement considéré comme le maillon faible et donc ciblé par les pirates comme en témoignent les nombreux cas de social engineering. Le fossé entre la destruction de toute une entreprise dans une série américaine et ce qui pourrait arriver dans la réalité n'est pas aussi grand qu'on aimerait le penser.

Evidemment, les péripéties informatiques ne constituent pas l'intégralité de l'intrigue – et certains pourraient ne pas apprécier l'introspection personnelle engagée par le personnage principal. Mais les parties concernant la sécurité informatique et les piratages sont tout à fait crédibles. Plus important encore, ces extraits illustrent les risques qu'encourent les entreprises en matière de sécurité d'une façon ludique et facilement compréhensible par la plupart des chefs d'entreprise et des collaborateurs.

Par ailleurs, amener les chefs d'entreprises et les directions financières à évaluer correctement les risques est aujourd'hui – dans un contexte budgétaire parfois difficile - le plus grand défi que doivent relever les professionnels de l'informatique.

Heureusement, la plupart des cadres et des entrepreneurs sont habitués à penser en termes de risques. Toute création d'entreprise comporte des risques. Les chefs d'entreprise passent généralement la plupart de leur temps à essayer de les évaluer, par rapport aux gains potentiels associés à une initiative. Mais, en termes de sécurité informatique, la plupart d'entre eux n'ont pas pleine connaissance des dangers et surtout de leurs potentielles conséquences. Ils comprennent que les logiciels malveillants peuvent infecter un système, mais ils ne mesurent pas l'étendu des dommages qu'un tel logiciel peut infliger à l'entreprise.

A titre d'exemple, le vol de propriété intellectuelle peut effacer des années entières d'investissements dans la recherche et le développement. Pourtant, le vol de plans de développement produit dans une entreprise lambda peut être un jeu d'enfants pour les pirates les plus sophistiqués. Les risques sont multiples : la petite entreprise pourrait se voir devancer par la concurrence tandis que l'entreprise cotée pourrait voir ses actions chuter. Un tel piratage peut éventuellement entrainer la faillite d'une entreprise ou des difficultés budgétaire poussant au licenciement. Voilà un scénario de risque que la plupart des chefs d'entreprise peuvent imaginer.

Le défi, pour les professionnels de la sécurité informatique d'aujourd'hui, consiste à remettre les risques associés à la sécurité informatique dans un contexte que les chefs d'entreprise peuvent comprendre, tout en continuant leurs initiatives de sensibilisation envers tous les collaborateurs de l'entreprise. Les professionnels de l'informatique doivent pouvoir identifier les principaux actifs de l'entreprise, puis expliquer en langage clair non seulement ce qu'il faut réellement pour les protéger, mais également les conséquences bien réelles que représente la perte de contrôle sur ces actifs pour l'entreprise.

C'est pourquoi Mr Robot devrait être conseillé à tous les collaborateurs d'une entreprise, et en particulier aux chefs d'entreprise. Au delà de l'histoire d'un simple groupe de hackers marginaux, c'est une nouvelle vision de la cyber-sécurité que propose cette série à succès. Si la paranoïa du personnage principal peut lui causer quelques torts, une légère paranoïa au sein des directions informatiques pourrait, elle, sauver l'entreprise.




Par Charles Grenet, Responsable de Marchés chez Uniserv

Smartphones, réseaux sociaux, objets connectés : les sources d’informations ne cessent de se multiplier au rythme des innovations et des nouveaux usages. Avec elles, de nouvelles pistes de prospection pour les marques. Mais cette surabondance de données ne doit pas faire oublier que la quantité ne peut être collectée au détriment de la qualité, et le manque de communication entre les différentes sources de données empêche les entreprises de bénéficier d’une bonne vision de leurs clients et prospects. Pourtant, à l’heure des bouleversements technologiques cités ci-dessus justement, il est plus que jamais nécessaire de bénéficier d’une vision 360° en temps réel des clients pour rester dans la course. Des données incorrectes sont d’autant plus dommageables dans le secteur automobile, où la fréquence de renouvellement produit est peu élevée.
Pourtant, des pistes existent pour construire une base de données fiable leur permettant de mieux connaître les clients et d’anticiper leurs besoins.

La nécessité d’identifier le prospect pour communiquer

De nombreux concessionnaires et réparateurs se sont partagé le territoire français et mondial, mais ils sont pour la majorité affiliés aux grands noms du domaine. Chacune de ces entreprises alimente au quotidien sa base de données propre issue de canaux divers et variés : remplissage d’un formulaire via le site internet pour un essai de véhicule, demande d’informations complémentaires via les réseaux sociaux, prise de contact directement dans la concession à l’occasion des journées portées ouvertes, etc. De plus, lorsqu’ils se renseignent en vue de l’achat d’un véhicule, les clients potentiels se cantonnent rarement à une seule concession, et multiplient les points de contact.

Il est donc fréquent que plusieurs agences affiliées à la même entreprise se partagent un même prospect, parfois sans le savoir : chacune intègre les informations recueillies dans sa propre base de données. Si le client est le même, les données le concernant peuvent différer : une agence questionnera le prospect sur son précédent véhicule, pour lui proposer éventuellement de monter en gamme, en passant d’une voiture citadine à un modèle familial, par exemple. Un autre concessionnaire, préférera se concentrer sur des éléments plus personnels : une personne soucieuse de l’environnement se verra proposer un modèle électrique ou roulant au biocarburant.

Optimiser ses données pour transformer l’essai

Si la collecte de données toujours plus nombreuses, personnelles et ciblées a le vent en poupe, cette profusion d’informations ne permet pas forcément une vision plus pertinente du client et de ses besoins.

La multiplication des doublons dans les différentes bases de données occasionne une sur-sollicitation du prospect, rarement bénéfique, et une perte de temps et d’énergie pour les commerciaux : si le prospect transforme sa réflexion en achat, une seule agence sera sélectionnée. De même, le nombre de sources différentes, qu’elles soient techniques ou humaines – le prospect lui-même via un formulaire sur le site web, puis le commercial via son outil CRM lors d’une visite dans la concession, puis un collègue qui reprend le dossier et le complète – rend la présentation des informations disparate et surtout, en altère la fiabilité.

 Données, analytics et big data

Une telle masse de données pourrait représenter une mine d’or pour la mise en place de projets big data d’envergure. Néanmoins, pour que les analyses qui en découlent soient pertinentes, elles doivent reposer sur un socle solide : des données fiables et de qualité, en temps réel. Il ne s’agit pas d’adresser une proposition de test pour un véhicule qu’un client a acheté la semaine précédente. Le service marketing, en charge des emailings, doit être rapidement informé de cette évolution du statut du client.

Aussi, pour proposer un service de qualité, il est essentiel de constituer, au sein de l’entreprise et de toutes ses filiales, un référentiel unique, enrichi de toutes les données disponibles harmonisées, et permettant des passerelles entre les services. Le commercial d’une petite agence régionale pourra mieux conseiller son client et lui proposer le service de financement adapté s’il a connaissance de ses antécédents avec la marque et de sa solvabilité lors de ses précédents achats, par exemple.

Ce n’est qu’en bénéficiant d’une vision 360° de leurs clients en temps réel que les entreprises automobiles pourront anticiper l’évolution de leurs besoins, et ainsi les fidéliser. L’enjeu est de taille : l’heure est à la fidélisation client, il s’agit de ne pas louper le coche !

Par Joaquim Dos Santos, Directeur R&D chez Ikoula

La sécurité des données dans le Cloud reste un frein pour certaines entreprises désireuses d'adopter cette technologie pour leurs applications ou leurs infrastructures informatiques. D'après une récente étude menée par PAC (Pierre Audoin Consultants), la sécurité est le premier frein à l'adoption du Cloud en France. Une certaine défiance existe donc encore. Pourtant les hébergeurs et les fournisseurs propriétaires de Data Centers prennent de nombreuses mesures visant à apporter aux entreprises un niveau de sécurité similaire à ce qu'elles peuvent avoir sur site au sein même de leurs locaux.

L'entreprise et son prestataire : un accompagnement et une transparence nécessaires
Lors de l'adoption d'une architecture Cloud, il est important de bien définir le besoin de l'entreprise car différentes règles de sécurité en découleront. C'est pourquoi, un hébergeur se doit de connaître son client et d'effectuer un véritable accompagnement personnalisé afin de l'aider à faire les meilleurs choix. La définition du projet amènera l'hébergeur et le client à se tourner vers le Cloud public, privé ou hybride – en fonction des besoins de performances mais aussi du caractère critique et sensible des données.

Différentes règles de sécurité s'appliquent selon les structures choisies. Pour les infrastructures en Cloud public et hybride, les hébergeurs mettent en place une isolation stricte entre les différents clients. Ainsi, un utilisateur présent sur le même serveur ne peut pas, par un moyen détourné, accéder à la machine virtuelle d'un autre utilisateur.
Dans le cas du Cloud privé, ce problème ne se pose pas car le serveur est dédié mais différents droits d'accès aux serveurs physiques sont mis en place pour garantir la sécurisation des données.

Une totale transparence entre l'entreprise et son prestataire est donc indispensable. Plusieurs points doivent être abordés afin de s'assurer que toutes les mesures de sécurité sont mises en place :

La localisation des Data Centers : certains hébergeurs possèdent plusieurs centres de données. Il faut donc que l'entreprise cliente soit en mesure de savoir où se localisent géographiquement ses données. Dans l'idéal, elle doit même pouvoir choisir l'emplacement de ces dernières afin de décider par quelle législation seront régies les données.

Des garanties d'audits et de contrats : le prestataire choisi doit pouvoir démontrer via différents audits que toutes les règles de sécurité sont optimales et à jour. Cela permet à l'entreprise cliente de s'assurer du sérieux du prestataire. En termes de contrat, un accord de réversibilité doit être inclus afin d'assurer aux clients la possibilité de reprendre la main à tout moment sur leurs données et leurs infrastructures.

Une disponibilité des données constante : la sécurité des données, c'est aussi s'assurer que ces dernières seront disponibles à tout moment et ne seront pas perdues – même en cas de soucis technique. Un bon prestataire doit proposer à l'entreprise un Plan de Reprise d'Activité (PRA) après sinistre, qui permettra de dupliquer les données et l'infrastructure Cloud afin que celles-ci restent disponibles même si les serveurs initiaux rencontrent un problème. Ce PRA peut être mis en place avec le même prestataire, si celui-ci dispose de plusieurs Data Centers, ou en collaboration avec un autre hébergeur.

La sécurisation des données en mouvement
La sécurité des données passe donc par la qualité du relationnel et la transparence administrative avec son prestataire, mais aussi par la qualité purement technique de son offre.

Les données sont vulnérables lorsqu'elles sont en mouvement. C'est pourquoi les flux sont hautement sécurisés par les hébergeurs de confiance. En utilisant un système de cryptage, un arsenal firewall et des liens dédiés entre les points de création de contenus et le Cloud, l'hébergeur assure l'intégrité des données. La totalité des transferts vers et depuis le Cloud garantissent ainsi une non-modification des données via divers protocoles lorsqu'elles sont en transit. Ces dernières peuvent également être monitorées et archivées sous forme de log, un outil tiers de monitoring. Plusieurs paramètres sont ainsi vérifiables comme le moment exact de la transmission du flux, si la donnée a été modifiée, et par qui.

La gouvernance des données est aussi un aspect important de la sécurisation. Les politiques d'accès doivent être rigoureuses afin que les clés de chiffrement ne soient pas entre toutes les mains. Par ailleurs, les hébergeurs mettent en place un protocole de droit d'accès aux serveurs physiques, doublé par de nombreuses mesures anti-intrusion, afin d'assurer à ses clients que seules certaines personnes auront accès aux serveurs.

Les données dans le Cloud sont donc soumises à différentes règles pour assurer à la fois leur confidentialité, leur intégrité mais aussi leur disponibilité à tout moment. Un accompagnement personnalisé et une relation de confiance avec un hébergeur, couplés à des offres de qualité, permettent donc d'assurer la sécurité des données dans le Cloud et de lever le principal frein empêchant une partie des organisations d'adopter cette architecture informatique.



Par John Newton, CTO et Président, Alfresco 


Loin d'être une nouveauté, les solutions open source connaissent un développement commercial fulgurant. Une étude sur l'avenir de l'open source a ainsi montré que l'adoption des solutions open source au sein des différents secteurs d'activité et entreprises a atteint un niveau record : quelle que soit leur taille, 78 % d'entre elles utilisent les logiciels open source pour tout ou partie de leurs activités. En quoi les solutions open source sont-elles avantageuses pour les entreprises ?

Pour les directions informatiques, trouver les moyens de gérer des systèmes archaïques est un défi quotidien. Après plusieurs décennies d'investissements coûteux, les CIO sont face à une réalité : ils ont trop massivement investi dans des technologies aujourd'hui obsolètes pour mettre au rebut et remplacer les infrastructures existantes. Indépendantes de tout fournisseur ou fabricant, les solutions open source offrent une alternative idéale pour moderniser les systèmes hérités. Elles favorisent l'innovation à l'échelle globale de l'entreprise et permettent d'économiser du temps et de l'argent.

La personnalisation facilite l'innovation
Très coûteux, les logiciels propriétaires sont également très restrictifs. Ils ne peuvent pas être configurés pour s'adapter à des besoins spécifiques, si bien que l'entreprise est confrontée à une impasse dès qu'elle souhaite introduire une modification. En outre, leurs capacités d'adaptation sont limitées ce qui les empêche d'évoluer au gré des besoins.

À l'inverse, les API ouvertes qui caractérisent les logiciels open source permettent aux développeurs de personnaliser la solution en fonction des attentes. Une fois la solution téléchargée, ils peuvent y apporter toutes les modifications souhaitées, ajouter du code, en supprimer ou l'optimiser. De plus, la capacité d'adapter les nouvelles applications aux plateformes open source existantes est bien plus fiable et simplifiée.

Avec les logiciels open source, inutile d'attendre des années pour déployer une solution. Ils permettent de réaliser des tests avant l'acquisition et sont parfaitement adaptés à la collaboration, l'expérimentation et la réalisation rapide de prototypes. Basés sur des standards ouverts, ils offrent en outre des capacités d'interopérabilité intégrées. Pour toutes ces raisons, les logiciels open source ont permis d'innover continuellement et de faire émerger de nouveaux services, applications et startups.

L'indépendance vis-à-vis des fabricants engendre des économies
Avec les plateformes open source, les entreprises se libèrent des systèmes propriétaires dont les coûts de possession sur le long terme doivent inclure les dépenses récurrentes liées aux mises à jour et nouvelles applications imposées par le fournisseur. Les entreprises ne peuvent pas exploiter elles-mêmes le potentiel du code source qui reste la propriété du fabricant.

De par sa nature, le code source des logiciels open source est librement accessible. Chacun y a accès de la même manière et peut le personnaliser en fonction de l'utilisation envisagée. Toute entreprise a la possibilité de développer sa propre solution à partir d'un logiciel open source. Son fonctionnement et sa maintenance peuvent être assurés par différents fournisseurs. Les clients sont donc libres de choisir une solution et d'en changer à leur gré. Ils peuvent facilement changer de prestataire car ils ne dépendent pas de l'offre d'un fournisseur spécifique. Par ailleurs, les développeurs familiarisés avec le code peuvent étendre les fonctionnalités des logiciels open source. Ainsi, l'entreprise qui souhaite apporter des modifications n'est pas à la merci d'un prestataire. Quoi qu'il advienne du fournisseur, elle reste propriétaire de la solution.

La plupart des plateformes open source disposent de dizaines de milliers de développeurs qui créent de nouvelles applications pour les programmes les plus récents, d'où des mises à jour gratuites ou très peu coûteuses. Les solutions open source étant constamment actualisées, les entreprises bénéficient de technologies sans cesse optimisées, sans frais élevés de mise à niveau. Sous la houlette d'un petit nombre de programmeurs rémunérés, les développeurs offrent bénévolement leur temps et leur expertise. Le coût d'investissement initial faible et le fait que les logiciels open source ne sont pas basés sur un système de licences par poste débouchent sur des économies substantielles.

Outre ces avantages en termes de coût, les solutions open source engendrent des économies à d'autres niveaux. Avec les logiciels open source, les entreprises n'ont plus besoin d'autant d'expertise et d'équipements en interne. Au lieu des serveurs et ingénieurs, elles peuvent consacrer leurs ressources à des outils qui viennent renforcer l'infrastructure en place et maximisent la valeur de leurs investissements.

Les logiciels open source favorisent la productivité, la croissance et la collaboration
Les solutions open source sont conçues sur la base d'une architecture qui s'adapte aux changements technologiques imprévus et libère l'entreprise de la dépendance au fabricant, propre aux logiciels propriétaires. Cette ouverture, cette transparence et ces échanges entre pairs favorisent une innovation plus rapide, à un coût réduit. Les standards ouverts facilitent l'intégration des offres open source aux environnements existants et leur adaptation aux nouveaux besoins métiers et technologies. Le formidable potentiel du modèle open source accélère considérablement le rythme des innovations. Ce type d'architecture ouverte répond parfaitement aux exigences des environnements informatiques et de travail modernes. Les solutions open source permettent aux entreprises d'accroître la productivité, de favoriser la croissance et de simplifier la collaboration à travers toute l'entreprise étendue.



Par Arthur Kannas, co-fondateur de l’agence heaven

Je doute donc je suis. Chaque jour nous sommes envahis de questions existentielles ou futiles... Dois-je choisir cet hôtel ? Dois-je postuler dans cette entreprise ? Faut-il que je change de TV maintenant ? Il est bien, ce dentiste ? Stranger Things, ça donne quoi ? Comment attraper Mewtwo ?
Aujourd’hui, on est tous habitués à poser directement la question sur Google, son moteur de suggestions affichant parfois même directement la réponse dans un menu déroulant. Mais souvent, on trouve des réponses à des questions que l’on ne se pose même pas : tout le monde parle de Stranger Things, c’est quoi ? Wow cette plage a l’air magnifique derrière ces pieds en éventail, je me la note !

Si l’on cherche l’avis d’un pair, on connaît tous également l’expérience de poser une question, ou de suivre des conversations sur le flux de commentaires d’un post Facebook, une vidéo Youtube, ou derrière un Hashtag Twitter.
Si l’on met de côté Quora, ou les sites d’avis spécialisés, l’espace conversationnel public est aujourd’hui davantage structuré en étant adossé à de la production de contenus. Ces contenus et les conversations attachées éveillent notre curiosité, nourrissent notre opinion, forgent nos décisions. Cette emprise possible sur notre comportement c’est l’Influence, telle que les marques la recherchent depuis des années. L’Influence agit sur la réputation d’un produit, d’un service ou d’une marque parce que le contenu émane de tiers, des pairs considérés davantage crédibles que la marque elle-même.

Retour sur l’évolution de l'Influence.

Google : le détonateur

Tout commence vraiment il y a 15 ans dans un Web hyperportalisé (Yahoo, Aol, MSN), où la Longue Traîne s’est soudain distinguée, favorisée par la montée en puissance de Google, ce moteur de recherche affamé de contenus frais, fréquents et crédibles. L’ère de l’Influence peut commencer. Derrière la somme d’une infinité de petites audiences se cache en effet la puissance d’un web libre, critique et populaire. A travers les forums, les sites personnels, puis les blogs, les conversations naissent, s’enflamment et s’assèchent sur ces espaces propices aux avis et à la discussion, espaces qui remontent naturellement dans les résultats du moteur.

Attentives, les marques y détectent des leaders d’opinions. Dans un web déjà conversationnel, les passionnés et les experts prennent rapidement le pouvoir. À l’époque, Xbox par exemple l’a bien compris. Partant d’une poignée de fans, capables de produire spontanément et quotidiennement du contenu de qualité, la marque de jeu vidéo de Microsoft a construit peu à peu en France un réseau d’une centaine de webmasters de sites amateurs, qui vont finir par cumuler hors des radars des instituts de mesure d’audience, plusieurs millions de visiteurs uniques chaque mois. De quoi préparer confortablement une décennie de conversations souvent positives, parfois critiques, sincères toujours, autour d’une marque naissante et à ce moment de son histoire terriblement challenger face à ses concurrentes.

La détection de tels “influenceurs”, capables de changer le cours d’une conversation, de fédérer des énergies et d’affecter in fine le comportement de millions de personnes indécises devient rapidement un art, dans tous les secteurs. Technologie, voyage, beauté, gastronomie ou politique, aucune thématique n’échappe à la scrutation méthodique des agences et de leurs outils.

La bascule transactionnelle

Les marques vont se ruer sur l’Influence comme l’on se rue sur un Graal marketing. D’autres vont s’y ruer comme sur de l’or : en effet, avec les outils de blogging, les efforts pour produire du contenu diminuent et une nouvelle génération d’éditorialistes apparaît, autant pour s’exprimer que pour profiter de l’aubaine relationnelle avec les marques.

Très vite, les relations “tarifées” vont apparaître. Impatientes, les marques veulent être sûres d’obtenir des retombées, au risque parfois d’écorner la crédibilité éditoriale de l’Influenceur, qui se prête néanmoins généreusement au jeu. D’abord en Nature, via des prêts de produits très longue durée, puis de manière plus ouverte, par des transactions.

Certains influenceurs deviennent “professionnels” : ils vivent de leur capacité à influencer leur audience. Les régies d’Influenceurs et autres “talents managers” se développent, et les marques accèdent plus facilement aux audiences des influenceurs...et aux métrix qui vont avec. Seulement voilà, quand on parle régie, on parle audience. Volume. Reach. Conversion. En quelques années les opérations “bloggeurs” s’essoufflent car l’impact et le volume ne sont pas au rendez-vous, dès que l’on se met à les comparer à ceux des investissements publicitaires.

Surtout que depuis quelque temps, il est désormais possible de toucher directement les internautes de manière ciblée, sans passer par la case Influenceurs.

Facebook: le court-circuit

Fast Forward 15 ans. La Longue Traîne a pris un coup. Les blogs aussi. La faute à la reportalisation effrénée du web autour de nouveaux carrefours sociaux qui changent la donne : avec Facebook, on peut désormais toucher chaque internaute directement, avec un message publicitaire massif et ciblé (*). Les marques et leurs fans se parlent enfin en direct. Pourquoi alors vouloir maintenir des relations indirectes via des influenceurs? De l’autre côté, YouTube est une usine à (vidéo) stars. Les conversations deviennent rapidement des monologues de Youtubeurs, que des hordes de jeunes fans dégustent comme du petit lait. Heureusement que le Live n’est pas loin. Les interactions et les conversations vont pouvoir reprendre.

YouTube, Instagram, Snapchat : le retour du come-back de l’Influence ? 

A-t-on encore besoin d’être un expert pour être écouté ? Avec l’avènement des nouveaux réseaux “égocentriques” comme YouTube, Snapchat ou Instagram, c’est le “moi” qui domine. Ces réseaux, passés maîtres dans l’art de fabriquer des comètes de célébrité pour démontrer que chez eux “tout est possible”, tolèrent que les marques discutent de promotion de produits et services avec leurs idoles. L’Influence ressemble désormais de plus en plus à de l’endorsement, où les marques rémunèrent des talents à fort bassin d’audience pour (re)présenter leurs produits plus ou moins librement et plus ou moins officiellement.

Ce système a une vertu (discutable) principale : tenter de faire oublier qu’il s’agit de publicité. Le format est “natif” c’est à dire qu’il prend la forme d’un contenu classique, et qu’il se glisse avec naturel dans le flux des contenus consommés. De plus, il échappe ainsi aux fourches caudines des AdBlockers au succès croissant. On travaille donc encore avec une toute nouvelle génération d’Influenceurs, plus visuels, plus “live” et plus pragmatiques quant à leur relation avec les marques. Leur passion n’est plus le territoire sur lequel ils s’expriment, mais leur relation avec leurs fans. Merci public !
En 15 ans, l’influence a muté. Elle prend davantage de formes et recouvre davantage de techniques. Faire de l’Influence aujourd’hui, c’est mixer des enjeux PR, des enjeux Marketing et des enjeux Média. C’est comprendre comment naissent les Influenceurs sur le web en général mais aussi sur les plateformes en particulier. C’est comprendre les différents leviers de l’efficacité des contenus. On n’a pas fini de converser.

(*) aujourd’hui la promesse de ciblage fin de Facebook semble non tenue. Facebook va redevenir un ‘média de masse’.



Gootenberg, agence conseil en Relations Publics, publie les résultats d’un sondage portant sur l’intérêt des communiqués de presse reçus par la communauté des journalistes français.

"Sans surprise, le premier constat est que les boites mail des rédactions sont soumises à un incessant bombardement. Avec une moyenne de 60 communiqués par jour, le journaliste français est sollicité toutes les 8 minutes par une info requérant son attention ! Si 42% d’entre eux, les plus chanceux, se contentent d’en recevoir moins de 30 par jour, on note que 10% des journalistes déclarent en recevoir plus de 200."

On pourrait ajouter également le côté insupportable des agences RP qui téléphonent aux journalistes pour s'assurer qu'ils ont bien reçu leurs communiqués par email... Insupportable



Quelle utilité ?

"Pour autant, ce déluge d’information ne leur rend pas de grands services: Pour près de 80% d’entre eux, moins de 10% de ces communiqués leur sont utiles. Et la majorité des journalistes estime ainsi à moins de 5% le volume de l’information utile. Au total, ce sont plus de 93% des communiqués qui ne présentent pas d’intérêt pour leurs destinataires."



Les solutions ?

Existe-t-il un remède à cette fantastique déperdition d’information ? Questionnés sur les alternatives au communiqué de presse, les journalistes ébauchent, sans grande conviction, quelques pistes pour obtenir une information plus qualifiée.



Parmi les moyens envisageables (plusieurs réponses possibles), figurent ainsi :
• Les contacts directs pour 28% des répondants (appels téléphoniques et rencontres en face à face)
• Les réseaux sociaux pour 32% des répondants (message privé ou communiqué posté)
Mais ils sont 40% à espérer en d’autres voies, sans pouvoir les préciser davantage
Et 42% d’entre eux rêvent d’un quotidien où la disparition du communiqué leur laisserait toute latitude pour librement enquêter.

Pour François Ramaget, Président de Gootenberg : « Le flux de communiqués est perçu comme un mal nécessaire par la profession. Et aucun consensus ne se dégage en faveur d’une alternative réelle, avec près de 30% de journalistes qui souhaitent plus de contacts physiques et autant qui penchent pour le virtuel des réseaux sociaux. La solution, tous canaux confondus, ne réside donc pas dans le choix de méthodes d’approche, mais dans la qualité du ciblage. La vraie solution est du côté des agences. »

Espérons que cette étude sera lue par tous les communicants...