Technomedia

Numérique · médias · sciences · intelligence artificielle

E-commerce : s’inspirer avant d’innover pour créer un parcours d’achat en ligne



Par Kevin Sparks, directeur commercial UK/Ireland et Christophe Favresse, directeur commercial France chez FACT-Finder

Pour offrir une belle expérience d’achat en ligne à ses clients, l’innovation peut-être un bon choix. La bonne idée, bien appliquée, peut amener votre entreprise au niveau supérieur et créer un vrai point de différenciation face à vos concurrents. Mais attention, si vous êtes commerçant et développez vos activités en ligne, ne pensez pas à courir avant de savoir marcher.
Vous avez construit votre marque sur des emplacements physiques, qui restent vos points forts. Avant de vous plonger dans la complexité du e-commerce, renseignez-vous sur les nombreuses innovations pour « commerces de rue » dont vous pourriez tirer parti. Elles vous donneront les éléments pour aligner correctement votre présence en ligne à votre présence physique et refléter l’image et les valeurs que vous avez construites pour votre marque. La création de cette expérience client unifiée devrait être votre objectif principal et peut vraiment vous aider à concurrencer vos rivaux pure players.
Inspirez-vous des retours des principaux acteurs du e-commerce afin de mener autant de personnes que possible à travers les cinq étapes de l'achat en ligne :


  1. La motivation – Faire venir vos client jusqu’à votre boutique en ligne
  2. La prise d’information – Les amener aux produits souhaités
  3. La comparaison – Soutenir la confrontation aux offres concurrentes 
  4. L’achat – Enregistrer les coordonnées des clients rapidement et de manière sécurisée
  5. Le Paiement – Procéder au paiement

La sélection des produits est particulièrement importante. Les clients doivent trouver rapidement et facilement les articles qu'ils souhaitent, mais ce faisant, chacun aura ses exigences particulières et un comportement propre. Par exemple, ceux qui utilisent la fonction de recherche ont déjà une bonne idée de ce qu'ils veulent. Ils attendent vitesse et pertinence du service. C’est une chance pour les détaillants car ces « visiteurs décidés » sont deux fois plus nombreux que ceux qui n’utilisent que la navigation des sites de vente en ligne. Pour faire du choix des produits un acte aussi simple que possible, mettez en œuvre une solution de recherche puissante - particulièrement si vous offrez une large gamme de produits.
Pour la navigation, la pertinence de nombreuses pratiques a été confirmée par les grands acteurs du e-commerce eux-mêmes, mais reste souvent méconnue, comme l’importance des visuels et des blocs thématiques pour guider les clients. Il faut proposer un design clair et propre pour la catégorisation des éléments de navigation primaire et limiter l’arborescence de choix de produits à trois niveaux pour ne pas égarer ses visiteurs. Si l’importance des filtres n’est plus à démontrer, des filtres thématiques doivent compléter ceux plus fonctionnels, pour proposer en plus des indications techniques de véritables univers autour d’événements, de saisons ou de lieux (piscine, Noël, anniversaire, etc.). Il faut enfin s’assurer de la cohérence des chemins d’accès via navigation et moteur de recherche.
Après avoir mis en œuvre des outils de recherche, de navigation et de recommandation assez forts pour accompagner les clients jusqu’à l’étape Panier, de nombreux sites négligent de prendre le même soin de la fonction d'Achat. C’est une erreur majeure. Une expérience utilisateur médiocre à ce point du parcours  entraîne une hausse importante du taux d'abandon du panier d'achat, non parce que les gens ne veulent plus acheter, mais parce qu'ils trouvent l’acte trop laborieux, ennuyeux ou peu sécurisé.
Pour l’éviter, il est essentiel de créer un environnement de confiance et de ne pas laisser de questions sans réponse. Affichez un aperçu de tous les éléments choisis, en même temps que des informations précises sur la livraison. Offrez la livraison gratuite à partir d’un certain montant, diverses options de paiement et mentionnez explicitement : « Aucun tiers ne pourra avoir accès à vos données  personnelles », ainsi que des éléments complémentaires expliquant plus en détail votre politique de protection des données.
Ce ne sont que quelques-uns des  facteurs qui vous aideront à construire une expérience de shopping en ligne efficace pour vos clients, mais il y en reste de nombreux autres, sans parler de ceux spécifiques à votre marché et votre offre. A vous de jouer !
 Restez fidèle à vous-même et à votre identité de marque. Vos clients vous connaissent déjà In Real Life et vous jouissez auprès d’eux d’un capital de confiance et de compréhension. Assurez-vous, dans la mesure du possible, d’ancrer ce même sentiment en ligne.

Etude : les présentations jouent un rôle clé dans la réussite des entreprises



Certains critiquent la prééminence des présentations "Powerpoint" dans le monde de l'entreprise ; d'autres les difficultés rencontrés pour mettre en place ces présentations entre ordinateur impossible à brancher, vidéoprojecteur trop complexe, etc. Pourtant les présentations constituent des rendez-vous importants de la vie de l'entreprise comme vient de le démontrer Barco, qui a interrogé des professionnels en France.

95 % des salariés pensent ainsi qu’une bonne présentation a un impact important sur l’entreprise ; six personnes sur dix (58 %) affirment que cela leur a permis de construire une réputation personnelle et pour 42 % d’entre eux de gagner de nouveaux projets.

L'étude montre que près de la moitié des personnes interrogées font une présentation en réunion plusieurs fois par semaine et 78 % d’entre eux utilisent une technologie pour réaliser leur présentation, ce qui en fait un élément central dans la réussite commerciale de l’entreprise. Près de la moitié (49 %) pensent qu’avoir une technologie adaptée est aussi, voire plus importante, qu’un bon animateur, et 74 % d’entre eux affirment avoir rencontré des problèmes techniques durant leur présentation.

Si les professionnels pensent qu’une présentation réussie a un large impact sur l’entreprise, ils sont aussi d’avis (33 %) que l’absence de problème technique durant une présentation est un élément clé de cette réussite. Pour 60 % d’entre eux, c’est aussi important que de couvrir tous les objectifs de la présentation.

Près de trois répondants sur dix (28 %) disent que ne pas disposer de solution lorsqu’un problème survient (problème technique par exemple) est une erreur majeure à éviter lors d’une présentation. Parmi les compétences les plus importantes en matière de présentation, les personnes interrogées citent l’expertise du sujet (87 %), la capacité à expliquer un sujet complexe en termes simples (60 %) et à répondre clairement aux commentaires et questions de l’audience (41 %). L’utilisation effective d’une technologie (29 %) reste un élément clé d’une présentation réussie.

Les ordinateurs portables et câbles de connexion sont les technologies les plus utilisées durant les présentations (59 %), suivies par les projecteurs (55 %) et les écrans de partage sans fil (28 %). Près de la moitié (46 %) sont d’avis que la technologie de leur entreprise est parfois déficiente tandis que pour 62 % celle-ci pourrait être améliorée de façon à leur donner les moyens d’augmenter les chances de réussite de leur présentation.

D’une façon surprenante et en dépit du fait que ce soit un facteur majeur dans la réussite d’une entreprise et de son personnel, seulement un quart des répondants (25 %) disent avoir accès à une formation à la présentation dans leur entreprise.

"La bonne nouvelle est que la technologie dans l’environnement de travail devient plus performante et les professionnels désirent et attendent un meilleur équipement. Je crois que dans les prochaines années, nous observerons une diminution importante des 74 % de ceux qui font l’expérience d’un problème technique durant leur présentation. La connexion sans fil jouera sans aucun doute un rôle essentiel ; elle facilitera les présentations et augmentera leur impact, l’animateur portant davantage son attention sur sa présentation que sur des problèmes avec la technologie utilisée", explique Nick Fitzherbert, coach pour les compétences en présentation.

Pour Lieven Bertier, Directrice Marketing Produit Clickshare, « Réaliser une bonne présentation tient autant à l’assurance et à la clarté de l’animateur qu’à la technologie utilisée pour présenter de manière efficace. Notre étude montre que pour 45 % des professionnels, une présentation rapide, facile à organiser et sans fil (52 %) correspond à l’idée qu’ils ont d’une présentation réussie. Disposer de ces éléments augmente vos chances de succès. Des changements au niveau des petits équipements peuvent faire la différence dans la réussite d’une présentation et de son impact.

Contrefaçon en ligne : quand l’union fait la force




Par Jean-Paul Béchu, fondateur de Brandsays

Vêtements, maroquineries, cosmétiques, high-tech, médicaments, etc. la contrefaçon explose avec la multiplication des achats sur Internet. Les saisies douanières provenant des ventes en ligne sont passées, en dix ans, de 1 à 30% [Source KeepAlert – Unifab] ! Pour endiguer ce fléau grandissant, les marques, le gouvernement et les citoyens se doivent d’unir leurs forces.
Clairement, le crime paie ! Avec un investissement de 1.000 dollars, un contrefacteur multiplie sa mise par 10 [Source RogueFinder], engendrant des revenus colossaux au même titre que la drogue ou la prostitution. Étant moins répréhensible par la loi, ce n’est pas un hasard si la contrefaçon en ligne prend une ampleur sans précédent et si le crime organisé s’est intéressé à ce juteux « business».



Des actions en justice insuffisantes

Face à ces réseaux criminels qui pullulent et se « professionnalisent » pour mieux tromper le consommateur, les marques se trouvent souvent impuissantes. Quand bien même, elles traquent et combattent vaillamment par le biais de procédures juridiques (bien souvent longues) les propriétaires de ces sites frauduleux,  ces actions isolées ne sont ni suffisantes ni adaptées au dynamisme du web.
Ces malfaiteurs sont nombreux, très agiles et changent de nom en permanence.  « Nous parvenons, par la justice, à faire fermer les sites mais en attendant, ils vendent, puis en ouvrent un nouveau», se plaignait le directeur général de Longchamp, Jean Cassegrain, dans une interview à Paris Match

Faute de sanctions juridiques immédiates pour contrecarrer efficacement la contrefaçon en ligne, beaucoup de marques privilégient la discrétion : ne pas s’épancher sur ce problème pour ne pas effrayer le consommateur et le dissuader d’acheter.


Une démarche transparente et collaborative nécessaire

Pour en finir avec cette politique de l’autruche qui fait finalement le jeu des contrefacteurs et dans l’attente de décisions de  justice, il devient urgent pour les marques de compléter leurs actions juridiques avec des outils de prévention en temps réel, collaboratifs et viraux, en résumé, conformes aux besoins du net.
Car voilà, en attendant que la justice tranche, des consommateurs continuent d’acheter des produits contrefaits de mauvaise qualité voire dangereux comme dans le cas par exemple des chargeurs de Smartphones qui explosent ou de faux médicaments. L’OMS a d’ailleurs rappelé que 50% des médicaments achetés sur Internet sont des contrefaçons !
Les marques ne peuvent décemment continuer à agir de manière secrète et silotée. Elles se doivent d’unir leurs forces - au-delà des fédérations et regroupements sectoriels qui existent déjà - pour créer une base de données mondiale recensant les sites illégaux et frauduleux, accessible aux consommateurs.

Et comme il en va de l’intérêt public, le gouvernement a lui aussi une carte à jouer pour inciter les entreprises à jouer collectif, en toute transparence. Certes des mesures sont prises pour lutter contre le fléau de la contrefaçon en ligne (Loi Numérique, Chartes d’engagement ou contribution au projet Phishing Initiative) mais sans aujourd’hui réussir à impliquer – voire si nécessaire contraindre-  les marques à s’unir pour la protection des citoyens.

Le concours de ces derniers est d’ailleurs tout aussi nécessaire. Et à l’ère du crowdsourcing, quoi de plus naturel que de faire appel à la vigilance des internautes. Imaginez le poids de cette ressource complémentaire pour les marques. Alertées directement par le consommateur, elles disposeraient alors d’un pouvoir d’identification des sites illégaux inégalable, sans aucune mesure comparable aux capacités de surveillance de leur service juridique aussi performant soit-il.

Plus qu’une nécessité donc, cette alliance informelle mais néanmoins combative est un devoir. Le devoir des marques de protéger les consommateurs, le devoir de l’Etat de protéger les citoyens, le devoir de vigilance des internautes. Finissons-en donc avec cette démarche nombriliste qui ne mène à rien si ce n’est à aggraver la situation et unissons nos forces ! Seule une prise de conscience collective nous permettra de lutter efficacement contre la contrefaçon en ligne.

IoT Valley à la recherche des pépites de l'Internet des Objets



Le Connected Camp, accélérateur de startups spécialisé dans l’Internet des Objets (IoT) B to B de l’IoT Valley (Toulouse), ouvre ce lundi 10 octobre le dépôt des dossiers de candidatures pour intégrer sa nouvelle saison, qui démarrera en janvier 2017.

En 9 mois, le Connected Camp aide ses startuppers à passer de leur prototype à une version industrielle de leur produit, à signer des contrats B to B avec ses nombreux partenaires. Le programme d’accompagnement mis en place est gratuit et sans prise de capital.

Pour Simon Vacher, Manager du Connected Camp : « Nous mettons en place l’écosystème le plus favorable à la croissance de nos startups. Côté Business, ces dernières ont l’opportunité de rencontrer, dès les premières semaines qui suivent leur arrivée, les décideurs grands comptes. Sur le plan technique, nous disposons de partenaires et d’experts présents sur toute la chaîne de valeur IoT, du produit hardware au cloud en passant par la connectivité. »

Le « Connected Camp » a l’ambition d’accompagner 16 startups dont des européennes à partir du début de l’année 2017.

En chiffres
• 25 startups passées par l’accélérateur de l’IoT Valley,
• 2/3 d’augmentation des effectifs par startup durant la durée d’accompagnement,
• de nombreuses signatures de contrats avec de grands comptes,
• un total de 3,5M d’€ de levée de fonds en cours sur la dernière saison*,
• 5 industrialisations en cours pour les startups actuellement accélérées,
• 1 voyage en Chine sur les lignes de productions.

Toulouse : La Mêlée lance un groupe Jeunes et Numérique



Belle initiative de l'association La Mêlée, qui fédère les acteurs du numérique dans la région Occitanie Pyrénées-Méditerranée. L'association vient de lancer un nouveau groupe de travail tourné vers les jeunes.
"La Commission Emploi, Formation et Enseignement supérieur de La Mêlée a décidé de mettre en place de nouvelles actions visant à faire découvrir les métiers du Numérique aux collégiens et lycéens et pour cela un nouveau groupe de travail "Jeunes et Numérique" s'est créé", explique l'association

Pour démarrer, La Mêlée s'associe à JobIRL.com, qui participe aux côtés du Rectorat, de la Préfecture de Région, du MEDEF31, de Face Grand Toulouse et du Rotary Club, à une action pour près de 1000 élèves de 3e des neuf collèges des quartiers prioritaires de Toulouse.

L'association lance un appel à ses adhérents. "Ouvrez les portes de vos entreprises et de vos start-up à ces jeunes en leur proposant des stages découvertes de 3e pour faire découvrir le Numérique et ses métiers. Plus nous pourrons proposer de stages, plus le Numérique aura du poids face aux autres secteurs représentés", explique La Mêlée

Les semaines de stage sont les suivantes :
Collège VAUQUELIN du 07 au 11 novembre 2016
Collège BADIOU du 21 au 25 novembre 2016
Collège SAND du 05 au 09 décembre 2016
Collège NOUGARO du 12 au 16 décembre 2016
Collège BECANNE du 12 au 16 décembre 2016
Collège BELLEFONTAINE du 09 au 13 janvier 2017
Collège TOULOUSE LAUTREC du 16 au 20 janvier 2017
Collège PARKS du 23 au 27 janvier 2017
Collège STENDHAL du 30 janvier au 03 février 2017

Fête de la science : un long format de La Dépêche du Midi



500 animations sont prévues dans 75 villes de la région Occitanie, du 8 au 16 octobre pour la Fête de la science 2016. Des villages de la science, mais aussi des labos qui ouvrent leurs portes et des scientifiques qui rencontrent le public.

La Dépêche du Midi en partenariat avec Science et animation propose un coup de projecteur sur des chercheurs de la région qui font avancer la science, grâce à un long format inédit.

Pour le consulter, cliquez ci-dessous sur le bouton "View Story"


65% des DSI anticipent une fuite massive de données dans les prochains mois



Okta, spécialiste de la gestion des identités et des terminaux à l’heure du cloud et de la mobilité d’entreprise, annonce les résultats de la première édition de son rapport Secure Business Agility. Selon les données compilées à l’issue d’une enquête menée auprès de 300 DSI et RSSI, la plupart des organisations sont intimement convaincues de la nécessité absolue d’offrir les meilleures technologies à leurs utilisateurs pour stimuler leur productivité. Pourtant, nombreuses sont celles qui peinent à faire preuve d’agilité, à cause d’une vision de la sécurité dépassée et focalisée sur leurs systèmes internes.

L’incapacité des organisations à adapter et à mettre à niveau leurs outils de sécurité représente pour elles un risque sur le plan de la sécurité. Ainsi, 65% des répondants s’attendent à ce que leur organisation soit victime d’une fuite de données dans les 12 prochains mois, à moins qu’elles ne parviennent à mettre à jour leurs solutions de sécurité à temps.
« Dans un souci de productivité, les organisations du monde entier investissent dans des technologies cloud et mobiles permettant à leur personnel de travailler virtuellement de n’importe où. Néanmoins, cette approche n’est pas la garantie d’une véritable agilité. Les organisations étant de plus en plus connectées, l’idée que l’on se fait traditionnellement des frontières de leurs réseaux est en train de disparaître. Les entreprises doivent donc renforcer leur sécurité en priorité », déclare David Baker, responsable de la sécurité des systèmes d’information chez Okta. « Afin de bien maîtriser leur nouveau périmètre et d’éviter de compromettre la sécurité et la productivité des salariés, les DSI doivent adopter des outils allant au-delà des frontières classiques des sociétés et de leurs réseaux, et rendre l’ensemble de leur organisation agile.»

Les principaux enseignements du rapport :

  • Les organisations sont divisées quant à l’impact positif ou négatif de leurs stratégies de sécurité sur leur productivité et leur agilité : On constate des divergences d’opinions au sein des personnes interrogées sur l’effet favorable ou non de leurs mesures de sécurité sur la productivité. Ainsi, plus de la moitié des répondants (52%) affirment que leurs solutions de sécurité actuelles compromettent la productivité, tandis que 48% d’entre eux estiment que les mesures en place permettent à leur organisation d’adopter des solutions de premier plan favorisant la productivité et l’agilité. Le DSI est pris dans l’étau, entre sa mission qui est d’assurer une sécurité maximale à l’entreprise et sa volonté de ne pas brider la productivité.
  • La visibilité sur l’utilisation des applications est limitée : Selon les résultats de notre enquête, 85% des DSI souffriraient d’un manque d’informations sur les individus ayant accès aux différentes applications au sein de leur organisation. Plus inquiétant encore : 80% des répondants considèrent que la faiblesse des mots de passe ou des contrôles d’accès constitue une problématique de sécurité.
  • Investir dans de nouvelles technologies mobiles, d’automatisation et cloud s’avère être une stratégie payante pour les organisations : 92% des personnes interrogées estiment que leur organisation pourrait faire davantage pour intégrer et prendre en charge des applications cloud dans leurs infrastructure et systèmes. Les équipes informatiques ont donc une formidable opportunité de réduire ce pourcentage en augmentant l’agilité et la productivité au sein de leur entreprise.


Publicité : les 4 clés d’une stratégie multicanale efficace



Par Yohan Stern, Président AdScoria By Key Performance Group

La multiplication des canaux de communication atteint aujourd’hui un degré inédit. Face à l’arrivée d’une pléiade de nouveaux points de contact, les publicitaires sont challengés et doivent constamment réévaluer la pertinence de leurs plans médias. Comment optimiser sa stratégie multicanale dans un tel contexte ?

1)    Être à l’affut de l’innovation

Les nouvelles plateformes de contenu se multiplient à un rythme toujours plus soutenu. Lorsque l’une d’elle connaît le succès, le prix de l’espace publicitaire augmente exponentiellement, il est donc nécessaire de ne pas arriver après la bataille et de savoir repérer les nouveaux outils les plus prometteurs. Pour ne pas louper le Snapchat de demain, mieux vaut donc garder un œil sur les données d’utilisation et les résultats des start-ups et des réseaux les plus innovants.

2)    Identifier les utilisateurs de façon fiable

La gestion de l’identité des consommateurs est la clé d’une stratégie efficace. Pour maîtriser les contacts opérés avec chacun et éviter les redites qui génèrent un sentiment de harcèlement, il est nécessaire de lier les divers fragments d’identité connus sur chaque personne physique : adresse postale, identifiants sur les réseaux sociaux, adresse IP, etc. Avec une telle synchronisation des actions sur chaque canal, il est indispensable d’opérer une centralisation de toutes les données marketing. C’est dans ce but que sont aujourd’hui développées des DMP, ou data management platforms, de plus en plus perfectionnées et demandant le concours de data analysts compétents techniquement et stratégiquement.

3)    Utiliser les données pour optimiser vos contenus en fonction des cibles et des canaux

En s’appuyant sur les données fournies par la DMP, les professionnels du marketing ont désormais l’occasion d’automatiser le partage de contenus ciblés. Il est désormais possible de connecter les plateformes d’achat médias sur les réseaux sociaux et les moteurs de recherche en utilisant les critères de ciblages définis par les data analysts sur la base d’informations croisées dans la DMP : c’est le marketing automation.

4)    Créer des modèles d’attribution pertinent pour suivre vos KPI’s

Pour perfectionner continuellement sa stratégie multicanale, encore faut-il connaître avec précision ses résultats sur chaque levier. C’est le but des modèles d’attributions, savoir d’où vient le consommateur qui vient d’effectuer un achat mais aussi par quels autres canaux il a pu être touché précédemment : comparateur d’achat, newsletter, etc. Parce qu’il existe autant de parcours clients que de clients et parce que le offline et le online interfèrent plus que jamais, il convient de croiser un maximum de données provenant de toutes les sources à disposition.


La multiplication des canaux transforme et complexifie donc radicalement le travail du marketeur. Toutefois, les bases de toute stratégie restent valables : un plan média commence par la définition d’objectifs (audience, branding, ROI, génération de leads, etc.), la connaissance qualitative de sa cible ainsi que l’affirmation de valeurs de marques claires. Malgré toutes les innovations, les basiques restent indispensables !

A Toulouse, Red by SFR accompagne les start-up



Dans le cadre de la Mêlée Numérique et de sa journée « Meet the Big » qui s'est tenue le 28 septembre dernirer, RED by SFR et l’association La Mêlée, au terme d’un étroit partenariat, ont décidé d’initier un concours dédié aux Startups afin d’amplifier leur accompagnement. Pour RED by SFR, dont c’est la 3ème étape de son programme en régions « Tremplin Startup », c'est ainsi l'occasion, tout en apportant son expertise, de nouer des relations privilégiées très en amont avec des acteurs en devenir dans les domaines où l’opérateur développe de nouvelles offres.

Plus de 50 jeunes entrepreneurs étaient réunis le 28 septembre lors d’une session de pitchs à la « Cantine Toulouse », lieu d’échange, de rencontres et d’expérimentations initié par l’association La Mêlée. Parmi plus d’une quinzaine de candidatures, 6 projets ont été retenus pour leur caractère innovant et responsable.

Applicolis.com - Florent Fournier

Applicolis est un réseau de transporteurs à disposition des commerces locaux, permettant d'assurer la livraison du dernier kilomètre. La solution permet aux entreprises locales et aux sites marchands de proposer un service de livraison dans l'heure ou sur rendez-vous, afin de s'adapter au mieux les besoins des consommateurs.

Capturs.com - Ludovic Lesieur

Capturs est une balise compacte de 50 grammes, qui envoie la position GPS de son porteur en temps réel sur Internet jusqu’à plusieurs semaines. Elle s’adresse aux pratiquants d’activités « outdoor » (trail, course à pied, randonnée, alpinisme, ski…) ayant pour problématique de devoir partir longtemps dans des zones isolées. L’innovation majeure est liée à l’utilisation du réseau bas-débit SIGFOX diminuant à l’extrême la consommation énergétique de la balise.

Takaclic.com Elsa Gard

Takaclic permet aux utilisateurs de créer leur Fiche de Voyage et recevoir directement par e-mail, de la part des agences de voyages de son réseau de partenaires, des propositions sur mesure répondant à leurs critères. Ils n’auront plus qu’à faire leur choix et réserver auprès de l’agence qu’ils auront sélectionnée.

Parkisseo.com - Florent Duhot

Parkisseo fournit une solution de stationnement intelligent, avec une détection du statut d'occupation des places, indication en temps réel des informations sur web et smartphones, et une identification automatique des automobilistes préalablement enregistrés. La détection permet l'envoi d'informations sur la disponibilité des places de stationnement situées autour de soi. L'identification permet de régler automatiquement ses droits de stationnement et de valider le droit à utiliser des places réservées (places nominatives, PMR, livraison, taxis, ...).

Start-Track.fr - Anaïs Balor

L’application mobile développée par l’équipe de la startup Start-Track permet à toute personne pratiquant une activité physique (sportif amateur ou de haut niveau, personne en rééducation, sénior, …) d’adapter ses efforts à ses capacités à l’instant T et de recevoir des conseils personnalisés en temps réel.

Bigoudy.fr - Morgan Charton

Bigoudy permet de comparer facilement tous les coiffeurs et barbiers exerçant à domicile ou au bureau en quelques clics. Après avoir sélectionné son quartier, le choix se fait en fonction des prestations proposées par les professionnels, de leurs tarifs et de leurs disponibilités.

Instagram et Snapchat séduisent les jeunes... et les séniors



La popularité d'Instagram et de Snapchat a grimpé en flèche au cours de ces deux dernières années. C'est ce que révèle ce premier volet de la nouvelle édition de Connected Life, l'étude de référence réalisée par Kantar TNS dans 57 pays auprès de 70 000 personnes. Elle s'intéresse à la façon dont la technologie transforme le quotidien des citoyens et consommateurs. Elle délivre ainsi des insights clés pour comprendre l'impact de l'écosystème digital pour les marques.

L'usage de Snapchat et Instagram monte en flèche, en France comme ailleurs

Au niveau international, environ un quart des internautes (23%) sont désormais sur Snapchat - un bond fulgurant en deux ans (+11 points). Instagram connaît également une belle croissance : 42%  des internautes y sont inscrits alors qu'ils étaient 24% en 2014.

En France, l'usage de Snapchat monte en flèche : en 2 ans, Snapchat a vu son utilisation progresser de 13 points et Instagram de 10 points. 30% des internautes français utilisent désormais respectivement chacun de ces deux réseaux. Parmi eux,

- 16% utilisent Snapchat quotidiennement, soit plus que la moyenne internationale (10%)
- 14% utilisent Instagram quotidiennement (21% au global),
une fréquence d'utilisation qui n'a rien à envier à celle de Twitter utilisé quotidiennement par 14% des internautes français, (17% au global) mais encore loin derrière leur ainé Facebook avec 61% des internautes français qui l'utilisent quotidiennement (56% au global).


Pour Guénaëlle Gault, Chief Digital Officer de Kantar : « Facebook est un basic dans la panoplie des réseaux sociaux et renvoie de plus en plus à une gestion quasi « institutionnelle » de son identité et de ses relations. Twitter a un positionnement particulier sur l'échange d'infos et de liens. La montée en puissance d'Instagram et de Snapchat vient compléter ce paysage et répondre au désir des consommateurs d'accéder à du contenu instantané et personnalisé, spontané et authentique souvent enrichi grâce à des fonctionnalités de filtres ou d'édition. Cela constitue une véritable opportunité pour les marques d'exploiter cette tendance en créant du contenu personnalisable et partageable (vidéos, stories, etc...). Mais plus que jamais, c'est aussi un défi pour adresser le bon contenu à la bonne cible, sur la bonne plateforme au bon moment. Et savoir casser les codes traditionnels et adopter une posture conforme à ces nouvelles formes d'interaction.»



En France, les 16-24 ans sont les plus accros, tandis que les séniors commencent à se l'approprier

Comme souvent en matière de digital, les 16-24 ans sont les plus assidus : en France, 62% d'entre eux utilisent Snapchat toutes les semaines, pour partager du contenu instantané. Et 46% des 16-24 ans font de même sur Instagram de manière hebdomadaire.

Du côté des séniors, la montée des Instagramers se poursuit en France : près d'un internaute sur 10 âgé de 55 ans et plus est inscrit sur Instagram (9%) soit quatre fois plus qu'en 2014. De même, dans cette tranche d'âge, 7% d'entre eux utilisent Snapchat pour partager des photos instantanément (+6 points vs 2014).

Home préfigure-t-il le marché de l'Intelligence Artificielle à domicile ?



Par Malek Rezgui – Fondateur de Dommee

On l'attendait depuis longtemps, Google a enfin levé le voile sur Home, son assistant personnel visant à concurrencer Echo d'Amazon, carton aux Etats-Unis depuis son lancement. Ces solutions répondent sans conteste aux besoins actuels pour faciliter le maintien à domicile. Mais projetons-nous quelques années plus loin et voyons si ces Intelligences Artificielles correspondront à nos besoins en 2030.

Le marché de la Silver Economy est en forte croissance depuis quelques temps, puisqu'il pèserait en France plus de 130 milliards d'Euros. Entre santé connectée et domotique, pas une semaine ne passe sans une nouvelle application ou un énième gadget connecté pour le bien vivre chez soi des résidents. De la start-up aux grands groupes comme Google ou Amazon, tous veulent une part du gâteau.
Le marché des objets connectés et applications pour le maintien à domicile va-t-il poursuivre son expansion ? Aux dépens ou non du rôle de la famille ?

En 2030, on revient à l'essentiel… avec l'aide des nouvelles technologies
Comme nous continuerons de vivre de plus en plus longtemps, plusieurs générations vont coexister, de 15 à 90 ans et plus. Elles auront plusieurs problématiques communes :
Comment maintenir le lien avec les 15 ans et plus ?
Sans surprise, ils seront encore plus connectés, toujours plus adeptes des tablettes et des smartphones que de nos traditionnels écrans TV. Leurs ainés vont s'adapter car ils refusent l'idée d'être considérés comme des vieux. C'est aussi une des raisons pour lesquelles les magasins clairement spécialisés seniors n'auront pas tous le vent en poupe, même si certaines enseignes nationales se sont lancées sur ce segment. En effet, les seniors n'ont pas envie de côtoyer uniquement des gens de leur génération, ils veulent être traités comme tout le monde. Ils feront leurs courses aux mêmes endroits que les autres, dineront dans les mêmes restaurants et fréquenteront les mêmes cinémas. Et ils vont également s'adapter aux nouvelles technologies, car elles présentent beaucoup d'avantages. Notamment celui de pouvoir partager leur quotidien sur les réseaux sociaux, voir la famille qui habite loin grâce à la vidéo, mais aussi rompre leur éventuel isolement grâce aux communautés qui vont être amenées à se créer.

Comment rester à son domicile le plus longtemps possible ?
Ce besoin sera bien évidemment renforcé. La maison de demain ne sera certainement pas suréquipée de capteurs et autres objets connectés pour surveiller les moindres faits et gestes des résidents. Ils ne veulent pas être prisonniers de la domotique, ni se sentir sous surveillance vidéo. La tendance ira vers quelques équipements discrets qui ciblent les besoins essentiels (détecteur de chute, mesure du volume d'eau utilisé, fermeture des portes et des volets, ou encore éclairage de certaines pièces, commande de repas…). Les informations stockées ne seront pas partagées directement avec une société de gardiennage lambda, afin de ne pas risquer que les données personnelles soient utilisées à des fins commerciales, mais en priorité aux proches. Ensuite, libre à eux de décider du traitement de ces données.

Le rôle prépondérant des proches :
La famille verra son rôle de prescripteur renforcé. Souvent, ils suggéreront au résident des services et des nouveautés susceptibles d'améliorer son confort et son bien-être. Les nouvelles technologies continueront d'améliorer la communication entre le résident et sa famille éloignée, mais aussi avec le personnel médical. Les systèmes de visioconférence seront dopés par la réalité augmentée, afin de donner l'impression d'être à côté de celui avec qui on converse.

Vers un tassement du marché de la domotique et de la santé connectée
Comme expliqué plus haut, on s'oriente vers un retour à l'essentiel et un rejet de plus en plus massif de tout ce qui pourrait se révéler trop intrusif. Cela va donc entrainer un tassement du marché de la santé connectée et de la domotique. Quant aux robots, s'il est vrai qu'ils peuvent rendre de nombreux services, ils peuvent aussi nuire au besoin d'intimité. Tout va dépendre de leur capacité à devenir plus humain, à l'image du héros du film Robot and Frank.

D'une certaine manière, 2030 ressemblera beaucoup à ce que l'on observe déjà aujourd'hui. Les besoins et les attentes des uns et des autres seront les mêmes, mais amplifiées par leur volonté de profiter plus longtemps de leur domicile et de coller à l'air du temps. Les acteurs de la domotique, de la santé connectée et de l'habitat n'auront d'autre choix que de conserver une certaine simplicité et de la discrétion pour les satisfaire.

Le dispositif Home présenté par Google

Comment se simplifier la vie lorsqu’on est une start-up ?



Par Lydie Balfet, Responsable Marketing et offres, NetExplorer

Innovantes et avant-gardistes, les start-ups redoublent de concepts et de nouveaux services pour faciliter notre quotidien et celui des entreprises. Leur objectif : démarrer et grandir vite. Les jeunes pousses ont donc elles aussi besoin de solutions qui leur simplifient la vie et leur permettent de se concentrer sur leur business. Pour être efficaces, les outils mis en place doivent comporter les quatre caractéristiques suivantes :

1.     Être simple et rapide

Lorsqu’on lance une start-up, on n’a ni le temps ni les moyens de tester et de comparer la multitude d’outils qui s’offrent à nous, et encore moins celui de suivre une formation ou de procéder à une installation laborieuse. C’est pourquoi, la solution mise en place doit être intuitive et facilement prise en main, sans que l’on ait des compétences particulières en informatique.

Par ailleurs, avant de valider le choix d’un outil en particulier, il faut s’assurer que celui-ci puisse être déployé rapidement en vérifiant quel est le délai de mise en place, avec quel environnement logiciel existant peut-il être connecté, quel est le temps nécessaire au paramétrage etc.

Plus la solution sera simple et rapide à installer, moins la start-up perdra un temps précieux, et plus elle pourra se concentrer sur son développement.

2.     Être tout-en-un

La multitude d’outils présents sur le marché permet aux start-up de répondre à différents besoins spécifiques. Or, certains d’entre eux sont complémentaires, et il est préférable de s’orienter vers une solution complète, plutôt que d’additionner des logiciels.

Vous gagnerez en temps et en performances : un seul outil à maîtriser et à installer, un seul interlocuteur, et la réponse à plusieurs besoins.

3.     Être mobile

Les startupers sont mobiles, leurs outils de travail doivent l’être aussi ! À son lancement, il est en effet rare qu’une start-up dispose de locaux. Ses membres sont nomades, et travaillent fréquemment dans divers lieux : depuis leur domicile, dans un café ou un espace de co-working, dans les transports, voire même chez les investisseurs.

Les solutions doivent donc être accessibles depuis n’importe où et via n’importe quel device, voire même sans connexion Internet.

4.     Être flexible

Les potentiels de croissance d’une start-up sont énormes, et grâce à une ou plusieurs levées de fonds réussies, son business peut se développer à vitesse grand V. L’outil doit donc pouvoir grandir en même temps que la jeune pousse et s’adapter instantanément aux nouveaux besoins de celle-ci, qu’il s’agisse d’une augmentation des performances ou d’un plus large nombre d’utilisateurs.

A Montpellier, le DigiWorld Summit 2016 planchera sur la confiance numérique



C'est l'un des principaux rendez-vous du secteur numériique et des télécoms qu'accueillera la nouvelle grande région Occitanie du 15 au 17 novembre à Montpellier.

La 38e édition du DigiWorld Summit, organisée avec les entreprises Membres du DigiWorld Institute, déclinera le thème « The Digital Trust Economy ». L'occasion d'un large débat international sur les questions de la confiance numérique qui sont devenues l'une des préoccupations majeures de l'écosystème numérique.

Va-t-on atteindre le seuil de tolérance de la confiance numérique ? Comment les acteurs historiques du numérique (équipementiers, telcos, IT) peuvent-ils en tirer parti ? Les verticaux sont-ils menacés ou au contraire favorisés par la montée des questions liées à la confiance et à la sécurité ? Un nouveau cadre réglementaire devra-t-il émerger pour encadrer, voire rassurer, les acteurs en présence et les consommateurs ? Autant de questions qui seront abordées lors de conférences et d'ateliers avec des experts internationaux reconnus.

"La confiance est reconnue depuis longtemps comme un facteur important du succès d'une marque, d'une économie ou d'une société. Cela est encore plus vrai dans un monde transformé par l'innovation numérique. IDATE DigiWorld a montré, dans ses scénarios « Internet 2025 », que la confiance était une des variables clés dans l'écosystème numérique du futur", expliquent les organisateurs.

La confiance, point de convergence de l'économie numérique

Entre les cyberattaques contre des telcos, des chaînes de télévision ou des services publics ;les péripéties d'Apple ou Whatsapp avec les autorités pour avoir accès aux clés des terminaux ou du chiffrement des messages ; les très longues négociations au sein de l'Union européenne pour s'entendre sur un nouveau règlement relatif à la protection des données personnelles ; la remise en cause de l'accord transatlantique 'Safe Harbor' et le débat autour du 'Privacy Shield' ; ou encore les questions sur les impacts sur la solidité du système bancaire des multiples offres de la FinTech ou de la capacité de la blockchain à se substituer aux tiers de confiance : les débats sont aussi nombreux, complexes que passionnants.

La confiance, "c'est donc un point de convergence pour les telcos, les acteurs du cloud, les géants de l'Internet, les start-ups, les gouvernements et les régulateurs, mais bien plus largement pour tous les secteurs de l'économie et les consommateurs/citoyens. Et comme toujours, la mesure du risque ne doit pas écarter l'analyse des opportunités, en termes d'innovations, de stratégies de différenciation ou d'avantages concurrentiels pour beaucoup d'acteurs.

1 200 participants sotn attendus pour le DigiWorld Summit et plus de 5 000 pour la DigiWorld Week. 120 intervenants du monde entier et près de 400 pour la DigiWorld Week délivreront leur expertise.



Stade connecté : l'application du Stade Toulousain téléchargée plus de 20 000 fois



Un mois après son lancement, la nouvelle application du Stade Toulousain a déjà été téléchargée plus de 20 000 fois, viennent d'annoncer le club et Orange.

Le Stade Ernest Wallon, propriété du Stade Toulousain, est devenu le 24 août dernier, le premier stade de rugby 100% connecté d’Europe et l’un des stades les mieux connectés du monde.
René Bouscatel, Président du Stade Toulousain et Patricia Goriaux Directrice Orange Sud, ont présenté aujourd’hui au stade Ernest Wallon, un premier bilan et les perspectives d’évolution de la transformation digitale du Stade Toulousain. Un mois après son lancement, la nouvelle application du Stade Toulousain a été téléchargée plus de 20 000 fois par les supporters, et plus de 7 000 comptes ont été créés.

Grâce à la connectivité wifi et 4G dans l’enceinte du stade et à l’application mobile « Stade Toulousain », le supporter peut vivre une expérience numérique de bout en bout avant, pendant et après chaque match. Cette réalisation résulte d’une étroite collaboration entre le Stade Toulousain et Orange qui lui a fourni les technologies et l’a accompagné dans sa transformation digitale.

La startup toulousaine Flipr lance sa collecte de fonds sur Wiseed


La startup toulousaine Flipr qui a inventé un objet connecté qui mesure en temps réel la qualité de l'eau des piscines accélère son développement. Ce mercredi 21 septembre, Flipr lance une opération de financement participatif afin de collecter les fonds nécessaires à l’industrialisation et au recrutement de nouveaux collaborateurs. L'objectif à atteindre est de 300 000€.

La levée de fond est organisée sur la plateforme toulousaine Wiseed.fr, qui permet à des investisseurs particuliers de prendre des parts dès 100€ dans des entreprises à fort potentiel de développement.

"L’investissement dans Flipr est éligible à une défiscalisation sur l’impôt sur le Revenu ou l’impôt sur la Fortune. Lors d’une phase de vote précédemment organisée sur la plateforme, Flipr a reçu le soutien de plus de 300 Wiseeders, et plus de 200 000€ de promesses d’investissement", expliquent les fondateurs de Flipr.

La Dépêche du Midi publie un long format pour les 15 ans d'AZF


Il y a 15 ans, le 21 septembre 2001, à 10h17, l'usine AZF explosait. A l'occasion de la date anniversaire de cette tragédie, l'une des plus grandes catastrophes industrielles au monde, la rédaction de La Dépêche du Midi s'est mobilisée.

Alors que va s'ouvrir un 3e procès le 24 janvier 2017 à Paris, le journal revient sur cette tragédie à travers un long format multimédia exceptionnel. Infographies interactives, vidéos d'époque, récit de la journée du 12 septembre, décryptage des procès, interviews vidéos des acteurs clé, témoignages.

Pour consulter ce long format, cliquez sur le bouton "View Story" dans l'image ci-dessous.


Par ailleurs, La Dépêche a lancé début septembre un appel à témoignages. Ces derniers, nombreux et émouvants, sont compilés dans un Tumblr spécial, véritable espace de mémoire, consultable à l'adresse : http://azf15ans.tumblr.com/

Mr Robot : pourquoi conseiller cette nouvelle série aux chefs d'entreprises



Par Stéphane Castagné, Responsable Commercial France chez  Barracuda Networks

A quelques jours de la diffusion de l'épisode final de la saison 2 aux Etats-Unis, France 2 diffuse ce lundi 19 septembre les tout premiers épisodes de la série américaine à succès Mr Robot. Si cette série séduit un large public, elle est aussi d'ores et déjà reconnue par les professionnels et les passionnées d'informatique pour sa justesse en terme de cyber sécurité – et devrait être conseillée aux chefs d'entreprises.

La fiction est souvent proche la réalité, mais dans le cas de Mister Robot c'est également l'inverse. La série vedette de USA Networks, Mr Robot, relate l'histoire d'un groupe d'individus – Fsociety – tentant de pirater une multinationale appelée Evil Corp. Et ce piratage pourrait avoir de lourdes conséquences pour l'entreprise, mais aussi pour l'économie mondiale dans son ensemble.

Sans dévoiler toute l'intrigue de la série, la technique choisie par Fsociety  est simple : ils tentent d'obtenir l'accès à un système utilisé par un fournisseur externe de services informatiques gérés d'Evil Corp. Et la réalité semble s'inspirer de la fiction puisque de nombreux sites spécialisés détaillent les techniques utilisées dans les nombreux hacks de la série. Un groupe de hackers a par ailleurs publié des échantillons de code de ransomware, portant le nom de « fsociety ».

Même si les techniques de piratage semblent à l'écran beaucoup plus faciles qu'elles ne le sont en réalité, les experts de la sécurité informatique en entreprise devraient conseiller à leurs collègues de regarder Mr Robot – ou du moins quelques extraits sélectionnés. Nous le savons tous, en cyber-sécurité, l'éducation de chaque collaborateur de l'entreprise est primordiale puisque l'humain est régulièrement considéré comme le maillon faible et donc ciblé par les pirates comme en témoignent les nombreux cas de social engineering. Le fossé entre la destruction de toute une entreprise dans une série américaine et ce qui pourrait arriver dans la réalité n'est pas aussi grand qu'on aimerait le penser.

Evidemment, les péripéties informatiques ne constituent pas l'intégralité de l'intrigue – et certains pourraient ne pas apprécier l'introspection personnelle engagée par le personnage principal. Mais les parties concernant la sécurité informatique et les piratages sont tout à fait crédibles. Plus important encore, ces extraits illustrent les risques qu'encourent les entreprises en matière de sécurité d'une façon ludique et facilement compréhensible par la plupart des chefs d'entreprise et des collaborateurs.

Par ailleurs, amener les chefs d'entreprises et les directions financières à évaluer correctement les risques est aujourd'hui – dans un contexte budgétaire parfois difficile - le plus grand défi que doivent relever les professionnels de l'informatique.

Heureusement, la plupart des cadres et des entrepreneurs sont habitués à penser en termes de risques. Toute création d'entreprise comporte des risques. Les chefs d'entreprise passent généralement la plupart de leur temps à essayer de les évaluer, par rapport aux gains potentiels associés à une initiative. Mais, en termes de sécurité informatique, la plupart d'entre eux n'ont pas pleine connaissance des dangers et surtout de leurs potentielles conséquences. Ils comprennent que les logiciels malveillants peuvent infecter un système, mais ils ne mesurent pas l'étendu des dommages qu'un tel logiciel peut infliger à l'entreprise.

A titre d'exemple, le vol de propriété intellectuelle peut effacer des années entières d'investissements dans la recherche et le développement. Pourtant, le vol de plans de développement produit dans une entreprise lambda peut être un jeu d'enfants pour les pirates les plus sophistiqués. Les risques sont multiples : la petite entreprise pourrait se voir devancer par la concurrence tandis que l'entreprise cotée pourrait voir ses actions chuter. Un tel piratage peut éventuellement entrainer la faillite d'une entreprise ou des difficultés budgétaire poussant au licenciement. Voilà un scénario de risque que la plupart des chefs d'entreprise peuvent imaginer.

Le défi, pour les professionnels de la sécurité informatique d'aujourd'hui, consiste à remettre les risques associés à la sécurité informatique dans un contexte que les chefs d'entreprise peuvent comprendre, tout en continuant leurs initiatives de sensibilisation envers tous les collaborateurs de l'entreprise. Les professionnels de l'informatique doivent pouvoir identifier les principaux actifs de l'entreprise, puis expliquer en langage clair non seulement ce qu'il faut réellement pour les protéger, mais également les conséquences bien réelles que représente la perte de contrôle sur ces actifs pour l'entreprise.

C'est pourquoi Mr Robot devrait être conseillé à tous les collaborateurs d'une entreprise, et en particulier aux chefs d'entreprise. Au delà de l'histoire d'un simple groupe de hackers marginaux, c'est une nouvelle vision de la cyber-sécurité que propose cette série à succès. Si la paranoïa du personnage principal peut lui causer quelques torts, une légère paranoïa au sein des directions informatiques pourrait, elle, sauver l'entreprise.


Automobile et Big Data : un parcours client optimisé grâce à une vision 360° en temps réel



Par Charles Grenet, Responsable de Marchés chez Uniserv

Smartphones, réseaux sociaux, objets connectés : les sources d’informations ne cessent de se multiplier au rythme des innovations et des nouveaux usages. Avec elles, de nouvelles pistes de prospection pour les marques. Mais cette surabondance de données ne doit pas faire oublier que la quantité ne peut être collectée au détriment de la qualité, et le manque de communication entre les différentes sources de données empêche les entreprises de bénéficier d’une bonne vision de leurs clients et prospects. Pourtant, à l’heure des bouleversements technologiques cités ci-dessus justement, il est plus que jamais nécessaire de bénéficier d’une vision 360° en temps réel des clients pour rester dans la course. Des données incorrectes sont d’autant plus dommageables dans le secteur automobile, où la fréquence de renouvellement produit est peu élevée.
Pourtant, des pistes existent pour construire une base de données fiable leur permettant de mieux connaître les clients et d’anticiper leurs besoins.

La nécessité d’identifier le prospect pour communiquer

De nombreux concessionnaires et réparateurs se sont partagé le territoire français et mondial, mais ils sont pour la majorité affiliés aux grands noms du domaine. Chacune de ces entreprises alimente au quotidien sa base de données propre issue de canaux divers et variés : remplissage d’un formulaire via le site internet pour un essai de véhicule, demande d’informations complémentaires via les réseaux sociaux, prise de contact directement dans la concession à l’occasion des journées portées ouvertes, etc. De plus, lorsqu’ils se renseignent en vue de l’achat d’un véhicule, les clients potentiels se cantonnent rarement à une seule concession, et multiplient les points de contact.

Il est donc fréquent que plusieurs agences affiliées à la même entreprise se partagent un même prospect, parfois sans le savoir : chacune intègre les informations recueillies dans sa propre base de données. Si le client est le même, les données le concernant peuvent différer : une agence questionnera le prospect sur son précédent véhicule, pour lui proposer éventuellement de monter en gamme, en passant d’une voiture citadine à un modèle familial, par exemple. Un autre concessionnaire, préférera se concentrer sur des éléments plus personnels : une personne soucieuse de l’environnement se verra proposer un modèle électrique ou roulant au biocarburant.

Optimiser ses données pour transformer l’essai

Si la collecte de données toujours plus nombreuses, personnelles et ciblées a le vent en poupe, cette profusion d’informations ne permet pas forcément une vision plus pertinente du client et de ses besoins.

La multiplication des doublons dans les différentes bases de données occasionne une sur-sollicitation du prospect, rarement bénéfique, et une perte de temps et d’énergie pour les commerciaux : si le prospect transforme sa réflexion en achat, une seule agence sera sélectionnée. De même, le nombre de sources différentes, qu’elles soient techniques ou humaines – le prospect lui-même via un formulaire sur le site web, puis le commercial via son outil CRM lors d’une visite dans la concession, puis un collègue qui reprend le dossier et le complète – rend la présentation des informations disparate et surtout, en altère la fiabilité.

 Données, analytics et big data

Une telle masse de données pourrait représenter une mine d’or pour la mise en place de projets big data d’envergure. Néanmoins, pour que les analyses qui en découlent soient pertinentes, elles doivent reposer sur un socle solide : des données fiables et de qualité, en temps réel. Il ne s’agit pas d’adresser une proposition de test pour un véhicule qu’un client a acheté la semaine précédente. Le service marketing, en charge des emailings, doit être rapidement informé de cette évolution du statut du client.

Aussi, pour proposer un service de qualité, il est essentiel de constituer, au sein de l’entreprise et de toutes ses filiales, un référentiel unique, enrichi de toutes les données disponibles harmonisées, et permettant des passerelles entre les services. Le commercial d’une petite agence régionale pourra mieux conseiller son client et lui proposer le service de financement adapté s’il a connaissance de ses antécédents avec la marque et de sa solvabilité lors de ses précédents achats, par exemple.

Ce n’est qu’en bénéficiant d’une vision 360° de leurs clients en temps réel que les entreprises automobiles pourront anticiper l’évolution de leurs besoins, et ainsi les fidéliser. L’enjeu est de taille : l’heure est à la fidélisation client, il s’agit de ne pas louper le coche !

Sécurité des données dans le Cloud : que font les hébergeurs ?


Par Joaquim Dos Santos, Directeur R&D chez Ikoula

La sécurité des données dans le Cloud reste un frein pour certaines entreprises désireuses d'adopter cette technologie pour leurs applications ou leurs infrastructures informatiques. D'après une récente étude menée par PAC (Pierre Audoin Consultants), la sécurité est le premier frein à l'adoption du Cloud en France. Une certaine défiance existe donc encore. Pourtant les hébergeurs et les fournisseurs propriétaires de Data Centers prennent de nombreuses mesures visant à apporter aux entreprises un niveau de sécurité similaire à ce qu'elles peuvent avoir sur site au sein même de leurs locaux.

L'entreprise et son prestataire : un accompagnement et une transparence nécessaires
Lors de l'adoption d'une architecture Cloud, il est important de bien définir le besoin de l'entreprise car différentes règles de sécurité en découleront. C'est pourquoi, un hébergeur se doit de connaître son client et d'effectuer un véritable accompagnement personnalisé afin de l'aider à faire les meilleurs choix. La définition du projet amènera l'hébergeur et le client à se tourner vers le Cloud public, privé ou hybride – en fonction des besoins de performances mais aussi du caractère critique et sensible des données.

Différentes règles de sécurité s'appliquent selon les structures choisies. Pour les infrastructures en Cloud public et hybride, les hébergeurs mettent en place une isolation stricte entre les différents clients. Ainsi, un utilisateur présent sur le même serveur ne peut pas, par un moyen détourné, accéder à la machine virtuelle d'un autre utilisateur.
Dans le cas du Cloud privé, ce problème ne se pose pas car le serveur est dédié mais différents droits d'accès aux serveurs physiques sont mis en place pour garantir la sécurisation des données.

Une totale transparence entre l'entreprise et son prestataire est donc indispensable. Plusieurs points doivent être abordés afin de s'assurer que toutes les mesures de sécurité sont mises en place :

La localisation des Data Centers : certains hébergeurs possèdent plusieurs centres de données. Il faut donc que l'entreprise cliente soit en mesure de savoir où se localisent géographiquement ses données. Dans l'idéal, elle doit même pouvoir choisir l'emplacement de ces dernières afin de décider par quelle législation seront régies les données.

Des garanties d'audits et de contrats : le prestataire choisi doit pouvoir démontrer via différents audits que toutes les règles de sécurité sont optimales et à jour. Cela permet à l'entreprise cliente de s'assurer du sérieux du prestataire. En termes de contrat, un accord de réversibilité doit être inclus afin d'assurer aux clients la possibilité de reprendre la main à tout moment sur leurs données et leurs infrastructures.

Une disponibilité des données constante : la sécurité des données, c'est aussi s'assurer que ces dernières seront disponibles à tout moment et ne seront pas perdues – même en cas de soucis technique. Un bon prestataire doit proposer à l'entreprise un Plan de Reprise d'Activité (PRA) après sinistre, qui permettra de dupliquer les données et l'infrastructure Cloud afin que celles-ci restent disponibles même si les serveurs initiaux rencontrent un problème. Ce PRA peut être mis en place avec le même prestataire, si celui-ci dispose de plusieurs Data Centers, ou en collaboration avec un autre hébergeur.

La sécurisation des données en mouvement
La sécurité des données passe donc par la qualité du relationnel et la transparence administrative avec son prestataire, mais aussi par la qualité purement technique de son offre.

Les données sont vulnérables lorsqu'elles sont en mouvement. C'est pourquoi les flux sont hautement sécurisés par les hébergeurs de confiance. En utilisant un système de cryptage, un arsenal firewall et des liens dédiés entre les points de création de contenus et le Cloud, l'hébergeur assure l'intégrité des données. La totalité des transferts vers et depuis le Cloud garantissent ainsi une non-modification des données via divers protocoles lorsqu'elles sont en transit. Ces dernières peuvent également être monitorées et archivées sous forme de log, un outil tiers de monitoring. Plusieurs paramètres sont ainsi vérifiables comme le moment exact de la transmission du flux, si la donnée a été modifiée, et par qui.

La gouvernance des données est aussi un aspect important de la sécurisation. Les politiques d'accès doivent être rigoureuses afin que les clés de chiffrement ne soient pas entre toutes les mains. Par ailleurs, les hébergeurs mettent en place un protocole de droit d'accès aux serveurs physiques, doublé par de nombreuses mesures anti-intrusion, afin d'assurer à ses clients que seules certaines personnes auront accès aux serveurs.

Les données dans le Cloud sont donc soumises à différentes règles pour assurer à la fois leur confidentialité, leur intégrité mais aussi leur disponibilité à tout moment. Un accompagnement personnalisé et une relation de confiance avec un hébergeur, couplés à des offres de qualité, permettent donc d'assurer la sécurité des données dans le Cloud et de lever le principal frein empêchant une partie des organisations d'adopter cette architecture informatique.

Pourquoi les entreprises plébiscitent-elles les logiciels Open Source ?




Par John Newton, CTO et Président, Alfresco 


Loin d'être une nouveauté, les solutions open source connaissent un développement commercial fulgurant. Une étude sur l'avenir de l'open source a ainsi montré que l'adoption des solutions open source au sein des différents secteurs d'activité et entreprises a atteint un niveau record : quelle que soit leur taille, 78 % d'entre elles utilisent les logiciels open source pour tout ou partie de leurs activités. En quoi les solutions open source sont-elles avantageuses pour les entreprises ?

Pour les directions informatiques, trouver les moyens de gérer des systèmes archaïques est un défi quotidien. Après plusieurs décennies d'investissements coûteux, les CIO sont face à une réalité : ils ont trop massivement investi dans des technologies aujourd'hui obsolètes pour mettre au rebut et remplacer les infrastructures existantes. Indépendantes de tout fournisseur ou fabricant, les solutions open source offrent une alternative idéale pour moderniser les systèmes hérités. Elles favorisent l'innovation à l'échelle globale de l'entreprise et permettent d'économiser du temps et de l'argent.

La personnalisation facilite l'innovation
Très coûteux, les logiciels propriétaires sont également très restrictifs. Ils ne peuvent pas être configurés pour s'adapter à des besoins spécifiques, si bien que l'entreprise est confrontée à une impasse dès qu'elle souhaite introduire une modification. En outre, leurs capacités d'adaptation sont limitées ce qui les empêche d'évoluer au gré des besoins.

À l'inverse, les API ouvertes qui caractérisent les logiciels open source permettent aux développeurs de personnaliser la solution en fonction des attentes. Une fois la solution téléchargée, ils peuvent y apporter toutes les modifications souhaitées, ajouter du code, en supprimer ou l'optimiser. De plus, la capacité d'adapter les nouvelles applications aux plateformes open source existantes est bien plus fiable et simplifiée.

Avec les logiciels open source, inutile d'attendre des années pour déployer une solution. Ils permettent de réaliser des tests avant l'acquisition et sont parfaitement adaptés à la collaboration, l'expérimentation et la réalisation rapide de prototypes. Basés sur des standards ouverts, ils offrent en outre des capacités d'interopérabilité intégrées. Pour toutes ces raisons, les logiciels open source ont permis d'innover continuellement et de faire émerger de nouveaux services, applications et startups.

L'indépendance vis-à-vis des fabricants engendre des économies
Avec les plateformes open source, les entreprises se libèrent des systèmes propriétaires dont les coûts de possession sur le long terme doivent inclure les dépenses récurrentes liées aux mises à jour et nouvelles applications imposées par le fournisseur. Les entreprises ne peuvent pas exploiter elles-mêmes le potentiel du code source qui reste la propriété du fabricant.

De par sa nature, le code source des logiciels open source est librement accessible. Chacun y a accès de la même manière et peut le personnaliser en fonction de l'utilisation envisagée. Toute entreprise a la possibilité de développer sa propre solution à partir d'un logiciel open source. Son fonctionnement et sa maintenance peuvent être assurés par différents fournisseurs. Les clients sont donc libres de choisir une solution et d'en changer à leur gré. Ils peuvent facilement changer de prestataire car ils ne dépendent pas de l'offre d'un fournisseur spécifique. Par ailleurs, les développeurs familiarisés avec le code peuvent étendre les fonctionnalités des logiciels open source. Ainsi, l'entreprise qui souhaite apporter des modifications n'est pas à la merci d'un prestataire. Quoi qu'il advienne du fournisseur, elle reste propriétaire de la solution.

La plupart des plateformes open source disposent de dizaines de milliers de développeurs qui créent de nouvelles applications pour les programmes les plus récents, d'où des mises à jour gratuites ou très peu coûteuses. Les solutions open source étant constamment actualisées, les entreprises bénéficient de technologies sans cesse optimisées, sans frais élevés de mise à niveau. Sous la houlette d'un petit nombre de programmeurs rémunérés, les développeurs offrent bénévolement leur temps et leur expertise. Le coût d'investissement initial faible et le fait que les logiciels open source ne sont pas basés sur un système de licences par poste débouchent sur des économies substantielles.

Outre ces avantages en termes de coût, les solutions open source engendrent des économies à d'autres niveaux. Avec les logiciels open source, les entreprises n'ont plus besoin d'autant d'expertise et d'équipements en interne. Au lieu des serveurs et ingénieurs, elles peuvent consacrer leurs ressources à des outils qui viennent renforcer l'infrastructure en place et maximisent la valeur de leurs investissements.

Les logiciels open source favorisent la productivité, la croissance et la collaboration
Les solutions open source sont conçues sur la base d'une architecture qui s'adapte aux changements technologiques imprévus et libère l'entreprise de la dépendance au fabricant, propre aux logiciels propriétaires. Cette ouverture, cette transparence et ces échanges entre pairs favorisent une innovation plus rapide, à un coût réduit. Les standards ouverts facilitent l'intégration des offres open source aux environnements existants et leur adaptation aux nouveaux besoins métiers et technologies. Le formidable potentiel du modèle open source accélère considérablement le rythme des innovations. Ce type d'architecture ouverte répond parfaitement aux exigences des environnements informatiques et de travail modernes. Les solutions open source permettent aux entreprises d'accroître la productivité, de favoriser la croissance et de simplifier la collaboration à travers toute l'entreprise étendue.

Petite histoire de l’influence, de la longue traîne à Snapchat



Par Arthur Kannas, co-fondateur de l’agence heaven

Je doute donc je suis. Chaque jour nous sommes envahis de questions existentielles ou futiles... Dois-je choisir cet hôtel ? Dois-je postuler dans cette entreprise ? Faut-il que je change de TV maintenant ? Il est bien, ce dentiste ? Stranger Things, ça donne quoi ? Comment attraper Mewtwo ?
Aujourd’hui, on est tous habitués à poser directement la question sur Google, son moteur de suggestions affichant parfois même directement la réponse dans un menu déroulant. Mais souvent, on trouve des réponses à des questions que l’on ne se pose même pas : tout le monde parle de Stranger Things, c’est quoi ? Wow cette plage a l’air magnifique derrière ces pieds en éventail, je me la note !

Si l’on cherche l’avis d’un pair, on connaît tous également l’expérience de poser une question, ou de suivre des conversations sur le flux de commentaires d’un post Facebook, une vidéo Youtube, ou derrière un Hashtag Twitter.
Si l’on met de côté Quora, ou les sites d’avis spécialisés, l’espace conversationnel public est aujourd’hui davantage structuré en étant adossé à de la production de contenus. Ces contenus et les conversations attachées éveillent notre curiosité, nourrissent notre opinion, forgent nos décisions. Cette emprise possible sur notre comportement c’est l’Influence, telle que les marques la recherchent depuis des années. L’Influence agit sur la réputation d’un produit, d’un service ou d’une marque parce que le contenu émane de tiers, des pairs considérés davantage crédibles que la marque elle-même.

Retour sur l’évolution de l'Influence.

Google : le détonateur

Tout commence vraiment il y a 15 ans dans un Web hyperportalisé (Yahoo, Aol, MSN), où la Longue Traîne s’est soudain distinguée, favorisée par la montée en puissance de Google, ce moteur de recherche affamé de contenus frais, fréquents et crédibles. L’ère de l’Influence peut commencer. Derrière la somme d’une infinité de petites audiences se cache en effet la puissance d’un web libre, critique et populaire. A travers les forums, les sites personnels, puis les blogs, les conversations naissent, s’enflamment et s’assèchent sur ces espaces propices aux avis et à la discussion, espaces qui remontent naturellement dans les résultats du moteur.

Attentives, les marques y détectent des leaders d’opinions. Dans un web déjà conversationnel, les passionnés et les experts prennent rapidement le pouvoir. À l’époque, Xbox par exemple l’a bien compris. Partant d’une poignée de fans, capables de produire spontanément et quotidiennement du contenu de qualité, la marque de jeu vidéo de Microsoft a construit peu à peu en France un réseau d’une centaine de webmasters de sites amateurs, qui vont finir par cumuler hors des radars des instituts de mesure d’audience, plusieurs millions de visiteurs uniques chaque mois. De quoi préparer confortablement une décennie de conversations souvent positives, parfois critiques, sincères toujours, autour d’une marque naissante et à ce moment de son histoire terriblement challenger face à ses concurrentes.

La détection de tels “influenceurs”, capables de changer le cours d’une conversation, de fédérer des énergies et d’affecter in fine le comportement de millions de personnes indécises devient rapidement un art, dans tous les secteurs. Technologie, voyage, beauté, gastronomie ou politique, aucune thématique n’échappe à la scrutation méthodique des agences et de leurs outils.

La bascule transactionnelle

Les marques vont se ruer sur l’Influence comme l’on se rue sur un Graal marketing. D’autres vont s’y ruer comme sur de l’or : en effet, avec les outils de blogging, les efforts pour produire du contenu diminuent et une nouvelle génération d’éditorialistes apparaît, autant pour s’exprimer que pour profiter de l’aubaine relationnelle avec les marques.

Très vite, les relations “tarifées” vont apparaître. Impatientes, les marques veulent être sûres d’obtenir des retombées, au risque parfois d’écorner la crédibilité éditoriale de l’Influenceur, qui se prête néanmoins généreusement au jeu. D’abord en Nature, via des prêts de produits très longue durée, puis de manière plus ouverte, par des transactions.

Certains influenceurs deviennent “professionnels” : ils vivent de leur capacité à influencer leur audience. Les régies d’Influenceurs et autres “talents managers” se développent, et les marques accèdent plus facilement aux audiences des influenceurs...et aux métrix qui vont avec. Seulement voilà, quand on parle régie, on parle audience. Volume. Reach. Conversion. En quelques années les opérations “bloggeurs” s’essoufflent car l’impact et le volume ne sont pas au rendez-vous, dès que l’on se met à les comparer à ceux des investissements publicitaires.

Surtout que depuis quelque temps, il est désormais possible de toucher directement les internautes de manière ciblée, sans passer par la case Influenceurs.

Facebook: le court-circuit

Fast Forward 15 ans. La Longue Traîne a pris un coup. Les blogs aussi. La faute à la reportalisation effrénée du web autour de nouveaux carrefours sociaux qui changent la donne : avec Facebook, on peut désormais toucher chaque internaute directement, avec un message publicitaire massif et ciblé (*). Les marques et leurs fans se parlent enfin en direct. Pourquoi alors vouloir maintenir des relations indirectes via des influenceurs? De l’autre côté, YouTube est une usine à (vidéo) stars. Les conversations deviennent rapidement des monologues de Youtubeurs, que des hordes de jeunes fans dégustent comme du petit lait. Heureusement que le Live n’est pas loin. Les interactions et les conversations vont pouvoir reprendre.

YouTube, Instagram, Snapchat : le retour du come-back de l’Influence ? 

A-t-on encore besoin d’être un expert pour être écouté ? Avec l’avènement des nouveaux réseaux “égocentriques” comme YouTube, Snapchat ou Instagram, c’est le “moi” qui domine. Ces réseaux, passés maîtres dans l’art de fabriquer des comètes de célébrité pour démontrer que chez eux “tout est possible”, tolèrent que les marques discutent de promotion de produits et services avec leurs idoles. L’Influence ressemble désormais de plus en plus à de l’endorsement, où les marques rémunèrent des talents à fort bassin d’audience pour (re)présenter leurs produits plus ou moins librement et plus ou moins officiellement.

Ce système a une vertu (discutable) principale : tenter de faire oublier qu’il s’agit de publicité. Le format est “natif” c’est à dire qu’il prend la forme d’un contenu classique, et qu’il se glisse avec naturel dans le flux des contenus consommés. De plus, il échappe ainsi aux fourches caudines des AdBlockers au succès croissant. On travaille donc encore avec une toute nouvelle génération d’Influenceurs, plus visuels, plus “live” et plus pragmatiques quant à leur relation avec les marques. Leur passion n’est plus le territoire sur lequel ils s’expriment, mais leur relation avec leurs fans. Merci public !
En 15 ans, l’influence a muté. Elle prend davantage de formes et recouvre davantage de techniques. Faire de l’Influence aujourd’hui, c’est mixer des enjeux PR, des enjeux Marketing et des enjeux Média. C’est comprendre comment naissent les Influenceurs sur le web en général mais aussi sur les plateformes en particulier. C’est comprendre les différents leviers de l’efficacité des contenus. On n’a pas fini de converser.

(*) aujourd’hui la promesse de ciblage fin de Facebook semble non tenue. Facebook va redevenir un ‘média de masse’.

Le journaliste français reçoit un communiqué de presse... toutes les 8 minutes !



Gootenberg, agence conseil en Relations Publics, publie les résultats d’un sondage portant sur l’intérêt des communiqués de presse reçus par la communauté des journalistes français.

"Sans surprise, le premier constat est que les boites mail des rédactions sont soumises à un incessant bombardement. Avec une moyenne de 60 communiqués par jour, le journaliste français est sollicité toutes les 8 minutes par une info requérant son attention ! Si 42% d’entre eux, les plus chanceux, se contentent d’en recevoir moins de 30 par jour, on note que 10% des journalistes déclarent en recevoir plus de 200."

On pourrait ajouter également le côté insupportable des agences RP qui téléphonent aux journalistes pour s'assurer qu'ils ont bien reçu leurs communiqués par email... Insupportable



Quelle utilité ?

"Pour autant, ce déluge d’information ne leur rend pas de grands services: Pour près de 80% d’entre eux, moins de 10% de ces communiqués leur sont utiles. Et la majorité des journalistes estime ainsi à moins de 5% le volume de l’information utile. Au total, ce sont plus de 93% des communiqués qui ne présentent pas d’intérêt pour leurs destinataires."



Les solutions ?

Existe-t-il un remède à cette fantastique déperdition d’information ? Questionnés sur les alternatives au communiqué de presse, les journalistes ébauchent, sans grande conviction, quelques pistes pour obtenir une information plus qualifiée.



Parmi les moyens envisageables (plusieurs réponses possibles), figurent ainsi :
• Les contacts directs pour 28% des répondants (appels téléphoniques et rencontres en face à face)
• Les réseaux sociaux pour 32% des répondants (message privé ou communiqué posté)
Mais ils sont 40% à espérer en d’autres voies, sans pouvoir les préciser davantage
Et 42% d’entre eux rêvent d’un quotidien où la disparition du communiqué leur laisserait toute latitude pour librement enquêter.

Pour François Ramaget, Président de Gootenberg : « Le flux de communiqués est perçu comme un mal nécessaire par la profession. Et aucun consensus ne se dégage en faveur d’une alternative réelle, avec près de 30% de journalistes qui souhaitent plus de contacts physiques et autant qui penchent pour le virtuel des réseaux sociaux. La solution, tous canaux confondus, ne réside donc pas dans le choix de méthodes d’approche, mais dans la qualité du ciblage. La vraie solution est du côté des agences. »

Espérons que cette étude sera lue par tous les communicants...