Difficile de faire une sélection exhaustive parmi la très riche production d'ouvrages qui traitent désormais du numérique, de ses implications économiques, sociales, éthiques, culturelles qui bouleversent la société. Voici six ouvrages qui ont fait l'année 2014, contribuant à notre meilleure compréhension du monde qui vient.

Smart, enquête sur les internets, de Frédéric Martel (Ed. Stock).

Chercheur, spécialiste des Etats-Unis, Frédéric Martel avait fait sensation en sortant en 2010 "Mainstreal", un ouvrage qui décortiquait de façon magistrale l'industrie de l'entertainment, aux Etats-Unis notamment et montrait toute la pertinence du soft power. Soft power est d'ailleurs le nom de l'émission de Frédéric Martel sur France Culture. Avec "Smart" le chercheur essaie de comprendre ce qu'est la réalité d'internet aujourd'hui. Le "village global" est-il toujours pertinent à l'heure om ma télévision et les smartphone sont connectés en permanence à la Toile ? Comme Erick Orsenna pour ses trois précis de mondialisation, Frédéric Martel a pris son bâton de pèlerin pour parcourir le monde, de la Silicon Valley à l'Afrique du Sud, du Brésil à la bande de Gaza, d'Israël, la start-up nation à la Chine au gigantesque marché. Le constat qui en ressort bât en brèche les idées reçues : certes le réseau des réseaux est mondial, mais non internet n’est pas global car il existe autant d’usages que de territoires. Cette remise en perspective ouvre clairement de nouveaux horizons dans notre façon de penser notre société connectée.

Big, fast & open data, ouvrage collectif de Yannick Lejeune (Ed. Fyp).

Le monde hyperconnecté qui se dessine et s’amplifie sous nos yeux s’appuie sur la collecte, le stockage, le traitement d’une multitude de données, les « data ». Ces Big data, ces immenses bases de données soulèvent bien sûr de grandes questions économiques, politiques, sociales, juridiques, scientifiques. L’ouvrage collectif qui donne la parole à une vingtaine d’experts reconnus dresse le portrait de l’écosystème qui se dessine pour les années à venir. Les big data, analysées de plus en plus rapidement (fast) et de façon ouverte (open) vont avoir un impact en terme d’analyse et de prédiction dans une multitude de domaines, de la sécurité à la santé, des transports aux jeux vidéos, de l’urbanisme à la recherche scientifique. Reste une question cruciale que les auteurs soulèvent : qui va surveiller les données ?

La souveraineté numérique, de Pierre Bellanger (Ed. Stock).


Qui va surveiller les données et surtout à qui appartiennent-elles ? Telles sont les questions que pose Pierre Bellanger dans son livre. Le fondateur et président de Skyrock fut l’un des pionniers de l’internet français en lançant la plateforme de blog Skyrock, un véritable phénomène que l’on peut décrire comme le premier réseau social français. Mais depuis, Facebook, Twitter et consorts sont passés par là et les contenus français sont désormais stockés par des sociétés américaines. Pour Pierre Bellanger, cette situation pose la question de notre souveraineté numérique. Une souveraineté qui s’est effilochée avec de graves conséquences sur nos emplois, sur nos données (qui sont pillées), sur notre vie privée. « La France et l’Europe n’ont aucune maîtrise sur cette révolution », estime le grand patron. Mais il existe des alternatives pour reprendre la main avec notamment les « résogiciels » qui contrôlent en un système unifié les services, les réseaux et les terminaux. Et Bellanger de plaider pour la création d’un plan Réseau en douze priorités. Sera-t-il entendu ? En tout cas parmi les dix priorités affichées par la nouvelle Commission européenne de Jean-Claude Juncker, le numérique figure en 2e position.

Internet : qui possède notre futur ?, de Jaron Lanier (Ed. Manifeste Le Pommier).

Avec cet ouvrage, Jaron Lanier, qui reste toujours l’une des figures de la Silicon Valley, ferait-il volte-face ? En tout cas ce touche-à-tout (compositeur, chercheur en informatique, écrivain) poursuit la critique raisonnée de notre monde numérique. Après s’en être pis à la « sagesse des foules » qui fonde des projets collaboratifs comme Wikipédia  en laqualifiant de « maoïsme numérique » en 2006, Jaron Lanier dénonce les effets pervers du tout-gratuit, l’un des aspects les plus emblématique d’internet.  Reprenant à son compte l’adage « si c’est gratuit, c’est vous le produit », Jaron Lanier dénonce le « rapt » par les grandes entreprise du Net, les GAFA (Google, Amazon, Facebook, Apple), des données des utilisateurs qui sont reconditionnées en Big data et revendues aux annonceurs à prix d’or. Pour le chercheur, cette situation ne signe pas le triomphe du capitalisme mais l’émergence d’un néo-féodalisme. Une solution pour en sortir : monétiser les données. Jaron Lanier estime, comme d’ailleurs beaucoup en Europe, que les internautes qui contribuent devraient être rétribués en retour. Ce qui éviterait la constitution des supermilliardaires du Net face à la majorité de la population.

Une puce dans la tête, de Dorian Neerdael (Ed. Fyp).

Comment interagir avec la machine ? Cette question hante les chercheurs depuis le début de l’informatique et pourrait connaître une spectaculaire accélération dans les prochaines années avec les interfaces cerveau-machines. Dans cet ouvrage, Dorian Neerdael, philosophe et éthicien diplômé de l’université libre de Bruxelles, liste les plus récentes expériences scientifiques et évoque des perspective qui feront peut-être froid dans le dos par leur audace comme celle du futurologue Ray Kurzweil qui pense que les interfaces cerveau-machine ne sont qu’une étape essentielle vers le téléchargement de l’esprit sur la machine, l’humain n’étant alors qu’un cerveau, le corps étant nié.  Un concept poussé plus loinDorian Neerdael pose les questions de plus en plus prégnantes de l’humain augmenté, du transhumanisme… et des effets d’annonces spectaculaires de certains chercheurs qui manque de recul.

Vous êtes déjà en 2025, de Jean-Dominique Séval (Ed. Multimédia)

On connaissait les Chroniques martiennes de Ray Bradburry. Voici les chroniques de nos vies numériques de Jean-Dominique Seval. Le directeur général adjoint de l’Idate (l’institut qui organise chaque année à Montpellier l’excellent Digiworld Summit) s’est amusé non pas à écrire un livre de science fiction mais un ouvrage de prospective réaliste en prolongeant la révolution numérique que nous connaissons aujourd’hui.
Des objets intelligents à l’ère du worktertainment, des droits d’auteurs digitaux au dernier des Minitel, du Replay à la guerre des mondes virtuels… C’est déjà demain !


Les réseaux sociaux font le bilan de l'année d'autant plus facilement qu'ils archivent par essence toutes nods activités au jour le jour. Mais si les bilans de Facebook ou Twitter sont nationaux et/ou thématiques, ils peuvent aussi être régionaux. La société Weber Shandwick a ainsi dressé le bilan de Twitter à en Midi-Pyrénées et plus particulièrement à Toulouse où 2014 est assurément une année en or.

Toulouse la plus active


"Toulouse est la deuxième ville de France la plus suivie sur la plateforme (58000 followers au 20 décembre 2014) après Paris et c’est la ville la plus active en France sur Twitter, selon un classement établi par la société spécialisée eTerritoire. En un an, le compte @Toulouse a doublé son nombre de followers (30500K au 1er janvier 2014)."

"La quatrième ville de France a posté 19800 tweets depuis la création de son compte Twitter (@Toulouse) le 24 juillet 2009, devant Angers (@villeangers: 19.300) et Paris (@Paris, 12.200). La première place obtenue par Toulouse n'est pas surprenante car la Ville rose a été une des pionnières sur Twitter a expliqué le fondateur d'eTerritoire, François Chauvin. Paris a ainsi créé son compte plus tard que Toulouse, en septembre 2009. La ville est très dynamique sur la plateforme et poste beaucoup de Tweets. Sur le seul mois de septembre, Toulouse a posté 500 Tweets, se classant 5ème en France. (pour info Paris 10ème)."

Elus, sportifs, entreprises...



Mais Toulouse est aussi dynamique par tous ceux qui y vivent la font rayonner. L’économiste et président de la Toulouse School of Economics @JeanTirole qui a reçu cette année le prix Nobel d'Economie a rejoint Twitter dans la foulée. Le chef Valentin Néraudeau (@ValentinTopChef), candidat de l'émission Top Chef en 2003, approche des 10000 followers. Le joueur Blaise Matuidi @MATUIDIBlaise, né à Toulouse compte, lui... plus de 762000 abonnés.
Au point de vue institutionnel, Weber Shandwick souligne la bonne participation des élus comme des organisations et sociétés. Le nouveau maire de Toulouse @jlmoudenc est présent sur la plateforme avec plus de 4200 abonnés et son prédécesseur @PCohen avec 2400 followers. Le président de la Région Midi-Pyrénées @martinmalvy en compte plus de 4100.
Deux marques sortent du lot : @Airbus avec plus de 255000 followers et @The_Kooples qui en compte prlus de 21400.

Twitter, l'autre terrain de jeu

Côté sport, le @StadeToulousain est le 2e club du TOP 14 le plus actif sur Twitter derrière le RCToulon. "Le joueur de rugby néo-zélandais et du Stade Toulousain Luke McAlister (@McalisterLuke) a été un précurseur dans le vestiaire du Stade Toulousain", observe Weber Shandwick. Et le @ToulouseFC figure dans les trois clubs de Ligue 1 les plus actifs sur Twitter. Toulouse, seule ville de France à apparaître à la fois dans les tops 3 des clubs de rugby les plus mentionnés et les clubs de foot les plus mentionnés.

Où Tweete-t-on à Toulouse ?
Eric Fisher, un développeur américain, a réalisé une carte interactive  sur le site Mapbox, affichant des millions de Tweets géolocalisés ces trois dernières années. En trois ans et demi, il a ainsi recueilli la géolocalisation d'un peu plus de 6,3 milliards de messages (6.341.973.478 précisément). Ces derniers sont représentés sur la carte par un petit point vert. Plus les points sont concentrés sur un endroit, plus l'activité du réseau y est intense. Si l’on se rapproche un peu, on réalise que les endroits où sont postés le plus de Tweets se situent essentiellement au centre ville, autour de la Place du Capitole, de la Place Wilson et Allées Jean Jaurès et vers la Place Saint Georges.
La gare de Toulouse Matabiau est aussi un lieu où l’on Tweet beaucoup.


Comme l’année passée, la rédaction de La Dépêche du Midi vous invite à parcourir l’année 2014 en photos grâce à une nouvelle édition numérique pour tablettes iPad et Android. Département par département, retrouvez les meilleures photos de nos reporters qui couvrent tout au long de l’année toute l’actualité politique, culturelle, économique, sportive, festive, etc.

Pour cette nouvelle édition, nous avons rigoureusement sélectionné les meilleures photos pour vous faire revivre les moments qui ont rythmé la vie de notre Grand Sud. Nous y avons également ajouté une section sur les reportages à l’étranger réalisés par nos journalistes envoyés spéciaux, notamment au Portugal et au Kurdistan irakien.

Pour lire cette édition sur iPad (mais aussi iPhone ou iPod) et sur des tablettes Android, téléchargez gratuitement notre application La Dépêche du Midi sur l’AppStore ou le Google Play puis rendez-vous dans l’onglet « Hors séries offerts ».

Plus d'informations sur nos offres premium ici : http://premium.ladepeche.fr/

A l'occasion de la livraison à Qatar Airways du premier Airbus A350, la rédaction de La Dépêche propose de revivre l'odyssée du nouvel avion d'Airbus grâce à une nouvelle version de son édition numérique pour tablettes (iPad et Android) "A350, naissance d'un avion"

Outre la cérémonie qui s'est déroulée hier matin à Toulouse-Blagnac, cette édition propose de découvrir les coulisses du premier vol qui s'est déroulé en juin 2013 et toutes les caractéristiques de cet nouvel avion avec des photos, des vidéos et des infographies.

Pour lire cette édition il faut télécharger gratuitement l'application La Dépêche du Midi et aller dans l'onglet "hors séries offerts." Cette édition est gratuite.




Peut-on révolutionner l'ordinateur personnel ? Peut-on inventer un ordinateur dont le design, les fonctionnalités et l'empreinte environnementales seraient différentes de ce qui se fait aujourd'hui ? A ces questions qui ont souvent été posées par l'indutrie informatique, une start-up toulousaine vient d'apporter une réponse originale en inventant le Kubb.


Derrière ce nom se trouve un ordinateur qui tient dans un cube de 12 centimètre de côté. Architecturé autour des processeurs Intel Core de dernière génération, Kubb est compatible avec tous les périphériques hanituels. Très silencieux (moins de 18 dB), il est aussi très économe en énergie avec moins de 25 watts.
Chaque Kubb est unique et disponible dans différentes couleurs, matériaux et finitions. Une version en plaqué or est même disponible.

"Nous avons réussi, ensemble, à démontrer que nous possédons sur notre territoire les ressources nécessaires à inventer et fabriquer un produit de haute technologie, à la fois beau et intelligent. Il est le fruit d’une coopération entre des entrepreneurs, des chercheurs et des ingénieurs issus d’horizons divers. Durant de nombreuses années, cette équipe a mis au service de Kubb toute l’expérience et l’expertise nécessaires à un projet exprimant la passion de tous", explique le fondateur, Jean-Christophe Agobert.

Kubb est disponible à partir de 585 € HT soit 700 € TTC (avec Windows 8.1). Plus d'infos sur www.kubb.eu






Le site du Clic France publie au début de chaque mois le Top des musées et lieux patrimoniaux français sur Facebook et Twitter.
En novembre, sur Facebook, le musée Toulouse-Lautrec d'Albi affiche ainsi 51015 fans, les Abattoirs de Toulouse 15607 fans et le musée Soulages de Rodez, qui fait son entrée dans le classement 7493 fans.
Sur Twitter, le muséum de Toulouse compte 19050 followers, les Abattoirs de Toulouse13785, et le musée Saint-Raymond de Toulouse 3044.

Par Emmanuel Schalit, CEO de Dashlane 


Il y quelques semaines, Philippe Lemoine a rendu au gouvernement un rapport sur la transformation numérique de l’économie française en vue d’inspirer le projet de loi numérique d’Axelle Lemaire. Les enjeux immédiats de la sécurité en ligne des français ne sont pas abordés dans ce rapport. Sur les  9 projets, 53 mesures et 118 recommandations, on trouve une mesure et une proposition sur la création d’un identifiant unique pour les services publics « French Connect », une mesure pour développer la « personnalisation anonyme », une recommandation pour développer de l’ « identification s’appuyant sur l’empreinte physique » et une recommandation pour développer un « Référentiel Numérique de l’identité ».

Au quotidien, la sécurité en ligne repose sur des choses beaucoup plus basiques et beaucoup plus urgentes. Concrètement, nous utilisons de plus en plus de services (email, médias sociaux, achats, services publics) qui stockent nos données personnelles dans le Cloud (sur des serveurs en ligne). Toutes ces données sont maintenues confidentielles grâce une technologie, vieille de milliers d’années, mais toujours présente sur 100% des services : le mot de passe. Pour être sûr que ces données ne pourront pas être piratées par des individus malveillants qui arriveraient à déjouer les protections des sites, il faut un mot de passe fort mais également différent pour chaque site. Un mot de passe fort c’est un mot de passe non signifiant (pas de mot qui soit dans le dictionnaire ou de nom propre) d’au moins 8 caractères comportant des lettres minuscules et majuscules et des chiffres. La raison en est simple : pour un mot de passe composé de 8 chiffres, il y 100 millions de possibilités. Si ce sont des caractères alphanumériques, mêlant chiffres et lettres, il y en a 218 000 milliards. Dans le premier cas, il faut quelques minutes à un ordinateur pour tester l’ensemble des possibilités, dans le deuxième cas, il faudra des années, ce qui suffit dans la pratique à décourager les pirates. Si le mot ou les chiffres sont signifiants, cela prendra encore moins de temps grâce aux techniques d’Ingénierie Sociale, qui testent en premier les mots de passe les plus probables de l’utilisateur (numéro de téléphone, date de naissance etc..). Les mots de passe forts sont d’ailleurs fortement recommandés sur le site securite-informatique.gouv.fr, et l’on pourrait s’attendre à ce que ce soit le cas sur l’ensemble des sites du service public.

Mais le constat est tout autre : il y a de fortes disparités entre les sites des services publics. Dashlane attribue un score de sécurité pour chaque mot de passe stocké par un utilisateur, en fonction de la difficulté qu’aurait un hacker à le pirater (donc si le mot de passe est suffisamment complexe). Nous avons accès à ces données sous forme agrégée car nous nous en servons pour aider nos utilisateurs à améliorer leur sécurité en ligne. Or si le score de sécurité moyen des mots de passe utilisés pour le site des impôts est de 73%, il n’est que de 25% pour le site de l’assurance maladie (ameli.fr) et de 30% pour le site de Pôle emploi (pole-emploi.fr). Sur le site des impôts les internautes sont en effet obligés de rentrer un mot de passe alphanumérique, alors que sur ameli.fr et pole-emploi.fr, les mots de passe ne sont composés que de chiffres.

L’assurance maladie, qui gère via ameli.fr les données médicales de 10 millions de français interdit ainsi l’utilisation de mots de passe forts sur son site. Certes le site se protège en bloquant les comptes après trois tentatives de connexion infructueuse. Mais n’y-a-t-il pas alors un risque de blocage massif de comptes par des hackers qui peuvent facilement reconstituer les numéros de sécurité sociale signifiants des français ? Que dire du processus de réinitialisation du compte, actionnable par un hacker, et qui génère un mot de passe provisoire de 4 chiffres ? Enfin la sécurisation d’un site ne peut pas s’appuyer uniquement sur la prévention des attaques : la sécurisation des mots de passe des utilisateurs est également une nécessité. S’il est vrai que la tâche des services publics n’est pas aisée, car il leur faut à la fois assurer la sécurité des données et proposer une connexion simple d’usage pour tous, peut-on vraiment transiger avec la sécurité des données de santé de millions de français ? La menace existe. En juin 2014, des pirates ont dérobé les données médicales de 4,5 M de patients du Community Health Systems, une organisation qui gère 200 hôpitaux aux Etats Unis. En septembre 2014, c’est healthcare.gov, le site de l’assurance maladie américaine qui a été très sérieusement attaqué.

Assurer la sécurité est une des premières missions de l’Etat. Et assurer la sécurité en ligne des citoyens français passe par des mots de passe forts sur les sites qui hébergent leurs données sensibles. Il est urgent que l’Etat, via les services publics, incite de manière cohérente, les internautes à employer des mots de passe forts.


Le jury des Golden Cloud, organisés par les Rencontres Partner VIP, a récemment décerné le Golden Cloud de l'Initiative Channel au tout premier Label Cloud français, porté par le réseau national des clusters numériques France iT, au sein duquel figure le cluster toulousain Digital Place.
Le Cloud (informatique dans les nuages) prend de plus en plus d'importance pour les entreprises et les particuliers qui peuvent stocker sur des serveurs informatiques à distance des données et y opérer des services.

« France iT est doublement fier de ce Trophée car il récompense la pertinence de la vision des entreprises fondatrices du Label et les 2 années d'investissement qui ont suivi, ainsi  que la légitimité de ce Label, adoubé par nos pairs. C'est une grande fierté et un moteur supplémentaire, s'il en fallait, pour un déploiement à plus grande échelle », a expliqué Jean-Pierre Bayol, vice-président de France iT et directeur général de Digital Place.

L'objectif du Label est simple : générer de la confiance auprès des entreprises clientes pour lever des freins à l'adoption de services Cloud et ainsi développer le business des entreprises labellisées.
L'engouement pour le Label Cloud est déjà avéré sur tout le territoire avec des partenaires de choix à l'instar d'Eurocloud ou du Cigref, Réseau de Grandes Entreprises.
À ce jour, 60 entreprises ont d'ores et déjà présenté un intérêt marqué pour ce Label.

Chaque année, les experts de Kaspersky Lab évaluent le niveau de cyber-menace auquel nous sommes exposés. Force est de constater qu’en 2014, les ordinateurs et appareils mobiles ont été particulièrement ciblés par les attaques, avec notamment le développement des malwares financiers et une modification des vecteurs d’attaques web. Cette année, c’est l’Allemagne qui a été l’hôte du plus grand nombre de sites malveillants, après les Etats-Unis. Les Pays-Bas restent en troisième position.

2014 en chiffres

6,2 milliards d’attaques malveillantes sur des ordinateurs et appareils mobiles ont été bloquées par les produits antivirus Kaspersky Lab, soit un milliard de plus qu’en 2013.
38% des utilisateurs ont été sujets à au moins une cyber-attaque au cours de l’année.
44% des attaques web neutralisées par les produits Kaspersky Lab ont été menées par l’intermédiaire de ressources web malveillantes situées aux Etats-Unis (27,5% du total des attaques) et en Allemagne (16,6%). Les Pays-Bas suivent avec 13,4%.
Des tentatives de vol d’argent sur des comptes en ligne ont été bloquées sur presque 2 000 000 d’ordinateurs de particuliers.
Les produits Kaspersky Lab ont protégé leurs utilisateurs de 3,9 millions d’attaques internet par jour en moyenne.
L’antivirus web Kaspersky Lab a détecté plus de 123 000 000 objets malveillants uniques : 74% d’entre eux ont été trouvés dans des URLs malveillantes.
Un total de 3,7 millions de tentatives d’infection visant des ordinateurs basés sur OS-X a été bloqué par les produits Kaspersky Lab.
En moyenne, un utilisateur de Mac a été confronté à 9 menaces durant l’année.
Les solutions Kaspersky Lab ont bloqué 1,4 million d’attaques contre des appareils sous Android, soit 4 fois plus que l’an dernier.

Menaces mobiles

295 500 nouveaux programmes mobiles malveillants, soit 2,8 fois plus qu’en 2013.
12 100 Trojans bancaires mobiles, soit 9 fois plus que l’an dernier.
53% des attaques ont impliqué des Trojans mobiles ciblant l’argent des utilisateurs (Trojan-SMS et Trojans bancaires).
19% des utilisateurs Android (un sur cinq) a été confronté à une menace mobile au moins une fois dans l’année.
Les attaques de malwares mobiles ont été enregistrées dans plus de 200 pays du monde.

«Les malwares mobiles ont véritablement émergé en 2011, utilisant tout particulièrement la plateforme Android. Ils ont continué de se développer en 2012 pour arriver à maturité en 2013. En 2014, ils ont fait de l’argent des utilisateurs leur cible principale : le nombre de Trojans bancaires mobiles a été neuf fois plus important que pour l’année précédente et le développement dans ce domaine continue à une vitesse alarmante. » explique Roman Unuchek, analyste principal de malwares mobiles chez Kaspersky Lab.

Le rapport complet est disponible sur Securelist.com.

Pour permettre aux investisseurs professionnels de se familiariser avec le financement participatif, un gestionnaire de fonds opérant depuis 2002, et WiSEED, pionnier et leader de l’equity crowdfunding, ont décidé de créer WiFUND, le premier fonds de co-crowdfunding. WiFUND a pour objectif d’investir aux côtés de particuliers dans des entreprises financées via des plateformes d’Equity Crowdfunding.

La gestion du fonds, d’une taille cible de 30 M€, est ouverte aux investisseurs professionnels (banques, assurances, mutuelles, grandes entreprises…) avec un ticket minimum de 500 000€. Sa gestion est orientée vers la recherche de plus-values sur les capitaux investis au moyen de prises de participations dans des entreprises situées principalement dans l'Espace Économique Européen, majoritairement Françaises (Métropole et outre-mer).
Avec plus de 34 000 investisseurs inscrits, WiSEED (dans le cadre d’une mission de Conseiller en Investissements Participatifs) a permis, depuis juillet 2009, le financement pour plus de 12 M€ de plus de 45 sociétés françaises.
La start-up s'est récemment fait connaître en lançant une opération "Rachetons l'aéroport de Toulouse" qui avait mobilisé 8000 internautes prêts à engager 18 millions d'euros pour la privatisation de l'aéroport de Toulouse-Blagnac.

Par Jean-Michel Franco, Directeur Marketing Produit chez Talend 

Vous vous souvenez sûrement du best-seller "Les hommes viennent de Mars, les femmes viennent de Vénus", roman à succès de John Gray paru en 1992 ? Cette métaphore s'applique à merveille à la vie de couple mais est aussi remarquablement bien adaptée quand il s'agit de souligner la relation entre deux modèles économiques qui ont bouleversé l'industrie du logiciel : le cloud et l'open source.

Le cloud change le centre de gravité des applications d'entreprise 
Le cloud a profondément changé la façon dont les applications d'entreprise sont utilisées, pour ne pas dire "consommées" comme le peuvent être des produits de consommation courante dans la vie de tous les jours. Des ressources humaines à la gestion de la relation client en passant par les applications collaboratives, le cloud est devenu le modèle économique principal pour la majorité des nouveaux projets qui voient le jour. Il a permis à de nouvelles sociétés comme Salesforce, Workday, Box et Dropbox de devenir les nouveaux chantres de l'hypercroissance, dans des secteurs aussi variés que le CRM ou les logiciels collaboratifs.

Ces nouvelles solutions bouleversent le marché, car ils déplacent le centre de gravité des applications d'entreprise. Et ce modèle est tellement disruptif que les leaders traditionnels du marché doivent généralement compter sur la croissance externe pour espérer se tailler une part du gâteau, tout en tentant tant bien que mal de transformer leurs solutions traditionnelles dans ce nouveau modèle, sans aucune garantie de succès : on peut citer Microsoft et Skype, Yammer ou Parature, SAP avec Ariba, Concur ou Successfactor ou Oracle avec Eloqua, Taleo, Bluekai et bien d'autres.

Toutefois jusqu'à présent, il y a un marché que le cloud n'est pas parvenu à bouleverser: celui des plateformes de données. Par plateformes de données, nous entendons toutes les solutions qui permettent de se connecter à des volumes massifs et hétérogènes de données, les profiler et les enrichir, avant de les envoyer vers un ensemble varié d'applications. Généralement, cela est réservé aux outils de BI, d'analytique, de gestion ou de gouvernance des données.
Prenons l'exemple de la Business Intelligence et de l'analytique. Pourtant bien établi dans le domaine des solutions traditionnelles, la BI "cloud" est encore une niche malgré la présence d'acteurs possédant les technologies pour faire basculer le marché. Mais aucun acteur ne peut prétendre aujourd'hui avoir le même impact qu'un Salesforce ou un Marketo dans son domaine (et ce, même si Salesforce lui-même cherche sans doute à démontrer le contraire avec la toute récente annonce de sa nouvelle offre en la matière, Salesforce Wave).

L'open source, complément idéal du cloud pour la gestion de données de nouvelle génération
En parallèle, l'open source peut amener une vraie rupture sur ces marchés. Sur celui de la gestion de données, l'open source a mis fin à 25 années d'innovation minimale avec l'arrivée des bases de données NoSQL et de Hadoop. Des sociétés comme Cloudera (qui a levé cette année pas moins de 900 millions de dollars !), HortonWorks (dont l’introduction en bourse est imminente), ou MapR sont devenues des mines d'or pour les investisseurs et leurs clients. Comme ce fut le cas pour le cloud dans le domaine des applications d'entreprise, ces plateformes changent le centre de gravité au cœur de l'entreprise. Pour faire face aux nouveaux enjeux du Big Data, les solutions traditionnelles sont remises en cause et de nouveaux environnements se posent en sérieuses alternatives.

Des environnements ouverts pour pouvoir faire face à l’hétérogénéité et la variété des données, capables de se réinventer au rythme de l'innovation, de s’adapter à des montées en charge fluctuantes, tout en restant abordables en termes de coûts pour correspondre à la longue traîne de la gestion de l'information au sein de l'entreprise. L'open source semble ainsi posséder toutes les cartes pour être le modèle adéquat afin de bâtir ces nouveaux environnements. Et bien sûr, au-dessus de cette couche de gestion de données réinventée, les solutions et outils doivent également être dotés des mêmes atouts.
Nous n'essayons pas ici de sous-estimer l'impact du cloud sur les applications centrées sur les données. Mais une fois de plus, tout est question de positionnement du centre de gravité. Les données devraient rester proches des usages, et donc des applications qui les exploitent.

Si celles-ci sont majoritairement à l’intérieur de l’entreprise, alors il n’est pas nécessairement opportun de les déplacer dans le cloud. A l’inverse, si les applications sont dans le cloud, de même que si les données sont majoritairement des sources externes, alors pourquoi les déplacer et les recopier dans les infrastructures de l’entreprise ? Au vu du glissement progressif des applications vers le cloud, et aussi parce que le big data incite à exploiter de nouvelles sources de données, notamment externes, il y a fort à parier que ce centre de gravité évolue lui aussi dans le cloud. Mais, aujourd’hui, c’est très rarement le cas, et ce glissement doit pouvoir se faire progressivement. Le meilleur moyen pour y parvenir est de s’appuyer sur des plateformes plus ouvertes et flexibles. Amazon Elastic Map Reduce, Google Big Query ou Microsoft Azure HDInsight nous montrent ainsi d'ores et déjà que l'association du cloud et de l'open source donnent des résultats fantastiques en termes de gestions de données dans le cloud.

Cela nous ramène à notre métaphore initiale sur Mars et Venus. Plusieurs années après la publication du livre, une étude de l'Université de Rochester réalisée auprès de 13 301 personnes concluait que les hommes et les femmes n'étaient finalement pas si différents que cela et qu'ils possédaient bien plus de points communs que ne le laissait suggérer l'ouvrage de John Gray. Alors pourquoi n'en serait-il finalement pas de même pour le Cloud et l'Open Source?


Aerohive, spécialiste du Wi-Fi, revient sur l'un des derniers grands piratages

Des histoires de piratage dans les hôtels ont défrayés la chronique récemment, notamment avec l’attaque appelée « Darkhotel ». Les espions ont piratés les réseaux Wi-Fi de ces hôtels pour accéder aux informations qu’ils recherchaient. Comment est-ce possible ?

Il semblerait que les hôtels n’aient pas porté suffisamment d’attention à la sécurité de leur réseau Wi-Fi. Et pourtant, les hôteliers sont désormais conscients que le service de Wi-Fi mis à disposition de leur clientèle prend de plus en plus d’importance. Un hôtel ne proposant pas de Wi-Fi ou qui a des commentaires négatifs sur un site de recommandation verra ses réservations baisser, être annulée et n’arrivera pas à fidéliser sa clientèle. C’est donc un point à ne pas prendre à la légère.

Que s’est-il passé ?
En fait, dans la plupart des réseaux Wi-Fi déployés dans les hôtels, l’accès Wi-Fi se fait sur un réseau dit «ouvert», sans chiffrement, et avec un portail captif permettant d’identifier les clients. Lors de la connexion sur un réseau sans chiffrement, contrairement aux réseaux sécurisés en WPA/WPA2, les communications entre les appareils connectés et les points d’accès ne sont pas chiffrés avant d’être transmis, et l’appareil en question n’a aucune certitude sur l’identité du point d’accès. Ainsi, dans cette situation, n’importe qui à proximité peut venir écouter les correspondances, mais également en modifier leur contenu en se faisant passer pour le point d’accès de l’hôtel. Le pirate se trouve alors entre le réseau de l’hôtel et l’équipement de la cible, sans que ce dernier ne puisse s’en apercevoir, et ce qui permet au pirate d’écouter l’ensemble des communications non chiffrées (web, mail, ...), mais également d’en modifier leur contenu (principe de l’attaque dite de Man-In-The-Middle, ou MITM).

Ainsi les pirates, une fois entrés sur le réseau Wi-Fi de ces hôtels, ont pu mettre en place des faux portails de connexion, ou faire croire aux clients qu’ils avaient besoin de mettre un jour un logiciel populaire présent sur son ordinateur. En fait cette mise à jour va télécharger un virus qui ouvrira la porte de leur ordinateur aux pirates…
Une solution simple pour augmenter la sécurisation de l’accès est de mettre en place une clé WPA/WPA2-PSK, permettant de chiffrer les communications radio. Cependant, dans le cas d’un accès « visiteurs » dans un hôtel, cette clé se doit d’être simple, et sera diffusée largement. Une fois le pirate en possession de la clé PSK, il pourra de nouveau accéder au réseau, et mettre en place une attaque MITM ciblée.

Heureusement, Il existe d’autres technologies que le PSK, même si c’est la plus largement répandue. La technologie PPSK a le grand avantage d’utiliser une clé de chiffrement différente pour chaque client ou chaque appareil connecté. Cette clé peut avoir une durée limitée dans le temps, réduisant ainsi les risques d’attaques sur le long terme, mais peuvent également limité la connexion à un simple accès internet, empêchant les équipements de communiquer entre eux, rendant ainsi impossible ce type d’attaques. Simple et efficace.

Le déploiement d’un réseau Wi-Fi, dans un hôtel ou dans une entreprise, n’est pas aussi simple qu’on pourrait le penser. Il faut être capable de proposer :
-      une qualité optimale du réseau partout et à toute heure (particulièrement quand tous les utilisateurs se connectent à la même heure)
-      de minimiser les interférences (dû au fait qu’il y a plusieurs points d’accès)
-      de pouvoir proposer un accès « premium » pour les clients qui le souhaitent et qui ont payés pour ce service, avec une qualité de service accrue.
-      le tout en garantissant la sécurité que sont en droit d’attendre les clients.



Une étude exclusive OpinionWay / Restlet, « Les français et les objets connectés », démontre que plus de la moitié des Français ne peut pas se passer d’un accès internet plus de quelques heures .

52% des Français estiment pouvoir tenir au mieux quelques heures avant de ressentir le besoin de se connecter à Internet et près d’un quart des moins de 34 ans ressent le besoin de se connecter au moins une fois par heure.
76% des Français sont préoccupés par la sécurité et la confidentialité des données lors de l’utilisation d’objets connectés. Les Français sont majoritairement multi-écrans : 67% d’entre eux utilisent au moins deux appareils pour se connecter à Internet (2,4 en moyenne).
Seul un Français sur 5 est satisfait de la synchronicité des données lorsqu’il fait face à un service client. Pour les 80% restants, les données ne sont pas nécessairement synchrones entre les différents canaux d’interaction à leur disposition. Les Français sont également multi-applications et multi-services, se connectant à Internet principalement pour lire leurs mails personnels (80%), consulter l’actualité (44%) ou la météo (40%)



Peut-on encore parler de start-up lorsque l'on évoque le toulousain Sigfox? La société est jeune mais elle est en passe de devenir l'un des géants mondiaux de l'internet des objets, qui étaient récemment au centre du 36e Digiworld Summit de Montpellier en novembre.

La société fondée par Ludovic Le Moan est aujourd'hui devenue  l'opérateur télécoms mondial de référence pour l'internet des objets et est en passe de lever 100 millions d'euros, selon Le Figaro, pour parfaire un développement international bien entamé et ingénieusement mis en place grâce à des partenariat noués avec des acteurs locaux.

Sigfox est conseillé par Anne Lauvergeon, l'ancienne sherpa de François Mitterrand et ex-PDG d'Areva, qui a rejoint la société en tant que présidente du conseil d'administration.

Un marché colossal : connecte 80 milliards d'objets

Présent en Espagne, en Grande-Bretagne, en Russie et aux Pays-Bas, Sigfox vise le reste de l'Europe, l'Asie et les États-Unis pour déployer son réseau de communication à basse consommation sur lequel peuvent se connecter une multitude d'objets (capteurs, voitures, thermostats, etc.). Sigfox assure le réseau, la collecte et le traitement des informations. Le marché est énorme: 80 milliards d'objets devraient être connectés d'ici 2020.



Le moteur de recherche de Microsoft, Bing, commence à appliquer le « droit à l'oubli » prescrit par l'arrêt de la Cour de Justice de l'Union Européenne (CJUE) : certains internautes qui ont demandé la suppression de résultats de recherche les concernant ont reçu une réponse.

Suite à l'arrêt de la CJUE du 13 mai dernier, Bing avait publié son formulaire de droit à l'oubli mi-juillet. 4 mois après la publication de son formulaire, le moteur de recherche répond aux internautes.
Reputation VIP, grâce à Forget.me son service d'aide au droit à l'oubli, a détecté les premiers refus du moteur de Microsoft.

699 demandes de désindexation sur Bing ont été réalisées via Forget.me depuis le 23 juillet, ce qui représente 2 362 URLs. A ce jour, 79 demandes ont fait l'objet d'une réponse de Bing.
Bing représente 22% des demandes envoyées via Forget.me depuis le 23 juillet, 78% des demandes étant destinées à Google. Il est également intéressant de remarquer qu'en moyenne les utilisateurs soumettent moins d'URLs par demande à Bing qu'a Google : 3,4 sur Bing contre 9,1 sur Google.





Par Emmanuel Mouton, Président de Synox Group, Toulouse - Montpellier

Le concept d'Internet des Objets (IoT) connait depuis quelques temps une attention croissante. Beaucoup d'entreprises se disent d'ailleurs dans l'Internet des Objets. Cependant, la notion reste encore assez floue, bien que de plus en plus de réflexions se réfèrent à ce concept dans ses aspects socio-économiques et environnementaux. Une chose est sûre, l'Internet des Objets ouvre de nouvelles voies de développement.

Considéré comme la nouvelle révolution technologique après Internet, l'IoT est une réalité porteuse de véritables enjeux. L'arrivée du Wifi, de la téléphonie cellulaire,  la miniaturisation, la baisse des coûts des télécommunications fixes et mobiles, l'arrivée de la fibre et des technologies sans fil de nouvelle génération sont autant d'éléments responsables de l'avènement de l'Internet des Objets.

Cependant, si l'IoT ouvre des perspectives d'avancement dans bons nombres de domaines encore trop peu exploitées à ce jour, ils présentent également quelques inquiétudes, notamment à l'égard de la protection des données personnelles. A l'instar de toute nouveauté, les connaissances sont multiples mais les inconnus nombreuses avec leur lot de bonnes surprises et de déceptions.

Etat des lieux de la révolution des objets connectés.

L'Internet des Objets, pour un échange automatisé des données entre les objets

De manière globale, l'IOT est la mise en connexion de tous les objets qui deviennent communicants. On parle par exemple de bâtiments intelligents ou encore de véhicules connectés. Tous ces objets vont remonter une masse d'informations utiles et exploitables.

La question de l'Internet des Objets peut être abordée d'un point de vue technique, en termes d'architecture des réseaux, d'adressage, de routage, etc. Et peut aussi être abordée par les applications et les nouveaux usages qu'elle permet. On parle de fait de révolution technologique et culturelle.

Le Machine to Machine est un des maillons de l'Internet des Objets,  qui contribue à cette révolution, aussi bien dans ses aspects technologiques qu'économiques. En effet, les communications entre machines ouvrent un formidable champ d'innovation : innovation dans les services et les usages, optimisation des processus-métiers, mise en conformité avec des réglementations mouvantes, etc.

Le M2M est aujourd'hui un facteur de compétitivité important pour les entreprises. Parmi les secteurs les plus consommateurs de données, on pourra citer la santé, l'énergie, le transport, l'industrie, la sécurité ou encore l'agriculture.

A titre d'exemple, on retrouve le M2M dans la télésurveillance pour déclencher automatiquement une alarme en cas d'intrusion et générer l'intervention sur site des agents de sécurité. Dans l'industrie,  le M2M permet d'automatiser la gestion de la chaîne d'approvisionnement en temps réel, de faciliter le suivi des colis, ou encore améliorer la traçabilité des objets sensibles. Dans l'automobile, le M2M permet le déploiement de solution de gestion de flotte pour améliorer la prise de décision des gestionnaires de flotte.

Transformer la donnée en une information intelligente grâce au Big Data

Un flot croissant d'informations hétérogènes et souvent non structurées est généré par Internet  via tous les « capteurs » de la vie quotidienne. Le Big Data permet de transformer toutes ces données brutes  en information utilisable et intelligente, et de faire en sorte que ces données soient captées et stockées de façon complètement sécurisée.

Le Big Data peut par exemple convertir en temps réel des millions d'informations issues des réseaux mobiles afin d'analyser de façon anonyme la fréquentation des zones géographiques et les déplacements des populations. Le Big data est une réalité car nous sommes noyés dans une vraie masse de données et d'informations. On peut le voir par exemple dans le nombre exorbitant de mails que nous recevons chaque jour.

Pour autant, le phénomène du Big Data amène les entreprises à se poser de nombreuses questions. Que faire concrètement de ces données ? Comment les gérer ? Comment les stocker ? Les utiliser ? Les traiter ? Et surtout quelle est la valeur pour leurs métiers ?

Une transformation technologique qui amène de nouveaux usages

L'enjeu du Big Data est dans sa monétisation. Les objets connectés délivrent une multitude de données dont les exploitations sont illimitées. Les entreprises doivent alors trouver de nouveaux business model et de nouveaux leviers de croissance pour leur business. En effet, la finalité du Big Data est d'améliorer l'efficacité des prises de décision pour les entreprises. Aussi ont-elles tout intérêt à anticiper ce développement technologique. Il ne faut pas pour autant l'appréhender comme un nouveau projet SI par exemple, mais davantage comme une nouvelle façon de penser et d'appréhender l'information.

Attention aux dérives

Canapé, biscuits, chaussettes connectés...nous trouvons désormais sur le marché de plus en plus d'objets connectés, es plus utiles, et parfois au plus étranges.

Chacun veut désormais lancer LA grande innovation, au détriment parfois du bon sens. A tout vouloir numériser, on l'en oublie parfois la réelle finalité de l'IoT qui réside bel et bien dans la volonté d'apporter un  servir utile et d'améliorer le quotidien des utilisateurs.

Mais le danger ne se situe pas tant dans les gadgets de la vie quotidienne que dans les dérives que pourraient connaître l'emploie d'objets connectés, notamment dans le respect de la vie privée. Nous pouvons imaginer différents cas de figurent dans lesquels des salariés seraient espionnés par leur employeur via des trackers d'activité, entre autres exemples.

A l'apogée de l'IoT, il est alors essentiel que chacun veille à ce que ce type de dérive ne puisse pas se produire et conserve son éthique intacte.

La France se positionne sur le Big Data

La France de façon empirique a souvent été réticente au changement et aux évolutions. L'aspect négatif à cela est que nous avons tendance à prendre le train en marche et donc à être moins compétitif. Pour autant, cela nous permet de prendre plus de temps pour réfléchir aux enjeux sociétaux de cette évolution. Nous avons tendance en effet à être plus sensible à l'impact humain et environnemental des évolutions technologiques que nos confrères européens.

De façon générale, la France est bien positionnée et nous pouvons réellement tirer notre épingle du jeu, notamment par rapport au niveau de service que nous apportons. Le Big Data est d'ailleurs un des projets phares du gouvernement à l'initiative de Fleur Pellerin, Ministre déléguée chargée des Petites et Moyennes Entreprises, de l'Innovation, et de l'Economie numérique.

Le Big Data permet aujourd'hui de pouvoir répondre à de nombreux enjeux environnementaux, économiques et sociétaux. Il s'enclenche également dans le Développement Durable, la démarche écologique devenant un nouveau levier de l'Internet des Objets.
À l’approche des fêtes de Noël, Kaspersky Lab présente les résultats de son étude européenne réalisée par Opinion Way, qui s’intéresse à la perception des internautes sur les mots de passe, et notamment lors de leurs achats en ligne. Cette étude a été réalisée auprès de 1 028 Français et 3 539 Européens au total en novembre 2014.
•         52% des Européens et 35% de Français prévoient de faire leurs achats de Noël sur Internet
•         63% des Européens  trouvent que les mots de passe sur Internet sont un inconvénient
•         53% des Français considèrent les mots de passe de manière négative
•         54% des Français doivent réinitialiser leurs mots de passe au moins une fois par mois

En cette journée du Black Friday et à un mois de Noël, la course aux cadeaux a déjà bien commencé et va continuer à prendre de l’ampleur dans les jours à venir. Les Français, comme tous les Européens à la recherche du cadeau idéal, seront nombreux à dévaliser les magasins mais aussi à choisir l’achat en ligne, de chez soi bien au chaud, depuis le bureau, les transports, etc. Cette étude de Kaspersky Lab met ainsi l’accent sur les achats en ligne en cette période de fêtes mais, plus précisément, se penche sur un aspect incontournable lorsque l’on choisit ce type d’achat, celui des mots de passe.

« Internet occupe aujourd’hui une place centrale dans la vie de tous et d’autant plus en cette période de fêtes. La journée du Black Friday est l’exemple parfait de l’achat en ligne dû aux nombreuses promotions proposées par les marques », constate Tanguy de Coatpont, Directeur Général France de Kaspersky Lab. « En tant qu’acteur dans le secteur de la sécurité informatique, notre réflexion autour de ses achats en ligne s’est axée sur les mots de passe auxquels tous les consommateurs sont sensibles. Contraignants pour certains, gages de sécurité pour d’autres, au travers de cette étude on constate que la complexité des règles de mots de passe, empêche les Européens de les retenir facilement. Notre rôle ici est donc de faciliter leurs usages et de proposer des solutions faciles et adaptées à nos utilisateurs comme on peut le faire avec notre dernier produit, Kaspersky Total Security – Multi Device » conclut-il.




Chacun connaît les QR Code, ces codes carrés composés d'une multitude de points que l'on photographie avec son smartphone pour consulter un site web ou une vidéo. La Dépêche du Midi en publie d'ailleurs dans ses éditions. Imaginons maintenant que l'on fasse la même chose, non plus avec un QR Code, mais avec une photo : tel est projet de reconnaissance d'image autour duquel viennent de se réunir deux start-up toulousaines et un laboratoire de l'université Toulouse II - Jean-Jaurès.

La première start-up, Unitag, s'est fait connaître dernièrement pour ses services mobiles et QR Codes. Elle totalise un million d'utilisateurs dans le monde, avec notamment de belles références comme Séphora, Cacharel, la FNAC, BNP, Spotify. 40% des clients sont à l'étranger.



Telequid de son côté s'est spécialisée dans la reconnaissance d'image avec une plateforme qui permet aux médias et aux régies publicitaires de synchroniser leurs campagnes mobiles avec ce qui se passe à la radio, la TV, le print ou sur l'affichage urbain. Cette plateforme MARS est déployée aujourd'hui dans plus de 3 millions de smartphones et tablettes.

Les deux start-ups toulousaine s'associent avec le Certop (Centre d'Étude et de Recherche Travail, Organisation, Pouvoir), un groupe de recherche du CNRS de l'université Jean-Jaurès, qui regroupe des sociologues et des scientifiques d'autres disciplines des sciences sociale.

Ce consortium veut mettre au point une plateforme permettant aux professionnels du marketing de concevoir en quelques clics des campagnes de communications mobile exploitant toutes les technologies du secteur (reconnaissance de l'image, NFC, iBeacon, etc.) Cette solution unique au monde devrait permettre de développer des opportunités de business en Midi-Pyrénées. C'est la raison pour laquelle la Région Midi-Pyrénées soutient le projet.

Testez la reconnaissance d'image :



1.Téléchargez et ouvrez l’application QR Code Scanner

2. Cliquez sur le bouton "W" pour activer la fonction de reconnaissance d'image

3. Visez l’image suivante, qui pourrait par exemple être située sur une publicité

4. Accédez au contenu !

A l’occasion du Salon des Maires et des Collectivités Locales, qui s'achève à Paris ce jeudi 27 novembre, SFR a souhaité mettre à l’honneur des collectivités particulièrement innovantes en matière de numérique et a ainsi remis les « Trophées SFR 2014 du Développement Numérique des Territoires » à 13 collectivités, dont Toulouse.

Le trophée a été décerné à Jean-Luc Moudenc, maire de Toulouse et président de Toulouse Métropole par Cyril Luneau, directeur de SFR collectivités et par Guillaume Fauré, directeur des Relations Régionales SFR Sud-Ouest. L'opérateur souligne que SFR et Toulouse Métropole ont une ambition numérique commune autour de partenariats et démarches conjointes, menées de longue date : Cantine Toulouse, Concours Opendata « Défi Numérique », démarche de labellisation FrenchTech.

Toulouse Métropole est également une agglomération qui compte pour SFR, puisque l'opérateur y a son siège Sud-Ouest, livre le très haut débit fixe à plus de 130 000 foyers éligibles (qui se poursuit en zone moyennement dense) et poursuit sa couverture THD mobile (1er opérateur à proposer la 4G dès juin 2013).

Par Jean-Michel Franco, Directeur Marketing Produit, Talend

Les big data ont envahi l’espace médiatique depuis quelques années. Si nombre d’articles détaillent les bénéfices qu’elles procurent, tant en termes de connaissance client, d’optimisation de processus ou d’amélioration des capacités de prévision des entreprises, peu s’attardent sur les méthodes qui permettent de les matérialiser. C’est certainement la raison pour laquelle seulement 25% des entreprises déclarent avoir déjà mis en place un marketing personnalisé omnicanal, alors qu’elles sont 80% à souhaiter exploiter davantage les données « temps réel » dans leurs actions marketing.
Pourtant, la technologie est désormais mature. Les pionniers que sont Mint dans le secteur bancaire, Amazon dans la distribution ou NetFlix dans les médias, nous l’ont prouvé : il est aujourd’hui possible de mettre en place une plate-forme centralisée de gestion des données clients, capable d’intégrer et de fournir des informations en temps réel, quel que soit le canal d’interaction utilisé.
Cette plate-forme, communément appelée Customer Data Platform (CDP), permet de reconstituer l’intégralité du parcours client en centralisant et en croisant non seulement des données d’interaction : historique d’achat, préférences, satisfaction, fidélité, etc. (données internes), mais également des informations sociales permettant de comprendre les intentions ou l’appétence : goûts, instants décisifs, habitudes d’achat, parcours web, réseaux sociaux, etc. (données externes). Grâce à la puissance de la nouvelle génération de technologies analytiques – tirant notamment parti d’Hadoop et de son écosystème – et à la baisse drastique de leurs coûts la consolidation de ces énormes volumes de données est aujourd’hui très rapide et offre les moyens de réagir en temps réel à tout événement.
Ainsi, elle aide en amont à améliorer la connaissance client et à bien appréhender les besoins d’un individu. Elle permet en outre de prédire ses intentions et au final, elle offre à l’entreprise toute l’information nécessaire pour influencer le parcours client, en proposant des expériences significatives, au bon moment et via le bon canal.

Pour y parvenir, la Customer Data Platform doit reposer sur quatre piliers principaux. D’une part, des fonctions de gestion de données permettant de récupérer, intégrer et centraliser toute source de données utiles. Ces fonctions incorporent des modules de qualité de données qui garantissent la pertinence et l’actualisation des informations client, ainsi que de Master Data Management (MDM) à travers lesquelles sont fixées les règles d’association entre ces données.
Le second pilier consiste à établir une liste des offres et les conditions d’éligibilité, tenant par exemple compte des spécificités de l’entreprise : clients premiums, cartes de fidélité, etc. Le troisième pilier vise à analyser les données et leurs relations, pour établir une segmentation client. Enfin, le dernier pilier concerne la capacité prédictive et prescriptive de l’entreprise, qui grâce au machine learning, permet de pousser l’offre qui sera la plus probablement acceptée par le client (la recommandation).

Côté méthode, quatre étapes nous semblent essentielles pour parvenir au Graal ultime du marketing one-to-one en temps réel. Avant le projet, il est évidemment capital de définir le business case de votre projet : quels enjeux (augmenter les taux de transformation commerciaux, fidéliser le client en leur proposant le bon service au bon moment, lancer un nouveau produit ou service) ? et quel retour sur investissement ? Les pionniers nous conseillent ainsi de concevoir un storyboard décrivant le parcours client idéal, en s’intéressant aux « moments de vérité » c’est-à-dire aux interactions qui ont le plus de valeur et d’impacts aux yeux du client.

Le respect de la vie privée est évidement un point clé dès que l’on s’intéresse à la personnalisation. On pense bien sûr à la dimension réglementaire, mais cela va bien au-delà, puisque l’enjeu, c’est la relation de confiance et le bénéfice qu’en retire le client. Sans doute ici faut-il s’inspirer de ce qu’a su institutionnaliser le corps médical : il est dans notre intérêt de transmettre à notre médecin toute l’information utile, y compris la plus confidentielle. Mais, nous le faisons que parce que son corps de métier a établi des règles de gouvernance claires et strictes. L’entreprise doit à son tour établir ses règles de gouvernance, voire même son « serment d’Hippocrate ».

Pendant le projet, deux étapes consistent d’une part à importer les données et à les intégrer, afin de bien comprendre ce qu’elles contiennent (« découverte »), et d’autre part à ébaucher les premiers modèles de recommandation (« scoring ») qu’il conviendra de tester et d’affiner en fonction des premiers résultats. Les scores seront actualisés lors de chaque interaction.

Cette capacité à personnaliser la relation en temps réel peut paraitre complexe : les systèmes d’information ont effet jusqu’à présent pris le soin de découpler les fonctions transactionnelles et analytiques, réservant les systèmes analytiques à une petite population d’utilisateurs en les alimentant en information en temps différé. Or, il s’agit désormais d’alimenter les systèmes d’informations transactionnels, site web, applications mobiles, systèmes de point de vente, CRM, etc. avec de l’information analytique, en temps réel, pour faire les bonnes recommandations. Ceci s’effectue donc en général au travers d’une approche progressive. Par exemple en commençant par l’ajout de parcours personnalisés sur une application mobile ou dans les échanges entre le client et le centre d’appel. Ceci a l’avantage d’offrir rapidement de premiers résultats mesurables qui permettront d’élargir peu à peu le périmètre du projet et de s’assurer des retours sur investissements en conditions réelles. La dernière étape permet justement d’intégrer de plus en plus profondément les points de contact – web, centre d’appels, points de vente, etc. – afin d’enrichir le profil client et de pouvoir personnaliser l’ensemble des interactions.

Lorsque l’ensemble des points de contact a été intégré, l’entreprise dispose de toutes les informations nécessaires à la recommandation. C’est le fameux Graal du marketing one-to-one en temps réel, avec quatre bénéfices principaux : visibilité totale sur le parcours client (en d’autres termes l’alignement du marketing et des ventes), satisfaction du client reconnu (pas besoin de s’authentifier) et donc fidélité, mesure des actions marketing et au final, augmentation du chiffre d’affaires grâce à la hausse des taux de conversion. Quand on sait que les entreprises utilisant ce type de technique analytique se distinguent largement des concurrents qui ne l’utilisent pas, on aurait tort de s’en priver…



Par Edgar Baudin, co-fondateur de Makazi

A une époque où les données sont considérées comme la matière première des entreprises du 21ème siècle, leur utilisation à des fins marketing est une question plus que jamais d’actualité. Les marques n’ont jamais possédé autant d’informations sur leurs clients et leurs prospects grâce à la révolution du marketing digital. Ces données proviennent de sources toujours plus variées (objets connectés, smartphones, tablettes…).
Mais l’utilisation de ces données personnelles est, outre la nécessité d’un encadrement législatif et juridique précis, un véritable casse-tête… Surtout pour les entreprises françaises !
En effet, si les dirigeants d’entreprise hexagonaux sont bien conscients du potentiel des dispositifs Big Data pour trouver de nouveaux clients, pour innover ou tout simplement pour valoriser leur entreprise, la France reste à la traîne quant à l’implémentation de technologies et aux investissements liés aux Big Data. Selon une étude de Tata Consultancy Services (TCS) de janvier 2013, l’Inde, les USA, le Mexique et le Royaume-Uni sont loin devant le reste du monde. Suivent l’Allemagne, le Brésil, l’Australie, le Japon et les Pays-Bas. La France n’arrive qu’ensuite. La compréhension du Data Marketing fait partie des pistes qui lui permettront aussi de rattraper ce retard.

La data au cœur de la stratégie marketing pour une communication personnalisée en temps réel
La première interrogation lorsqu’on évoque les données personnelles de clients ou de prospects est celle de leur récolte et de leur consolidation. La donnée est partout, disponible en abondance, sous différents formats. Avec le développement des applications de géolocalisation sur les smartphones, la donnée « position géographique » est devenue typiquement une information qui devient très vite obsolète. Au contraire, des données sociodémographiques comme l’âge, le sexe, la situation familiale, la catégorie socio-professionnelle sont en théorie des données fiables beaucoup plus longtemps. L’intérêt d’un prospect pour une marque est une donnée qui peut subir d’énormes variations, tout comme ses goûts et centres d’intérêt. La prise en compte de ce facteur « temps » est essentiel pour bâtir des bases de données clients cohérentes et correctes, pierre angulaire d’une stratégie marketing de conquête ou de fidélisation réussie.

Pourquoi en faire un élément central de la stratégie marketing de votre entreprise ? Car aujourd’hui si un client est plus connecté, plus mobile, il est aussi et surtout beaucoup plus exigeant. Il attend de vous, marque de premier plan ou outsider aux désirs de conquête de parts de marché, que vous l’approchiez de façon personnalisée, sous peine d’aller voir la concurrence en moins de clics qu’il n’en faut pour le dire.

Il est impossible aujourd’hui pour une marque de  mettre en place une stratégie digitale qui ne soit pas cohérente sur tous ses canaux de communication numériques avec ses audiences cibles. Une cohérence à la fois multi-canal, mais aussi multi-écrans, pour répondre à un besoin des clients d’avoir des informations fiables et pertinentes, sur des produits ou services en adéquation avec ses attentes. Et si possible, avant même qu’il soit entré lui-même dans un processus d’achat. Les marques capables d’effectuer cette bascule avant leurs concurrents possèderont à coup sûr un atout déterminant dans la conquête de parts de marché supplémentaires …

Le Data Marketing, une approche globale et efficace de gestion des données clients

Le data marketing, approche innovante, globale et technologiquement très riche qui permet de croiser des données sociales, publicitaires ou provenant d’outils de tracking, fournit une image beaucoup plus précise d’un consommateur, le tout de façon parfaitement anonymisée. Cette approche permet de s’adresser à lui de façon mesurée, personnalisée, sans lui asséner des mails quotidiens de promotions dont il n’aura que faire. Un gain de temps, mais aussi et surtout d’efficacité et de productivité.
Si l’on pousse le raisonnement un peu plus loin, l’utilisation de solutions de Data Marketing permet d’allier performance à court terme et valorisation de la relation client à long terme. On peut ainsi parler de la création d’un véritable capital client, avec une relation marque/consommateur beaucoup plus forte et respectueuse. Ce capital devient un élément majeur de la valorisation globale de l’entreprise, qui possède là des données bien plus précieuses qu’une simple juxtaposition de bases de données mal nettoyées où les doublons existent par dizaines de milliers. Aux Etats-Unis, les marques l’ont bien compris. Dans une étude Bluekai de juillet 2013 menée auprès de directeurs marketing, 78% ont déclaré voir une amélioration du taux de conversion client et 91% estiment les données comme d’importance capitale pour atteindre leurs objectifs marketing et faciliter la réussite globale de leur entreprise. A quand le même constat chez nous ? Le Livre Blanc du Data Marketing [http://www.makazi.com/white-paper] offre les premiers éléments de réponse.


La start-up Content Square, spécialiste de l’optimisation web et mobile, publie son second baromètre mensuel du e-commerce, destiné à comprendre les usages et tendances de la vente en ligne, par supports, secteurs et pays. L'étude porte plus particulièrement sur le mobile et révèle que les Français achètent 2 fois moins que sur tablette, privilégiant l'achat "coup de cœur".

Quelques chiffres clés :
- Le taux de scroll est 2 fois plus élevé sur mobile
- Moins d’un mobinaute sur 100 achète un produit
- Les mobinautes effectuent leurs achats 2 fois plus vite sur desktop
- Sur mobile, les français achètent 2 fois moins que sur tablette, 4 fois moins que sur desktop et 40 fois moins qu’en boutique.




Cliquez pour voir l'infographie
Selon une nouvelle étude menée par les experts en solution de mémoire et de stockage de Crucial.fr et l’institut EasyPanel, les nouvelles technologies envahissent toutes les sphères de notre quotidien, de la vie familiale ou personnelle à la vie professionnelle. Cette intrusion dans la vie des français se fait parfois au détriment des relations humaines.

Une relation à la technologie qui soucie les français :

  • Près d’un français  sur trois (34,3%) considère que les technologies prennent du temps sur les moments passés en famille
  • 42,9% des sondés pensent qu’à long terme, les français auront des liens plus forts avec les technologies qu’avec leurs pairs
  • 10% des sondés passent plus de temps avec leurs appareils technologiques qu’avec leur conjoint
  • Près de 21% des sondés se plaignent d’un ordinateur trop lent au travail


Les lauréats lors de la remise des prix du Technology Fast 50 à Bordeaux

Eurécia, pure player en mode SaaS (Software as a Service), éditeur de logiciels de gestion RH est le lauréat du Prix révélation 2014 du Palmarès Fast 50 Deloitte, pour la région Sud-Ouest.

Au travers de ce prix, le jury du Technology Fast 50 récompense les excellentes performances d'Eurécia en termes de croissance et de chiffre d'affaires, ainsi que son pari d'une stratégie 100% Cloud. Depuis sa création, en 2006, Eurécia connaît une croissance sans interruption. Son dernier chiffre d'affaires de 1,291 millions d'euros, contre 840 000€ en 2012, lui offre la garantie que le modèle économique choisi, en SaaS, est plus que prometteur.

Le nombre de ses clients dans le monde a également augmenté. Annoncé à 300 en 2013, il est aujourd'hui de plus de 400, avec 40 000 salariés utilisateurs dans 43 pays, soit une progression de 18000 utilisateurs depuis le dernier exercice. Avec de nouvelles références telles que Webedia, Euromaster ou encore Blablacar, Eurécia assoit sa notoriété auprès de PME et ETI, tout secteur confondu.

"Ce prix est la récompense d'un choix stratégique exclusivement tourné vers le SaaS. Nous sommes très fiers de cette reconnaissance, mettant en valeur le travail acharné de toute l'équipe depuis la création d'Eurécia en 2006 et alors même que nous sommes en phase de structuration pour monter en puissance, pour partir à la conquête de l'international", explique Pascal Grémiaux, Président d'Eurécia.

La société toulousaine Myfox, leader des solutions connectées pour la sécurité et le confort de la maison, obtient le plus fort taux de croissance sur la région Sud-Ouest au classement Deloitte Fast 50

La société attribue son taux de croissance de 2523% à la qualité de ses équipes, sa capacité d'interpréter les nouvelles technologies en bénéfices utilisateur, sa flexibilité et sa rapidité d'exécution.

« Nous sommes honorés de ce classement d'autant plus dans cette région du Sud-Ouest, véritable écosystème favorable au numérique et à l'innovation. Cette première place du classement vient conforter notre position de leader de la sécurité connectée et confirmer que Myfox est aujourd'hui la meilleure réponse sur ce marché à très forte croissance», explique le PDG de Myfox, Jean-Marc Prunet.

Le palmarès Deloitte vient valider le parcours de la société toulousaine, qui avait déjà obtenu le 2ème prix l'année précédente à ce même classement régional.




Les sart-up toulousaine Wiseed propose une opération de crowdfunding... pour racheter la participation de l’Etat dans l’aéroport de Toulouse-Blagnac.

Le 17 novembre 2014, l’Etat annonce avoir reçu quatre offres de rachat de ses parts et se donne un mois pour prendre sa décision. Le principal critère de choix sera le prix proposé.

« Ce serait absurde de ne pas envisager que chaque usager, chaque citoyen, chaque midi pyrénéen, chaque Français, chaque collaborateur ou encore chaque prestataire puisse détenir une part du capital de l’aéroport toulousain! N’oublions pas que la première société anonyme créée au monde en 1372 a été toulousaine pour l’exploitation du moulin du Bazacl.» rappelle Thierry Merquiol, président du conseil de surveillance de Wiseed. « L’histoire doit tout à la fois se répéter et se renouveler : l’aéroport de Toulouse doit rester la propriété de chacun ! » renchérit Nicolas Sérès, directeur général de Wiseed.

Wiseed a donc lancé l’opération « Rachetons l’aéroport de Toulouse ! »


Montpellier, accueille à partir de ce soir la 36e édition du Digiworld summit, le grand rendez-vous du numérique et des télécoms. Organisé chaque année par l’Idate (Institut de l’audiovisuel et des télécommunications en Europe), ce colloque réunit, au Corum, des PDG de grands groupes internationaux, des jeunes patrons de start-up, des représentants institutionnels (élus, responsables d’incubateurs, etc.) pour faire le diagnostic du secteur numérique d’aujourd’hui et esquisser les grands enjeux de demain.

Quelle mobilité demain ?

À l’heure où les Français sont de plus en plus nombreux à profiter de la fibre optique et de la 4G pour accéder chez soi ou en mobilité à internet, le Digiworld summit a pris pour thème principal « Mobility reloaded », la mobilité rechargée. C’est-à-dire que le somment va se pencher sur ce qu’implique la mobilité « sur les usages et les chaînes de valeur pour les télécoms, la télévision, la publicité, l’internet, les jeux vidéo, les villes connectées intelligentes (smart cities).»

Yves Gassot, directeur général de l’IDATE détaille les points du programme retenu cette année : « C’est d’abord le succès rapide de la 4G auprès des consommateurs, les étapes spectaculaires attendues du LTE-advanced, et au-delà les perspectives de la 5G et de l’intégration du modèle SDN. Mais c’est aussi les questions liées à la migration accélérée de l’Internet vers l’Internet mobile portée par la généralisation des smartphones et des tablettes comme par les marchés des économies émergentes. Au-delà, beaucoup d’autres acteurs sont concernés, que nous avons choisi d’aborder à travers trois sujets majeurs : la progression des revenus pour les opérateurs mobiles, mais aussi du M2M et de l’Internet of Things ; l’impact de l’Internet massivement mobile sur l’écosystème de la publicité ; le positionnement des acteurs de la TV alors que l’on voit irrésistiblement progresser la vidéo dans le trafic mobile. »

Le DigiWorld summit se déroule aujourd'hui et demain avec quelque 140 intervenants de très haut niveau venant du monde entier. 1300 participants de 30 nationalités différentes sont attendus.
A gauche G. Faure directeur des relations régionales.  A droite Joël Thivet Directeur commercial. 

Depuis le rachat de SFR par Numéricable, beaucoup attendaient les nouvelles offres que concoctait le nouveau groupe pour la fin de l'année. Le suspense a pris fin ce mercredi avec le dévoilement d'une nouvelle box internet et de nouvelles offres.

La Box TV Fibre de SFR reprend les caractéristiques de Labox by Numericable, l'une des box tripleplay les plus évoluée du marché.

Cette nouvelle box avec lelogo de SFR intègre une nouvelle interface, fluide et simplifiée avec des fonctionnalités innovantes comme le Restart, le Picture in Picture, l’enregistrement simultané de deux programmes et un contenu TV unique (+ de 30000 titres de VoD). "Elle répond aux usages des clients les plus exigeants qui veulent profiter d’une expérience TV de qualité et en multi-écrans. Ce nouvel équipement comprend dans un seul boîtier, un disque dur de 500 Go, un décodeur TV HD et un media-center accompagné d’une télécommande double face avec clavier intégré. Le WiFi AC (5GHz) permet de profiter au mieux du débit Internet disponible sur le réseau", explique l'opérateur.

La Box TV Fibre de SFR est disponible la première année à partir de 29,99€/mois, jusqu’à 41,99€/mois en fonction des contenus et services choisis.


Une semaine après la désignation des neuf métropoles numériques labellisées « French Tech », l’une d’entre elles, Montpellier, accueille à parti de ce soir la 36e édition du Digiworld summit, le grand rendez-vous du numérique et des télécoms.Organisé chaque année par l’Idate (Institut de l’audiovisuel et des télécommunications en Europe), ce colloque réunit, au Corum, des PDG de grands groupes internationaux, des jeunes patrons de start-up, des représentants institutionnels (élus, responsables d’incubateurs, etc.) pour faire le diagnostic du secteur numérique d’aujourd’hui et esquisser les grands enjeux de demain.

Quelle mobilité demain ?

À l’heure où les Français sont de plus en plus nombreux à profiter de la fibre optique et de la 4G pour accéder chez soi ou en mobilité à internet, le Digiworld summit a pris pour thème principal « Mobility reloaded », la mobilité rechargée. C’est-à-dire que le somment va se pencher sur ce qu’implique la mobilité « sur les usages et les chaînes de valeur pour les télécoms, la télévision, la publicité, l’internet, les jeux vidéo, les villes connectées intelligentes (smart cities).»
« À quelles innovations peut-on s’attendre à l’occasion de la généralisation de l’internet mobile ? Les Très Haut Débit fixes et mobiles sont-ils interchangeables ? Verra-t-on de nouveaux acteurs et de nouveaux business models apparaître à la faveur du développement de l’internet des objets et de la publicité mobile ? Les terminaux mobiles vont-ils accélérer l’évolution vers la télévision personnelle ? Quelles sont les conditions du rebond de l’Europe ? »

Pour répondre à ces questions le sommet propose conférences plénières et séminaires exécutifs thématiques animés par plus de 140 intervenants venus du monde entier.
Cette année, le Digiworld summit, qui sera conclu par Axelle Lemaire, secrétaire d’État chargée du Numérique, se déroule au cœur de la DigiWorld Week, une semaine qui mettra en perspective toutes les évolutions qui nous attendent dans les mois à venir.