Difficile de faire une sélection exhaustive parmi la très riche production d'ouvrages qui traitent désormais du numérique, de ses implications économiques, sociales, éthiques, culturelles qui bouleversent la société. Voici six ouvrages qui ont fait l'année 2014, contribuant à notre meilleure compréhension du monde qui vient.

Smart, enquête sur les internets, de Frédéric Martel (Ed. Stock).

Chercheur, spécialiste des Etats-Unis, Frédéric Martel avait fait sensation en sortant en 2010 "Mainstreal", un ouvrage qui décortiquait de façon magistrale l'industrie de l'entertainment, aux Etats-Unis notamment et montrait toute la pertinence du soft power. Soft power est d'ailleurs le nom de l'émission de Frédéric Martel sur France Culture. Avec "Smart" le chercheur essaie de comprendre ce qu'est la réalité d'internet aujourd'hui. Le "village global" est-il toujours pertinent à l'heure om ma télévision et les smartphone sont connectés en permanence à la Toile ? Comme Erick Orsenna pour ses trois précis de mondialisation, Frédéric Martel a pris son bâton de pèlerin pour parcourir le monde, de la Silicon Valley à l'Afrique du Sud, du Brésil à la bande de Gaza, d'Israël, la start-up nation à la Chine au gigantesque marché. Le constat qui en ressort bât en brèche les idées reçues : certes le réseau des réseaux est mondial, mais non internet n’est pas global car il existe autant d’usages que de territoires. Cette remise en perspective ouvre clairement de nouveaux horizons dans notre façon de penser notre société connectée.

Big, fast & open data, ouvrage collectif de Yannick Lejeune (Ed. Fyp).

Le monde hyperconnecté qui se dessine et s’amplifie sous nos yeux s’appuie sur la collecte, le stockage, le traitement d’une multitude de données, les « data ». Ces Big data, ces immenses bases de données soulèvent bien sûr de grandes questions économiques, politiques, sociales, juridiques, scientifiques. L’ouvrage collectif qui donne la parole à une vingtaine d’experts reconnus dresse le portrait de l’écosystème qui se dessine pour les années à venir. Les big data, analysées de plus en plus rapidement (fast) et de façon ouverte (open) vont avoir un impact en terme d’analyse et de prédiction dans une multitude de domaines, de la sécurité à la santé, des transports aux jeux vidéos, de l’urbanisme à la recherche scientifique. Reste une question cruciale que les auteurs soulèvent : qui va surveiller les données ?

La souveraineté numérique, de Pierre Bellanger (Ed. Stock).


Qui va surveiller les données et surtout à qui appartiennent-elles ? Telles sont les questions que pose Pierre Bellanger dans son livre. Le fondateur et président de Skyrock fut l’un des pionniers de l’internet français en lançant la plateforme de blog Skyrock, un véritable phénomène que l’on peut décrire comme le premier réseau social français. Mais depuis, Facebook, Twitter et consorts sont passés par là et les contenus français sont désormais stockés par des sociétés américaines. Pour Pierre Bellanger, cette situation pose la question de notre souveraineté numérique. Une souveraineté qui s’est effilochée avec de graves conséquences sur nos emplois, sur nos données (qui sont pillées), sur notre vie privée. « La France et l’Europe n’ont aucune maîtrise sur cette révolution », estime le grand patron. Mais il existe des alternatives pour reprendre la main avec notamment les « résogiciels » qui contrôlent en un système unifié les services, les réseaux et les terminaux. Et Bellanger de plaider pour la création d’un plan Réseau en douze priorités. Sera-t-il entendu ? En tout cas parmi les dix priorités affichées par la nouvelle Commission européenne de Jean-Claude Juncker, le numérique figure en 2e position.

Internet : qui possède notre futur ?, de Jaron Lanier (Ed. Manifeste Le Pommier).

Avec cet ouvrage, Jaron Lanier, qui reste toujours l’une des figures de la Silicon Valley, ferait-il volte-face ? En tout cas ce touche-à-tout (compositeur, chercheur en informatique, écrivain) poursuit la critique raisonnée de notre monde numérique. Après s’en être pis à la « sagesse des foules » qui fonde des projets collaboratifs comme Wikipédia  en laqualifiant de « maoïsme numérique » en 2006, Jaron Lanier dénonce les effets pervers du tout-gratuit, l’un des aspects les plus emblématique d’internet.  Reprenant à son compte l’adage « si c’est gratuit, c’est vous le produit », Jaron Lanier dénonce le « rapt » par les grandes entreprise du Net, les GAFA (Google, Amazon, Facebook, Apple), des données des utilisateurs qui sont reconditionnées en Big data et revendues aux annonceurs à prix d’or. Pour le chercheur, cette situation ne signe pas le triomphe du capitalisme mais l’émergence d’un néo-féodalisme. Une solution pour en sortir : monétiser les données. Jaron Lanier estime, comme d’ailleurs beaucoup en Europe, que les internautes qui contribuent devraient être rétribués en retour. Ce qui éviterait la constitution des supermilliardaires du Net face à la majorité de la population.

Une puce dans la tête, de Dorian Neerdael (Ed. Fyp).

Comment interagir avec la machine ? Cette question hante les chercheurs depuis le début de l’informatique et pourrait connaître une spectaculaire accélération dans les prochaines années avec les interfaces cerveau-machines. Dans cet ouvrage, Dorian Neerdael, philosophe et éthicien diplômé de l’université libre de Bruxelles, liste les plus récentes expériences scientifiques et évoque des perspective qui feront peut-être froid dans le dos par leur audace comme celle du futurologue Ray Kurzweil qui pense que les interfaces cerveau-machine ne sont qu’une étape essentielle vers le téléchargement de l’esprit sur la machine, l’humain n’étant alors qu’un cerveau, le corps étant nié.  Un concept poussé plus loinDorian Neerdael pose les questions de plus en plus prégnantes de l’humain augmenté, du transhumanisme… et des effets d’annonces spectaculaires de certains chercheurs qui manque de recul.

Vous êtes déjà en 2025, de Jean-Dominique Séval (Ed. Multimédia)

On connaissait les Chroniques martiennes de Ray Bradburry. Voici les chroniques de nos vies numériques de Jean-Dominique Seval. Le directeur général adjoint de l’Idate (l’institut qui organise chaque année à Montpellier l’excellent Digiworld Summit) s’est amusé non pas à écrire un livre de science fiction mais un ouvrage de prospective réaliste en prolongeant la révolution numérique que nous connaissons aujourd’hui.
Des objets intelligents à l’ère du worktertainment, des droits d’auteurs digitaux au dernier des Minitel, du Replay à la guerre des mondes virtuels… C’est déjà demain !


Les réseaux sociaux font le bilan de l'année d'autant plus facilement qu'ils archivent par essence toutes nods activités au jour le jour. Mais si les bilans de Facebook ou Twitter sont nationaux et/ou thématiques, ils peuvent aussi être régionaux. La société Weber Shandwick a ainsi dressé le bilan de Twitter à en Midi-Pyrénées et plus particulièrement à Toulouse où 2014 est assurément une année en or.

Toulouse la plus active


"Toulouse est la deuxième ville de France la plus suivie sur la plateforme (58000 followers au 20 décembre 2014) après Paris et c’est la ville la plus active en France sur Twitter, selon un classement établi par la société spécialisée eTerritoire. En un an, le compte @Toulouse a doublé son nombre de followers (30500K au 1er janvier 2014)."

"La quatrième ville de France a posté 19800 tweets depuis la création de son compte Twitter (@Toulouse) le 24 juillet 2009, devant Angers (@villeangers: 19.300) et Paris (@Paris, 12.200). La première place obtenue par Toulouse n'est pas surprenante car la Ville rose a été une des pionnières sur Twitter a expliqué le fondateur d'eTerritoire, François Chauvin. Paris a ainsi créé son compte plus tard que Toulouse, en septembre 2009. La ville est très dynamique sur la plateforme et poste beaucoup de Tweets. Sur le seul mois de septembre, Toulouse a posté 500 Tweets, se classant 5ème en France. (pour info Paris 10ème)."

Elus, sportifs, entreprises...



Mais Toulouse est aussi dynamique par tous ceux qui y vivent la font rayonner. L’économiste et président de la Toulouse School of Economics @JeanTirole qui a reçu cette année le prix Nobel d'Economie a rejoint Twitter dans la foulée. Le chef Valentin Néraudeau (@ValentinTopChef), candidat de l'émission Top Chef en 2003, approche des 10000 followers. Le joueur Blaise Matuidi @MATUIDIBlaise, né à Toulouse compte, lui... plus de 762000 abonnés.
Au point de vue institutionnel, Weber Shandwick souligne la bonne participation des élus comme des organisations et sociétés. Le nouveau maire de Toulouse @jlmoudenc est présent sur la plateforme avec plus de 4200 abonnés et son prédécesseur @PCohen avec 2400 followers. Le président de la Région Midi-Pyrénées @martinmalvy en compte plus de 4100.
Deux marques sortent du lot : @Airbus avec plus de 255000 followers et @The_Kooples qui en compte prlus de 21400.

Twitter, l'autre terrain de jeu

Côté sport, le @StadeToulousain est le 2e club du TOP 14 le plus actif sur Twitter derrière le RCToulon. "Le joueur de rugby néo-zélandais et du Stade Toulousain Luke McAlister (@McalisterLuke) a été un précurseur dans le vestiaire du Stade Toulousain", observe Weber Shandwick. Et le @ToulouseFC figure dans les trois clubs de Ligue 1 les plus actifs sur Twitter. Toulouse, seule ville de France à apparaître à la fois dans les tops 3 des clubs de rugby les plus mentionnés et les clubs de foot les plus mentionnés.

Où Tweete-t-on à Toulouse ?
Eric Fisher, un développeur américain, a réalisé une carte interactive  sur le site Mapbox, affichant des millions de Tweets géolocalisés ces trois dernières années. En trois ans et demi, il a ainsi recueilli la géolocalisation d'un peu plus de 6,3 milliards de messages (6.341.973.478 précisément). Ces derniers sont représentés sur la carte par un petit point vert. Plus les points sont concentrés sur un endroit, plus l'activité du réseau y est intense. Si l’on se rapproche un peu, on réalise que les endroits où sont postés le plus de Tweets se situent essentiellement au centre ville, autour de la Place du Capitole, de la Place Wilson et Allées Jean Jaurès et vers la Place Saint Georges.
La gare de Toulouse Matabiau est aussi un lieu où l’on Tweet beaucoup.


Comme l’année passée, la rédaction de La Dépêche du Midi vous invite à parcourir l’année 2014 en photos grâce à une nouvelle édition numérique pour tablettes iPad et Android. Département par département, retrouvez les meilleures photos de nos reporters qui couvrent tout au long de l’année toute l’actualité politique, culturelle, économique, sportive, festive, etc.

Pour cette nouvelle édition, nous avons rigoureusement sélectionné les meilleures photos pour vous faire revivre les moments qui ont rythmé la vie de notre Grand Sud. Nous y avons également ajouté une section sur les reportages à l’étranger réalisés par nos journalistes envoyés spéciaux, notamment au Portugal et au Kurdistan irakien.

Pour lire cette édition sur iPad (mais aussi iPhone ou iPod) et sur des tablettes Android, téléchargez gratuitement notre application La Dépêche du Midi sur l’AppStore ou le Google Play puis rendez-vous dans l’onglet « Hors séries offerts ».

Plus d'informations sur nos offres premium ici : http://premium.ladepeche.fr/

A l'occasion de la livraison à Qatar Airways du premier Airbus A350, la rédaction de La Dépêche propose de revivre l'odyssée du nouvel avion d'Airbus grâce à une nouvelle version de son édition numérique pour tablettes (iPad et Android) "A350, naissance d'un avion"

Outre la cérémonie qui s'est déroulée hier matin à Toulouse-Blagnac, cette édition propose de découvrir les coulisses du premier vol qui s'est déroulé en juin 2013 et toutes les caractéristiques de cet nouvel avion avec des photos, des vidéos et des infographies.

Pour lire cette édition il faut télécharger gratuitement l'application La Dépêche du Midi et aller dans l'onglet "hors séries offerts." Cette édition est gratuite.




Peut-on révolutionner l'ordinateur personnel ? Peut-on inventer un ordinateur dont le design, les fonctionnalités et l'empreinte environnementales seraient différentes de ce qui se fait aujourd'hui ? A ces questions qui ont souvent été posées par l'indutrie informatique, une start-up toulousaine vient d'apporter une réponse originale en inventant le Kubb.


Derrière ce nom se trouve un ordinateur qui tient dans un cube de 12 centimètre de côté. Architecturé autour des processeurs Intel Core de dernière génération, Kubb est compatible avec tous les périphériques hanituels. Très silencieux (moins de 18 dB), il est aussi très économe en énergie avec moins de 25 watts.
Chaque Kubb est unique et disponible dans différentes couleurs, matériaux et finitions. Une version en plaqué or est même disponible.

"Nous avons réussi, ensemble, à démontrer que nous possédons sur notre territoire les ressources nécessaires à inventer et fabriquer un produit de haute technologie, à la fois beau et intelligent. Il est le fruit d’une coopération entre des entrepreneurs, des chercheurs et des ingénieurs issus d’horizons divers. Durant de nombreuses années, cette équipe a mis au service de Kubb toute l’expérience et l’expertise nécessaires à un projet exprimant la passion de tous", explique le fondateur, Jean-Christophe Agobert.

Kubb est disponible à partir de 585 € HT soit 700 € TTC (avec Windows 8.1). Plus d'infos sur www.kubb.eu






Le site du Clic France publie au début de chaque mois le Top des musées et lieux patrimoniaux français sur Facebook et Twitter.
En novembre, sur Facebook, le musée Toulouse-Lautrec d'Albi affiche ainsi 51015 fans, les Abattoirs de Toulouse 15607 fans et le musée Soulages de Rodez, qui fait son entrée dans le classement 7493 fans.
Sur Twitter, le muséum de Toulouse compte 19050 followers, les Abattoirs de Toulouse13785, et le musée Saint-Raymond de Toulouse 3044.

Par Emmanuel Schalit, CEO de Dashlane 


Il y quelques semaines, Philippe Lemoine a rendu au gouvernement un rapport sur la transformation numérique de l’économie française en vue d’inspirer le projet de loi numérique d’Axelle Lemaire. Les enjeux immédiats de la sécurité en ligne des français ne sont pas abordés dans ce rapport. Sur les  9 projets, 53 mesures et 118 recommandations, on trouve une mesure et une proposition sur la création d’un identifiant unique pour les services publics « French Connect », une mesure pour développer la « personnalisation anonyme », une recommandation pour développer de l’ « identification s’appuyant sur l’empreinte physique » et une recommandation pour développer un « Référentiel Numérique de l’identité ».

Au quotidien, la sécurité en ligne repose sur des choses beaucoup plus basiques et beaucoup plus urgentes. Concrètement, nous utilisons de plus en plus de services (email, médias sociaux, achats, services publics) qui stockent nos données personnelles dans le Cloud (sur des serveurs en ligne). Toutes ces données sont maintenues confidentielles grâce une technologie, vieille de milliers d’années, mais toujours présente sur 100% des services : le mot de passe. Pour être sûr que ces données ne pourront pas être piratées par des individus malveillants qui arriveraient à déjouer les protections des sites, il faut un mot de passe fort mais également différent pour chaque site. Un mot de passe fort c’est un mot de passe non signifiant (pas de mot qui soit dans le dictionnaire ou de nom propre) d’au moins 8 caractères comportant des lettres minuscules et majuscules et des chiffres. La raison en est simple : pour un mot de passe composé de 8 chiffres, il y 100 millions de possibilités. Si ce sont des caractères alphanumériques, mêlant chiffres et lettres, il y en a 218 000 milliards. Dans le premier cas, il faut quelques minutes à un ordinateur pour tester l’ensemble des possibilités, dans le deuxième cas, il faudra des années, ce qui suffit dans la pratique à décourager les pirates. Si le mot ou les chiffres sont signifiants, cela prendra encore moins de temps grâce aux techniques d’Ingénierie Sociale, qui testent en premier les mots de passe les plus probables de l’utilisateur (numéro de téléphone, date de naissance etc..). Les mots de passe forts sont d’ailleurs fortement recommandés sur le site securite-informatique.gouv.fr, et l’on pourrait s’attendre à ce que ce soit le cas sur l’ensemble des sites du service public.

Mais le constat est tout autre : il y a de fortes disparités entre les sites des services publics. Dashlane attribue un score de sécurité pour chaque mot de passe stocké par un utilisateur, en fonction de la difficulté qu’aurait un hacker à le pirater (donc si le mot de passe est suffisamment complexe). Nous avons accès à ces données sous forme agrégée car nous nous en servons pour aider nos utilisateurs à améliorer leur sécurité en ligne. Or si le score de sécurité moyen des mots de passe utilisés pour le site des impôts est de 73%, il n’est que de 25% pour le site de l’assurance maladie (ameli.fr) et de 30% pour le site de Pôle emploi (pole-emploi.fr). Sur le site des impôts les internautes sont en effet obligés de rentrer un mot de passe alphanumérique, alors que sur ameli.fr et pole-emploi.fr, les mots de passe ne sont composés que de chiffres.

L’assurance maladie, qui gère via ameli.fr les données médicales de 10 millions de français interdit ainsi l’utilisation de mots de passe forts sur son site. Certes le site se protège en bloquant les comptes après trois tentatives de connexion infructueuse. Mais n’y-a-t-il pas alors un risque de blocage massif de comptes par des hackers qui peuvent facilement reconstituer les numéros de sécurité sociale signifiants des français ? Que dire du processus de réinitialisation du compte, actionnable par un hacker, et qui génère un mot de passe provisoire de 4 chiffres ? Enfin la sécurisation d’un site ne peut pas s’appuyer uniquement sur la prévention des attaques : la sécurisation des mots de passe des utilisateurs est également une nécessité. S’il est vrai que la tâche des services publics n’est pas aisée, car il leur faut à la fois assurer la sécurité des données et proposer une connexion simple d’usage pour tous, peut-on vraiment transiger avec la sécurité des données de santé de millions de français ? La menace existe. En juin 2014, des pirates ont dérobé les données médicales de 4,5 M de patients du Community Health Systems, une organisation qui gère 200 hôpitaux aux Etats Unis. En septembre 2014, c’est healthcare.gov, le site de l’assurance maladie américaine qui a été très sérieusement attaqué.

Assurer la sécurité est une des premières missions de l’Etat. Et assurer la sécurité en ligne des citoyens français passe par des mots de passe forts sur les sites qui hébergent leurs données sensibles. Il est urgent que l’Etat, via les services publics, incite de manière cohérente, les internautes à employer des mots de passe forts.


Le jury des Golden Cloud, organisés par les Rencontres Partner VIP, a récemment décerné le Golden Cloud de l'Initiative Channel au tout premier Label Cloud français, porté par le réseau national des clusters numériques France iT, au sein duquel figure le cluster toulousain Digital Place.
Le Cloud (informatique dans les nuages) prend de plus en plus d'importance pour les entreprises et les particuliers qui peuvent stocker sur des serveurs informatiques à distance des données et y opérer des services.

« France iT est doublement fier de ce Trophée car il récompense la pertinence de la vision des entreprises fondatrices du Label et les 2 années d'investissement qui ont suivi, ainsi  que la légitimité de ce Label, adoubé par nos pairs. C'est une grande fierté et un moteur supplémentaire, s'il en fallait, pour un déploiement à plus grande échelle », a expliqué Jean-Pierre Bayol, vice-président de France iT et directeur général de Digital Place.

L'objectif du Label est simple : générer de la confiance auprès des entreprises clientes pour lever des freins à l'adoption de services Cloud et ainsi développer le business des entreprises labellisées.
L'engouement pour le Label Cloud est déjà avéré sur tout le territoire avec des partenaires de choix à l'instar d'Eurocloud ou du Cigref, Réseau de Grandes Entreprises.
À ce jour, 60 entreprises ont d'ores et déjà présenté un intérêt marqué pour ce Label.

Chaque année, les experts de Kaspersky Lab évaluent le niveau de cyber-menace auquel nous sommes exposés. Force est de constater qu’en 2014, les ordinateurs et appareils mobiles ont été particulièrement ciblés par les attaques, avec notamment le développement des malwares financiers et une modification des vecteurs d’attaques web. Cette année, c’est l’Allemagne qui a été l’hôte du plus grand nombre de sites malveillants, après les Etats-Unis. Les Pays-Bas restent en troisième position.

2014 en chiffres

6,2 milliards d’attaques malveillantes sur des ordinateurs et appareils mobiles ont été bloquées par les produits antivirus Kaspersky Lab, soit un milliard de plus qu’en 2013.
38% des utilisateurs ont été sujets à au moins une cyber-attaque au cours de l’année.
44% des attaques web neutralisées par les produits Kaspersky Lab ont été menées par l’intermédiaire de ressources web malveillantes situées aux Etats-Unis (27,5% du total des attaques) et en Allemagne (16,6%). Les Pays-Bas suivent avec 13,4%.
Des tentatives de vol d’argent sur des comptes en ligne ont été bloquées sur presque 2 000 000 d’ordinateurs de particuliers.
Les produits Kaspersky Lab ont protégé leurs utilisateurs de 3,9 millions d’attaques internet par jour en moyenne.
L’antivirus web Kaspersky Lab a détecté plus de 123 000 000 objets malveillants uniques : 74% d’entre eux ont été trouvés dans des URLs malveillantes.
Un total de 3,7 millions de tentatives d’infection visant des ordinateurs basés sur OS-X a été bloqué par les produits Kaspersky Lab.
En moyenne, un utilisateur de Mac a été confronté à 9 menaces durant l’année.
Les solutions Kaspersky Lab ont bloqué 1,4 million d’attaques contre des appareils sous Android, soit 4 fois plus que l’an dernier.

Menaces mobiles

295 500 nouveaux programmes mobiles malveillants, soit 2,8 fois plus qu’en 2013.
12 100 Trojans bancaires mobiles, soit 9 fois plus que l’an dernier.
53% des attaques ont impliqué des Trojans mobiles ciblant l’argent des utilisateurs (Trojan-SMS et Trojans bancaires).
19% des utilisateurs Android (un sur cinq) a été confronté à une menace mobile au moins une fois dans l’année.
Les attaques de malwares mobiles ont été enregistrées dans plus de 200 pays du monde.

«Les malwares mobiles ont véritablement émergé en 2011, utilisant tout particulièrement la plateforme Android. Ils ont continué de se développer en 2012 pour arriver à maturité en 2013. En 2014, ils ont fait de l’argent des utilisateurs leur cible principale : le nombre de Trojans bancaires mobiles a été neuf fois plus important que pour l’année précédente et le développement dans ce domaine continue à une vitesse alarmante. » explique Roman Unuchek, analyste principal de malwares mobiles chez Kaspersky Lab.

Le rapport complet est disponible sur Securelist.com.

Pour permettre aux investisseurs professionnels de se familiariser avec le financement participatif, un gestionnaire de fonds opérant depuis 2002, et WiSEED, pionnier et leader de l’equity crowdfunding, ont décidé de créer WiFUND, le premier fonds de co-crowdfunding. WiFUND a pour objectif d’investir aux côtés de particuliers dans des entreprises financées via des plateformes d’Equity Crowdfunding.

La gestion du fonds, d’une taille cible de 30 M€, est ouverte aux investisseurs professionnels (banques, assurances, mutuelles, grandes entreprises…) avec un ticket minimum de 500 000€. Sa gestion est orientée vers la recherche de plus-values sur les capitaux investis au moyen de prises de participations dans des entreprises situées principalement dans l'Espace Économique Européen, majoritairement Françaises (Métropole et outre-mer).
Avec plus de 34 000 investisseurs inscrits, WiSEED (dans le cadre d’une mission de Conseiller en Investissements Participatifs) a permis, depuis juillet 2009, le financement pour plus de 12 M€ de plus de 45 sociétés françaises.
La start-up s'est récemment fait connaître en lançant une opération "Rachetons l'aéroport de Toulouse" qui avait mobilisé 8000 internautes prêts à engager 18 millions d'euros pour la privatisation de l'aéroport de Toulouse-Blagnac.

Par Jean-Michel Franco, Directeur Marketing Produit chez Talend 

Vous vous souvenez sûrement du best-seller "Les hommes viennent de Mars, les femmes viennent de Vénus", roman à succès de John Gray paru en 1992 ? Cette métaphore s'applique à merveille à la vie de couple mais est aussi remarquablement bien adaptée quand il s'agit de souligner la relation entre deux modèles économiques qui ont bouleversé l'industrie du logiciel : le cloud et l'open source.

Le cloud change le centre de gravité des applications d'entreprise 
Le cloud a profondément changé la façon dont les applications d'entreprise sont utilisées, pour ne pas dire "consommées" comme le peuvent être des produits de consommation courante dans la vie de tous les jours. Des ressources humaines à la gestion de la relation client en passant par les applications collaboratives, le cloud est devenu le modèle économique principal pour la majorité des nouveaux projets qui voient le jour. Il a permis à de nouvelles sociétés comme Salesforce, Workday, Box et Dropbox de devenir les nouveaux chantres de l'hypercroissance, dans des secteurs aussi variés que le CRM ou les logiciels collaboratifs.

Ces nouvelles solutions bouleversent le marché, car ils déplacent le centre de gravité des applications d'entreprise. Et ce modèle est tellement disruptif que les leaders traditionnels du marché doivent généralement compter sur la croissance externe pour espérer se tailler une part du gâteau, tout en tentant tant bien que mal de transformer leurs solutions traditionnelles dans ce nouveau modèle, sans aucune garantie de succès : on peut citer Microsoft et Skype, Yammer ou Parature, SAP avec Ariba, Concur ou Successfactor ou Oracle avec Eloqua, Taleo, Bluekai et bien d'autres.

Toutefois jusqu'à présent, il y a un marché que le cloud n'est pas parvenu à bouleverser: celui des plateformes de données. Par plateformes de données, nous entendons toutes les solutions qui permettent de se connecter à des volumes massifs et hétérogènes de données, les profiler et les enrichir, avant de les envoyer vers un ensemble varié d'applications. Généralement, cela est réservé aux outils de BI, d'analytique, de gestion ou de gouvernance des données.
Prenons l'exemple de la Business Intelligence et de l'analytique. Pourtant bien établi dans le domaine des solutions traditionnelles, la BI "cloud" est encore une niche malgré la présence d'acteurs possédant les technologies pour faire basculer le marché. Mais aucun acteur ne peut prétendre aujourd'hui avoir le même impact qu'un Salesforce ou un Marketo dans son domaine (et ce, même si Salesforce lui-même cherche sans doute à démontrer le contraire avec la toute récente annonce de sa nouvelle offre en la matière, Salesforce Wave).

L'open source, complément idéal du cloud pour la gestion de données de nouvelle génération
En parallèle, l'open source peut amener une vraie rupture sur ces marchés. Sur celui de la gestion de données, l'open source a mis fin à 25 années d'innovation minimale avec l'arrivée des bases de données NoSQL et de Hadoop. Des sociétés comme Cloudera (qui a levé cette année pas moins de 900 millions de dollars !), HortonWorks (dont l’introduction en bourse est imminente), ou MapR sont devenues des mines d'or pour les investisseurs et leurs clients. Comme ce fut le cas pour le cloud dans le domaine des applications d'entreprise, ces plateformes changent le centre de gravité au cœur de l'entreprise. Pour faire face aux nouveaux enjeux du Big Data, les solutions traditionnelles sont remises en cause et de nouveaux environnements se posent en sérieuses alternatives.

Des environnements ouverts pour pouvoir faire face à l’hétérogénéité et la variété des données, capables de se réinventer au rythme de l'innovation, de s’adapter à des montées en charge fluctuantes, tout en restant abordables en termes de coûts pour correspondre à la longue traîne de la gestion de l'information au sein de l'entreprise. L'open source semble ainsi posséder toutes les cartes pour être le modèle adéquat afin de bâtir ces nouveaux environnements. Et bien sûr, au-dessus de cette couche de gestion de données réinventée, les solutions et outils doivent également être dotés des mêmes atouts.
Nous n'essayons pas ici de sous-estimer l'impact du cloud sur les applications centrées sur les données. Mais une fois de plus, tout est question de positionnement du centre de gravité. Les données devraient rester proches des usages, et donc des applications qui les exploitent.

Si celles-ci sont majoritairement à l’intérieur de l’entreprise, alors il n’est pas nécessairement opportun de les déplacer dans le cloud. A l’inverse, si les applications sont dans le cloud, de même que si les données sont majoritairement des sources externes, alors pourquoi les déplacer et les recopier dans les infrastructures de l’entreprise ? Au vu du glissement progressif des applications vers le cloud, et aussi parce que le big data incite à exploiter de nouvelles sources de données, notamment externes, il y a fort à parier que ce centre de gravité évolue lui aussi dans le cloud. Mais, aujourd’hui, c’est très rarement le cas, et ce glissement doit pouvoir se faire progressivement. Le meilleur moyen pour y parvenir est de s’appuyer sur des plateformes plus ouvertes et flexibles. Amazon Elastic Map Reduce, Google Big Query ou Microsoft Azure HDInsight nous montrent ainsi d'ores et déjà que l'association du cloud et de l'open source donnent des résultats fantastiques en termes de gestions de données dans le cloud.

Cela nous ramène à notre métaphore initiale sur Mars et Venus. Plusieurs années après la publication du livre, une étude de l'Université de Rochester réalisée auprès de 13 301 personnes concluait que les hommes et les femmes n'étaient finalement pas si différents que cela et qu'ils possédaient bien plus de points communs que ne le laissait suggérer l'ouvrage de John Gray. Alors pourquoi n'en serait-il finalement pas de même pour le Cloud et l'Open Source?


Aerohive, spécialiste du Wi-Fi, revient sur l'un des derniers grands piratages

Des histoires de piratage dans les hôtels ont défrayés la chronique récemment, notamment avec l’attaque appelée « Darkhotel ». Les espions ont piratés les réseaux Wi-Fi de ces hôtels pour accéder aux informations qu’ils recherchaient. Comment est-ce possible ?

Il semblerait que les hôtels n’aient pas porté suffisamment d’attention à la sécurité de leur réseau Wi-Fi. Et pourtant, les hôteliers sont désormais conscients que le service de Wi-Fi mis à disposition de leur clientèle prend de plus en plus d’importance. Un hôtel ne proposant pas de Wi-Fi ou qui a des commentaires négatifs sur un site de recommandation verra ses réservations baisser, être annulée et n’arrivera pas à fidéliser sa clientèle. C’est donc un point à ne pas prendre à la légère.

Que s’est-il passé ?
En fait, dans la plupart des réseaux Wi-Fi déployés dans les hôtels, l’accès Wi-Fi se fait sur un réseau dit «ouvert», sans chiffrement, et avec un portail captif permettant d’identifier les clients. Lors de la connexion sur un réseau sans chiffrement, contrairement aux réseaux sécurisés en WPA/WPA2, les communications entre les appareils connectés et les points d’accès ne sont pas chiffrés avant d’être transmis, et l’appareil en question n’a aucune certitude sur l’identité du point d’accès. Ainsi, dans cette situation, n’importe qui à proximité peut venir écouter les correspondances, mais également en modifier leur contenu en se faisant passer pour le point d’accès de l’hôtel. Le pirate se trouve alors entre le réseau de l’hôtel et l’équipement de la cible, sans que ce dernier ne puisse s’en apercevoir, et ce qui permet au pirate d’écouter l’ensemble des communications non chiffrées (web, mail, ...), mais également d’en modifier leur contenu (principe de l’attaque dite de Man-In-The-Middle, ou MITM).

Ainsi les pirates, une fois entrés sur le réseau Wi-Fi de ces hôtels, ont pu mettre en place des faux portails de connexion, ou faire croire aux clients qu’ils avaient besoin de mettre un jour un logiciel populaire présent sur son ordinateur. En fait cette mise à jour va télécharger un virus qui ouvrira la porte de leur ordinateur aux pirates…
Une solution simple pour augmenter la sécurisation de l’accès est de mettre en place une clé WPA/WPA2-PSK, permettant de chiffrer les communications radio. Cependant, dans le cas d’un accès « visiteurs » dans un hôtel, cette clé se doit d’être simple, et sera diffusée largement. Une fois le pirate en possession de la clé PSK, il pourra de nouveau accéder au réseau, et mettre en place une attaque MITM ciblée.

Heureusement, Il existe d’autres technologies que le PSK, même si c’est la plus largement répandue. La technologie PPSK a le grand avantage d’utiliser une clé de chiffrement différente pour chaque client ou chaque appareil connecté. Cette clé peut avoir une durée limitée dans le temps, réduisant ainsi les risques d’attaques sur le long terme, mais peuvent également limité la connexion à un simple accès internet, empêchant les équipements de communiquer entre eux, rendant ainsi impossible ce type d’attaques. Simple et efficace.

Le déploiement d’un réseau Wi-Fi, dans un hôtel ou dans une entreprise, n’est pas aussi simple qu’on pourrait le penser. Il faut être capable de proposer :
-      une qualité optimale du réseau partout et à toute heure (particulièrement quand tous les utilisateurs se connectent à la même heure)
-      de minimiser les interférences (dû au fait qu’il y a plusieurs points d’accès)
-      de pouvoir proposer un accès « premium » pour les clients qui le souhaitent et qui ont payés pour ce service, avec une qualité de service accrue.
-      le tout en garantissant la sécurité que sont en droit d’attendre les clients.



Une étude exclusive OpinionWay / Restlet, « Les français et les objets connectés », démontre que plus de la moitié des Français ne peut pas se passer d’un accès internet plus de quelques heures .

52% des Français estiment pouvoir tenir au mieux quelques heures avant de ressentir le besoin de se connecter à Internet et près d’un quart des moins de 34 ans ressent le besoin de se connecter au moins une fois par heure.
76% des Français sont préoccupés par la sécurité et la confidentialité des données lors de l’utilisation d’objets connectés. Les Français sont majoritairement multi-écrans : 67% d’entre eux utilisent au moins deux appareils pour se connecter à Internet (2,4 en moyenne).
Seul un Français sur 5 est satisfait de la synchronicité des données lorsqu’il fait face à un service client. Pour les 80% restants, les données ne sont pas nécessairement synchrones entre les différents canaux d’interaction à leur disposition. Les Français sont également multi-applications et multi-services, se connectant à Internet principalement pour lire leurs mails personnels (80%), consulter l’actualité (44%) ou la météo (40%)



Peut-on encore parler de start-up lorsque l'on évoque le toulousain Sigfox? La société est jeune mais elle est en passe de devenir l'un des géants mondiaux de l'internet des objets, qui étaient récemment au centre du 36e Digiworld Summit de Montpellier en novembre.

La société fondée par Ludovic Le Moan est aujourd'hui devenue  l'opérateur télécoms mondial de référence pour l'internet des objets et est en passe de lever 100 millions d'euros, selon Le Figaro, pour parfaire un développement international bien entamé et ingénieusement mis en place grâce à des partenariat noués avec des acteurs locaux.

Sigfox est conseillé par Anne Lauvergeon, l'ancienne sherpa de François Mitterrand et ex-PDG d'Areva, qui a rejoint la société en tant que présidente du conseil d'administration.

Un marché colossal : connecte 80 milliards d'objets

Présent en Espagne, en Grande-Bretagne, en Russie et aux Pays-Bas, Sigfox vise le reste de l'Europe, l'Asie et les États-Unis pour déployer son réseau de communication à basse consommation sur lequel peuvent se connecter une multitude d'objets (capteurs, voitures, thermostats, etc.). Sigfox assure le réseau, la collecte et le traitement des informations. Le marché est énorme: 80 milliards d'objets devraient être connectés d'ici 2020.



Le moteur de recherche de Microsoft, Bing, commence à appliquer le « droit à l'oubli » prescrit par l'arrêt de la Cour de Justice de l'Union Européenne (CJUE) : certains internautes qui ont demandé la suppression de résultats de recherche les concernant ont reçu une réponse.

Suite à l'arrêt de la CJUE du 13 mai dernier, Bing avait publié son formulaire de droit à l'oubli mi-juillet. 4 mois après la publication de son formulaire, le moteur de recherche répond aux internautes.
Reputation VIP, grâce à Forget.me son service d'aide au droit à l'oubli, a détecté les premiers refus du moteur de Microsoft.

699 demandes de désindexation sur Bing ont été réalisées via Forget.me depuis le 23 juillet, ce qui représente 2 362 URLs. A ce jour, 79 demandes ont fait l'objet d'une réponse de Bing.
Bing représente 22% des demandes envoyées via Forget.me depuis le 23 juillet, 78% des demandes étant destinées à Google. Il est également intéressant de remarquer qu'en moyenne les utilisateurs soumettent moins d'URLs par demande à Bing qu'a Google : 3,4 sur Bing contre 9,1 sur Google.