Par Carole Maréchal, Secrétaire Générale & Responsable Juridique Senior & GRC (gouvernance, risques et conformité) de Telehouse France

Selon IDC, 8,6 millions de datacenters auront fleuri dans le monde à l’aube 2017. Usines des temps modernes, les datacenters abritent les données de nombreuses entreprises. Comment les protéger ? La sécurité des données est aujourd’hui un des enjeux majeurs des hébergeurs.

La sécurité des données

Panne, inondation, foudre ou piratage, un datacenter peut être soumis à de nombreux risques qui adressent in fine la même problématique : la protection des données du client. Il faut donc replacer l’usage client au cœur du sujet et s’intéresser à ses besoins. A ce titre, une cartographie des données est un atout majeur côté client pour analyser leur niveau de sensibilité, déterminer les niveaux de redondance et les engagements de services les plus adaptés. Il n’existe pas de solution unique : à chaque type de données son Cloud (public, privé, hybride), à chaque niveau de sensibilité des données (bancaires, industrielles, personnelles, défense nationale), son niveau de sécurité.

La transparence des contrats

Le contrat doit répondre à sa manière à ce besoin de sécurité des données en donnant des engagements contractuels au client et en l’informant régulièrement (obligation d’information y compris pre-contractuelle) de changements qui pourraient impacter la gouvernance ou la compliance du client. A ce titre, les points suivants doivent être abordés dans les contrats :
·      Les niveaux d’engagement de service du fournisseur,
·      La transparence sur la chaine des contrats, l’existence éventuelle de sous-traitants avec possibilité de sortie du contrat par le client en cas de refus de ces changements,
·      La localisation des données et l’obligation d’information préalable du client en cas de changement en cours d’exécution, voire possibilité de résilier le contrat par le client en cas de refus de ce changement,
·      L’intégrité, la confidentialité et la disponibilité des données,
·      La réversibilité et la destruction des données le cas échéant en fin de contrat
·      Une clause d’audit.

A cela s’ajoutent les nouvelles obligations issues de la réforme du droit des obligations entrée en vigueur le 1er octobre 2016 et le Règlement Européen sur la protection des données qui entrera en vigueur en 2018, notamment :
·      L’obligation d’information pré-contractuelle généralisée et insérée dans le code civil,
·      L’obligation à partir de 2018 de déclarer tous les violations de sécurité impactant les données dans les 72 heures (à compter de la connaissance de l’évènement), l’obligation d’introduire la notion de « privacy by design » (prise en compte des enjeux liés à la protection des données dès la conception) et du principe d’ « accountability » (capacité du responsable de traitement à démontrer le respect effectif du cadre légal en matière de protection des données) dans les services Cloud.

Adresser les problématiques de sécurité des données et de transparence dans les contrats, c’est répondre à l’enjeu de la confiance sur le marché du Cloud, enjeu primordial à l’échelle du monde digital.


Une étude menée par Opinionway [lien PDF] pour le compte de Zengularity met en lumière la dualité du rapport que les Français entretiennent avec le numérique. L'évolution sans précédent des technologies ces dernières années a entraîné un changement des modes de consommation de l'informatique et la multiplication des outils numériques associés. Il est possible de parler d'une forme de boulimie tant l'ampleur du phénomène est important. Aujourd'hui, les technologies sont intégrées dans tous les domaines du quotidien et s'en passer peut se révéler inenvisageable voire impossible.

Des Français techno-dépendants





Selon les conclusions de l'étude, 85% estiment que les Français sont dépendants des technologies et cette dépendance a un réel impact tant sur notre vie professionnelle que personnelle. En effet, le sentiment général est que les nouvelles technologies accentuent le rythme et la pression de la vie quotidienne.

L'engouement pour des phénomènes numériques éphémères (Pokémon Go, selfies, foodporn.) interpelle 83% des personnes interrogées, qui ont le sentiment de ne pas comprendre l'attrait pour ces nouvelles pratiques. A cela s'ajoute, pour 68% des sondés, une pression sociale pour acquérir les dernières nouveautés en matière d'appareils connectés. De même, les personnes interrogées font part de leur perte de repères face à la rapide mutation de ces technologies : 84 % ont le sentiment qu'elles évoluent trop rapidement et qu'il devient difficile de les suivre.

Cette dépendance se traduit aussi dans le milieu professionnel, 57% déclarent ne pas réussir à se déconnecter de leur travail en dehors des horaires du bureau. Pire, le plus souvent dans le monde du travail la présence des appareils numériques contribue à créer du stress supplémentaire. Leur efficacité est également remise en cause : pour 84%, le recours à des technologies peut faire perdre plus de temps qu'il n'en fait gagner et 74% des actifs interrogés se sentent angoissées par les sollicitations incessantes des mails ou des notifications.

Ce sentiment de sur-sollicitation rend le « digital detox »très séduisant : 68% des personnes interrogées disent être séduites par cette perspective.

Source d'irritation, omniprésence numérique rime avec dysfonctionnements chroniques

Cette techno-dépendance entraîne donc une utilisation chronique des outils numériques, qui sont désormais omniprésents dans la vie quotidienne. Cette frénésie de consommation numérique évolue de façon exponentielle.Elle s'accompagne invariablement d'une hausse des dysfonctionnements qui deviennent de plus en plus insupportables pour les Français et l'intensité de leur impact est non négligeable :



La première source d'irritation mentionnée par les Français concerne la perte d'un réseau, qu'il s'agisse dutéléphone ou d'Internet : cette situation a déjà été vécue par près de 90% des personnes interrogées
Les sites web peu ergonomiques ou peu adaptés sont mis en cause par 88%
Les sollicitations desapplications, qui cherchent à empiéter sur la vie privée, exaspèrent 84% des interviewés
Loin de simplifier la vie, 83% des logiciels grand public et 70% des logiciels professionnels ont déstabilisé leurs utilisateurs
La perte de ses données, au travail ou de documents personnels, a déjà touché 81% des personnes interrogées.
81% des Français ont déjà dû gérer des dysfonctionnements lors del'utilisation de bornes tactiles,destinées à fournir des services comme la vente de tickets
78% des personnes interrogées ont déjà connu des difficultés lors de l'installationd'un équipement périphérique(imprimante, scanner, photocopieur.),
77% des interviewés ont rencontré des problèmes pour effectuer des démarches administratives en ligne.



Le sentiment général est que les nouvelles technologies accentuent le rythme et la pression de la vie quotidienne. Leur efficacité est ainsi remise encause. De même, les personnes interrogées font part de leur perte de repèresface à la rapide mutation de ces technologies. La conclusion est sans appel : 58% des Français déclarent que les nouvelles technologies ne contribuent pas au bonheur, mais a au contraire rendu certaines tâches plus stressantes.

La dualité française face aux nouvelles technologies

Malgré ses aléas,la perception négative qu'ont les Français du numérique et les animosités dont il fait l'objet, force est de constater que dans l'Hexagone, on ne cède pas à la folie passagère appelée « Computer Rage » Outre-Atlantique. En effet, seul 2% des sondés avouent avoir des excès de rage et des réactions viscérales(énervement/ panique/ violence) face aux difficultés rencontrées. Pour 62%, la contribution des technologies à la vie quotidienne est cependant perçue comme positive dans certains cas. 76% desFrançais estiment qu'elles s'avèrent également efficace pour simplifier certaines tâches courantes, comme pouvoir accéder à des services publics enligne.

Cette approche dela technologie démontre que les Français sont en train de rechercher un nouvel équilibre dans un univers régi par le numérique. Entre addiction et autorégulation, l'évolution se fera sans aucun doute par palier et la consommation du numérique telle que c'est le cas aujourd'hui sera non seulement digérée mais également intégrée dans notre ADN. En revanche, demeure un problème majeur : les dysfonctionnements engendrés par les nouvelles technologies qui risquent de faire de cette (r)évolution culturelle un cercle vicieux alors qu'il pourrait être vertueux.



Axelle Lemaire, secrétaire d’Etat chargée du Numérique et de l’Innovation, Ségolène Neuville, secrétaire d’Etat chargée des Personnes handicapées et de la Lutte contre l’exclusion lancent un appel à projets destiné à soutenir les projets et les technologies innovants en matière d’accessibilité numérique. Cet appel à projets permettra de soutenir les entreprises dans la définition de nouvelles interfaces de contrôle adaptées aux personnes handicapées, de favoriser la production, l’enrichissement ou la conversion automatisée de contenus conformes aux normes en matière d’accessibilité ou encore de développer des technologies telles que la réalité augmentée à des fins d’accessibilité.

Ouvert jusqu’au 10 janvier 2017, l’appel à projets sur l’accessibilité numérique est lancé dans le cadre du Programme d’investissement d’avenir (PIA) et bénéficiera d’une enveloppe de 8 millions d’euros.
Pour plus d’informations : http://www.bpifrance.fr/Actualites/Appels-a-projet-concours/Appel-a-projets-Accessibilite-Numerique-28287 



Par Thomas Fauré, président et fondateur de Whaller

Selon Satya Nadella - patron de Microsoft - “le défi de l'homme est de reprendre le pouvoir sur les données, de leur donner du sens”. La gestion des données numériques, qu'elles soient personnelles ou professionnelles représente en effet l'un des plus grands défis du XXIe siècle et cela est particulièrement crucial sur les réseaux sociaux.

Pourtant, même s'ils sont en perpétuelle évolution grâce à de nouvelles fonctionnalités proposées régulièrement aux utilisateurs, deux inconvénients majeurs persistent. Tout d'abord, le fait que les contacts avec lesquels nous interagissons sont tous mélangés les uns aux autres, sans pouvoir faire de distinction entre les relations, familles, amis ou collègues. Mais il faut également prendre en considération le fait que les données partagées sur un réseau social ne sont pas suffisamment protégées malgré les politiques de confidentialité qui existent. Comment est-il alors possible de se réapproprier nos données en ne les adressant qu'aux personnes préalablement définies par nos soins ? Comment peut-on redevenir acteur de nos réseaux sociaux et non plus un simple “produit” ? La réponse réside dans l'utilisation d'un réseau social privatif.

Séparer les sphères de la vie en ligne. Tout le monde n'a pas nécessairement envie d'envoyer ses photos de vacances à son patron, de partager la vidéo de sa dernière série d'abdominaux à son voisin de pallier, ou d'échanger sur ses problèmes familiaux avec le responsable de la trésorerie de son club de sport. Sur un réseau social, la sphère privée ne devrait pas déborder sur la sphère professionnelle, et vice versa. Pour protéger ses données privées, il s'agit donc de cloisonner les informations que l'on partage en ligne en s'appuyant sur un réseau privatif.

L'exemple le plus parlant demeure celui des photos des enfants : le débat fait rage pour savoir si l'on doit, oui ou non, poster sur les réseaux sociaux les photos de nos progénitures. Une fois n'est pas coutume, c'est à l'utilisateur de choisir, en toute liberté, la portée de ses publications sur le réseau social. Celui-ci souhaite montrer les derniers exploits de ses chers enfants auprès de sa famille proche ? Il suffit tout simplement de créer une sphère uniquement accessible aux personnes que l'on souhaite toucher. Les photos en questions resteront dans ce cercle de façon hermétique et à aucun moment les membres des autres sphères ne sauront même que des photos personnelles ont été publiées. La problématique du risque en ligne, le risque de montrer et d'être vu, disparaîtra.

Adopter une séparation des sphères permet de se réapproprier le réseau social en contrôlant le partage de ses données, auprès de qui et dans quel contexte. Aujourd'hui, ces sphères sont parfois dispersées auprès de différents réseaux sociaux (Twitter pour l'actualité, LinkedIn pour l'aspect professionnel, Facebook pour les photos des vacances…). Il faut repenser ces usages pour les regrouper en un seul et même réseau privatif, pour en faciliter l'utilisation. Passer de sa sphère “loisirs” à sa sphère familiale, doit, par exemple, pouvoir se faire en un seul clic.

Il est ainsi possible de créer un réseau des anciens d'élèves sans que les membres de sa famille ne soient impactés. Une sphère pour échanger avec les membres de son club de sport ? Aucun collègue n'en saura rien. Le réseau social va pouvoir être utilisé pour tous les usages : travail, vie associative, famille, relations amicales, etc. Une diversité d'usages qui ne limitera pas le partage des données mais au contraire permettra de multiplier les informations que l'on souhaite partager, en les adressant à la “sphère” dédiée.

Redevenir propriétaire de ses données. L'adage “si c'est gratuit, c'est vous le produit” n'a jamais été aussi juste qu'en 2016. Les géants du Web proposent de plus en plus de services gratuits en ligne et ce sont les données de leurs utilisateurs qu'ils monnayent. Face à ces nouvelles méthodes, les internautes se défendent, preuve en est l'explosion de logiciels bloqueurs de publicité. 21 millions d'internautes en étaient équipés en 2010, ils seraient désormais 198 millions sur la planète. L'utilisateur est devenu méfiant, celui-ci prend de plus en plus conscience de la valeur et de la portée de ses données personnelles. Autant d'informations qu'il est indispensable de contrôler pour mieux en exploiter tout le potentiel.

Autre point nécessaire au contrôle de sa vie numérique, la suppression définitive des données. Chaque donnée supprimée d'un réseau social devrait être réellement et définitivement éradiquée du Web. Tout le monde se souvient du scandale des photos Facebook “supprimées” et pourtant toujours accessibles trois ans après leur suppression : ces incidents ne devraient plus être d'actualité et ne sont désormais plus tolérés par les internautes.

Désormais, lorsqu'un internaute entend “contrôle” de ses informations personnelles, il entend “restriction” et “absence de liberté”. C'est pourtant tout le contraire : en reprenant le contrôle total de ses données, c'est une réelle liberté qui s'offre à l'internaute. S'ouvre alors une multitude de possibilités et c'est dans ce contexte que toute la puissance du Web prend son sens. Le réseau social revient à son idée originelle, celle de créer du lien en toute confiance, en ligne.



Par Tim Skutt, Architecte systèmes d’informations chez Wind River et Alex deVries, Directeur commercial chez Red Hat


Les attaques par déni de service (DDoS) ont toujours représenté une menace pour les sites très fréquentés, mais celles des dernières semaines sont d’un tout autre genre…
La première attaque à être relayée le fut par krebsonsecurity.com, un des sites d’information les plus complets en matière de sécurité (tenu par Brian Krebs, journaliste d’investigation américain connu notamment pour son travail sur les cybercriminels). L’attaque aurait atteint les 620 Go/s, un volume qui s’est avéré impossible à gérer pour l’hébergeur Akamai. C’est ainsi que le site s’est retrouvé hors ligne pendant plusieurs jours. A l’origine de la cause : des webcams piratées agissant telles des zombies du DDoS.
Le deuxième incident notoire a affecté l’hébergeur français OVH. Ce dernier a survécu à une attaque avec des pointes à 1,5 To/s menée, selon ses informations, par des pirates exploitant 145 000 caméras et enregistreurs vidéo numériques (soit un cas similaire à celui d’Akamai).

Au-delà de leur ampleur, quel est le point commun rendant ces deux attaques si semblables ?  L’Internet des Objets.
L’avènement de l’IoT entraîne une prolifération des objets à la fois abordables et puissants. Mais une flotte de 150 000 périphériques servant de centres de commande et de contrôle représente également un formidable terrain de jeu pour les pirates. En outre, ces appareils sont souvent dispersés sur Internet, et donc difficiles à localiser.
Il est facile de pirater une caméra, par exemple, et d’une manière générale, les équipements ayant une durée de vie relativement longue et dont les firmwares sont rarement mis à niveau.  En outre, ces firmwares peuvent être analysés (rétro-ingénierie) à partir d’un exemplaire acheté, ou en téléchargeant l’une des mises à jour. Aussi, beaucoup d’équipements vont conserver leur identifiant et mot de passe configurés par défaut.

Sécuriser les périphériques

Il est possible de sécuriser ces dispositifs en respectant un certain nombre de bonnes pratiques. Il peut s’agir de gérer les identifiants, de les configurer de façon sécurisée par défaut, ou encore d’effectuer des mises à jour sécurisées et d’assurer la protection des ressources. De telles pratiques sont efficaces avec des périphériques récents.

Mais il faut être réaliste : pendant ce temps, des millions de dispositifs mal sécurisés restent vulnérables sur Internet, et c’est le cas depuis des années sans que l’on puisse y changer grand-chose. Même s’il existait une solution parfaite pour protéger les produits récents, elle ne s’appliquerait pas aux modèles les plus anciens.
Renforcer la sécurité des équipements connectés et intelligents est pourtant primordial pour leurs exploitants, notamment pour protéger leur capital. Mais jusqu’ici, la prévention des attaques DDoS en provenance de sites Web indépendants ne faisait pas partie de leurs objectifs.

Protéger ses ressources

En général, les meilleures stratégies de défense sont celles autour des ressources. Dans les cas d’Akamai (Krebs) et d’OVH, la semaine dernière, il s’agissait de leur site Web attaqué. C’est le moment où l’hébergeur a réagi.
Cependant, la nécessité sécuritaire doit provenir des sociétés exploitant des produits connectés, dont les propres ressources sont menacées. Bien que le risque ne soit pas forcément évident pour eux suite aux attaques de la semaine dernière, la recrudescence des cas de ce genre devrait rapidement changer leur perception.
Comment faire ?  En réalisant que les sites Web ciblés ne sont pas les seules ressources devant être protégées, et que les mesures prises pour préserver et sécuriser les équipements connectés vont positivement impacter les fournisseurs de contenu Internet.

La bande passante est une ressource comme une autre. À lui seul, un périphérique générant un trafic situé entre 1 et 30 Mo/s semble ne pas présenter de risques importants ; en revanche, la charge générée par des centaines de milliers d’entre eux pouvant atteindre 2 To/s supplémentaires, il deviendra alors nécessaire d’agir pour protéger les ressources réseau.
La passerelle IoT sécurisée : la protection adéquate pour les systèmes informatiques
Que faire des appareils qui, anciens ou récents, n’ont pas été conçus en pensant sécurité ? Une solution viable consiste à les protéger à l’aide d’une passerelle IoT sécurisée, y compris au sein d’une machine virtuelle. Le système de défense est ainsi proche du périphérique, et permet à la société qui exploite ce dernier de protéger ses ressources. C’est à ce prix que les entreprises éviteront que d’autres attaques DDoS exploitent leurs équipements connectés.



Le groupe des Socialistes et Démocrates au Parlement européen organisait ce jeudi 20 octobre donc une conférence consacrée à la protection des lanceurs d'alerte à laquelle participait Raphaël Halet, l’un des révélateurs de l’affaire LuxLeaks.

L'eurodéputée du Sud-Ouest Virginie Rozière est intervenue pour souligner qu’il est possible d’établir une protection au niveau européen. La Commission des affaires juridique du Parlement se chargera bientôt de la rédaction d’un rapport d’initiative qui proposera des solutions concrètes pour avancer rapidement vers une proposition législative.

"La conférence d’aujourd’hui nous a montré une fois de plus qu’il existe une véritable attente d’une législation en la matière. Les syndicats, ONG et experts nous ont tous dit leur souhait d’une action rapide de l’Union européenne", a déclaré Virginie Rozière. "Notre rapport devra prévoir une définition large des lanceurs d’alerte afin de couvrir le maximum de situations individuelles possibles. Ce que nous souhaitons c’est une protection efficace et ambitieuse : cela passe par des mécanismes opérationnels de révélation, une protection de l’anonymat, une aide matérielle en cas de procédure judiciaire."


Le concours régional des Inn’Ovations récompense chaque année les projets innovants d’Occitanie/ Pyrénées–Méditerranée dans tous les secteurs d’activité. Organisé par Madeeli, en partenariat avec l’agence régionale Transferts, il est financé par le Conseil Régional, l’Union Européenne et des partenaires privés, Air France, BNP Paribas, EDF. Le concours a pour objectif d’encourager l’innovation, de valoriser les porteurs de projets, de promouvoir des produits, procédés ou services innovants de la région.

Les entreprises de moins de 250 salariés (industrielles ou artisanales, SCOP, etc.), lycées, équipes de recherche, établissements de formation du secondaire ou supérieur ont jusqu’au 30 octobre 2016 pour déposer leur candidature au concours des Inn’Ovations, véritable opportunité pour accélérer leur développement.


Onze prix et 190 000 € de dotation :


Quatre catégories

  1. - Innovation & Développement du Territoire - 15 000 €Innovation développée par une entreprise dont l’action et la croissance bénéficient particulièrement à l’écosystème et à l’économie de notre région (création d’emploi, rayonnement, etc.).
  2. - Innovation & International - 15 000 €Innovation technologique ou non technologique, développée ou adaptée pour l’international, qui permet de s’implanter sur de nouveaux marchés à l’export.
  3. - Innovation, Produits ou Services du futur - 15 000 €Innovation de rupture ou en émergence, développée en collaboration avec la recherche publique ou privée, technologique ou non technologique.
  4. - Innovation, Formation ou Entrepreneuriat étudiant - 15 000 €Projet réalisé dans une entreprise dans le cadre d’un stage ou de tout type de formation jusqu’à bac +5 et/ou projet développé par un étudiant en parallèle de sa formation et ayant donné lieu à une création d’entreprise.


Six prix « Coups de Cœur »

Les Coups de Cœur seront sélectionnés parmi tous les dossiers déposés pour chacun des six grands défis sociétaux auxquels la région est confrontée :

  1. - Transition énergétique et gestion sobre des ressources, adaptation au changement climatique  – 15 000 € 
  2. - Transition numérique – 15 000 € 
  3. Renouveau industriel – 15 000 € 
  4. - Sécurité, mobilité et cadre de vie durable – 15 000 € 
  5. - Vie, santé bien-être, sécurité alimentaire et défi démographique – 15 000 € 
  6. - Education, intégration, lutte contre les inégalités – 15 000 € 
Un Grand Prix, décerné au meilleur projet toutes catégories confondues - 40 000 €

Candidatures à déposer en ligne avant le 30 octobre
http://www.midinnov.fr/fr/le-concours-des-inn-ovations/devenir-laureat/comment-candidater/

La remise des prix aura lieu le 26 janvier 2017, en clôture des rencontres Midinnov.




Par Edouard Beaucourt, Directeur France & Europe du Sud, Tableau


Les universités abritent les plus éminents penseurs et chercheurs dans toutes les disciplines, qu'il s'agisse de la médecine, du droit, des mathématiques ou de l'économie. Pourtant, ces établissements ne sont pas toujours très à l'aise en ce qui concerne les données, ce qui peut leur porter préjudice, car leurs besoins en la matière sont nombreux. Si le marché français des solutio ns analytiques, de Big Data et de gestion des données ainsi que des services associés pesait 1,9 milliard d'euros fin 2015, ce dernier devrait croitre à un rythme annuel de plus de   12% ent re 2016 et 2018*. Un chiffre démontrant bien le rôle important que joue l'analyse de données pour tous types d'administration.

Les établissements de l'enseignement supérieur ont besoin de suivre les tendances au sein de la population universitaire actuelle ainsi que d'évaluer les futurs candidats. Les chercheurs et les services administratifs s'appuient sur des données en temps réel pour la prise de décisions et la planification dans tous les domaines. Les professeurs impliqués dans des programmes de subventions de recherche sont confrontés quant à eux à de nouvelles exigences liées aux données. Toutes ces données sont aussi variées que les formations proposées aux étudiants. Pour couronner le tout, de nombreux facteurs externes, tels que l'augmentation du nombre d'inscriptions ou la concurrence des autres établissements, viennent compliquer les défis à relever en matière de données.

Afin de faire face à cette nouvelle problématique, de nombreuses universités adoptent des solutions d'analyse en libre-service. Voici quatre mesures qu'elles mettent en œuvre pour reprendre en main leurs données.

Démocratisation de l'accès aux données

Comme dans bien d'autres secteurs et structures, les établissements d'enseignement supérieur subissent la lenteur et le manque de cohésion de l'exploitation traditionnelle des données. Seul le service IT a accès à ces données et les distille dans des rapports publiés au compte-gouttes. Les enseignants, le personnel et les administrateurs qui ont besoin de ces données passent le plus clair de leur temps à attendre des rapports qui sont obsolètes avant même d'être exploités.

A l'instar de l'université de De Montfort qui est située à Leicester, au Royaume-Uni, qui dispose d'une solution analytique évolutive pour l'ensemble du complexe, de nombreux établissements cherchent à s'affranchir de ces délais d'attente interminables et des résultats statiques et limités.

Initialement, le département de Planification Stratégique de De Montfort analysait des données variées allant des campagnes marketing aux statistiques d'admission. Mais ce dernier a rapidement constaté que l'attrait pour l'analyse de données allait au-delà du département – touchant les professeurs comme les directeurs – ayant immédiatement décelé les avantages et la facilité d'utilisation des outils de visualisation de données.

Aujourd'hui, les équipes des départements financiers et des ressources humaines utilisent l'analyse de données pour découvrir des tendances et trouver de nouvelles opportunités pour leurs 27 000 étudiants.

Accélération notable des analyses

Les analyses en libre-service reposent sur la démocratisation des données, ce qui permet de trouver plus vite des informations exploitables. Les utilisateurs qui connaissent le mieux leurs données peuvent commencer à les exploiter rapidement, sans connaissances particulières en informatique ou formation approfondie. Nous avons l'habitude d'utiliser notre téléphone, ordinateur portable ou tablette pour trouver des réponses à nos questions d'ordre personnel, et il en va de même en milieu professionnel.

Cependant, cette rapidité comporte de nombreuses facettes

Par exemple, l'université de l'Indiana, grand centre de recherche, tire profit de la rapidité des analyses en libre-service depuis plusieurs années. Le personnel chargé des inscriptions utilise des tableaux de bord pour explorer rapidement, sous tous les angles et au niveau de détail nécessaire, les données dont il dispose sur les étudiants. Des tendances qui étaient identifiées au bout de plusieurs semaines ou mois auparavant sont désormais décelées en quelques heures, voire en quelques minutes.

Les analyses en libre-service présentent un autre bénéfice : la prise en main demande beaucoup moins de temps. Aujourd'hui, avec ces nouveaux outils, l'adoption et la formation nécessitent seulement quelques heures, contre plusieurs mois auparavant. Les départements au sein des universités qui ont besoin de réponses rapides apprécient un déploiement accéléré grâce à une prise en main simplifiée.

Optimisation de la flexibilité et de la sécurité

Le fait que les analyses en libre-service améliorent l'écosystème de données existant au lieu de le remplacer entièrement explique en partie leur adoption rapide. Les outils informatiques sont compatibles avec les données existantes. Si ces données résident dans une base SQL, un système ERP ou dans des feuilles de calcul, nul besoin de changer quoi que ce soit.

Même si les analyses en libre-service peuvent laisser penser que tout est permis, la sécurité des données est plus importante que jamais. Une approche IT solide en matière d'information doit réunir ces trois composantes : précision, disponibilité et contrôle. La précision des données tombe sous le sens, mais cet aspect reste trop souvent ignoré. Si les données ne sont pas fiables, elles produiront des résultats qui manqueront eux aussi de fiabilité, quelle que soit la manière dont elles sont analysées.

La disponibilité des données est une question complexe. Avec les analyses en libre-service, les données doivent être disponibles pour tous les utilisateurs qui en ont besoin, sans pour autant être rendues publiques. Pour les universités en particulier, la sécurité et la confidentialité des données sont primordiales. L'IT, entre autres attributions, doit déterminer le niveau d'accès approprié pour chaque département, chaque fonction et chaque utilisateur. En effet, savoir qui a accédé à quelles informations est très important pour le suivi.

À l'université Carnegie-Mellon, le service financier utilise les analyses en libre-service pour moderniser ses procédures d'analyse, tout en garantissant la confidentialité des données. Les administrateurs de l'établissement peuvent ainsi consulter des données financières à jour, où qu'ils soient et sur tout type de terminal. Ce projet a également permis de tester ces différentes méthodes avant de les déployer dans toute l'université.

Communication simplifiée grâce à la visualisation des données

À la manière d'un enseignant qui utilise des supports visuels pour aider les étudiants à mieux appréhender des concepts difficiles, les logiciels en libre-service créent des visualisations qui facilitent la compréhension des données. Ces visualisations sont le fruit de recherches menées par des experts très qualifiés sur la capacité du système visuel humain à traiter l'information et s'appuient sur nos forces et faiblesses naturelles.

L'université du Lancashire central (UCLan) – l'une des plus grandes universités au Royaume-Uni qui regroupent 37 000 étudiants et membres du personnel – continue à s'étendre tant à l'intérieur du pays qu'à l'étranger. Pour gérer soigneusement cette croissance, l'université utilise l'analyse en libre-service pour s'assurer que les indicateurs clés de performance sont respectés à travers les départements et qu'il est possible d'en extraire un aperçu exploitable.

Un des principaux résultats de cette approche est une compréhension plus unifiée des défis et des opportunités. L'équipe s'occupant des stratégies d'entreprise est ainsi capable de développer et de partager des tableaux de bord visuels informant les différents départements des taux de rétention des étudiants ou des départs anticipés. En partant d'un ensemble de données commun, les départements peuvent découvrir des tendances comme la saisonnalité des départs d'étudiants et les soutenir directement de la meilleure manière possible et au meilleur moment.

Une expérience enrichissante également sur le plan éducatif

Les universités sont souvent critiquées quand elles cherchent à adapter une stratégie du secteur privé pour soutenir leur mission éducative. Cependant, les analyses en libre-service sont un bon exemple des enseignements que peut leur apporter le secteur privé. Les outils conçus à l'origine pour améliorer la satisfaction client et maximiser la croissance permettent aux universités d'atteindre ces mêmes objectifs, ou certains plus ambitieux encore, comme l'amélioration des taux de réussite et du niveau d'éducation de la société.


Rodez est ce lundi comme la capitale de l'Open Data des collectivités. Axelle Lemaire, secrétaire d’Etat chargée du Numérique et de l’Innovation et Estelle Grelier, secrétaire d’État chargée des Collectivités territoriales sont ce matin dans la préfecture de l'Aveyron pour la remise du rapport sur la généralisation de l’ouverture des données publiques dans les collectivités locales, prévue à l’horizon 2018 par la loi pour une République numérique, récemment adoptée.

Ce rapport a été commandé par les deux ministres à l’association Open Data France en juillet 2016, notamment en lien avec la loi pour une République numérique qui prévoit, pour les collectivités locales de plus de 3 500 habitants, une obligation d’open data par défaut.

Ce déplacement sera aussi l’occasion de mettre en lumière les initiatives innovantes d’usage des données publiques lancées à Rodez et dans la région.

Open Data France, créée à Toulouse en 2013 et présidée par le Toulousain Bertrand Serp, regroupre déjà de nombreuses collectivtés qui se sont engagées dans l'ouverture de leurs donnéés.

Les collectivités membres d'Open Data France



Le premier débat de la primaire de droite, diffusé hier en direct sur TF1, a enflammé le web. Si elle a réuni 5,638 millions de téléspectateurs soit 26,3% de part d'audience selon Médiamétrie, le débat a aussi fortement intéressé le web.

Google Trends, l'outil d'analyse de tendance de Google, habitués aux buzz internationaux a publié plusieurs statistiques et cartes dans la soirée.



Le débat en pole position sur les réseaux sociaux

Pour l'institut BVA qui a lancé avec la presse quotidienne régionale le dispositif POP2017, les échanges entre Bruno Le Maire, Alain Juppé, Nathalie Kociusko-Morizet, Nicolas Sarkozy, Jean-François Copé, Jean-Frédéric Poisson et François Fillon, ont su capter l'attention des électeurs.

"Le débat de la primaire de la droite et du centre provoque un réel déferlement de commentaires sur le web. Avec plus de 144 000 citations au cours des dernières 24 heures, ce premier débat qui a réuni 5,6 millions de téléspectateurs est de loin le sujet qui a le plus fait réagir les internautes depuis la création de POP2017", explique Océane Cattez, chef de projet digital chez BVA Opinion. "Logiquement, les 7 candidats de cette primaire sont en première ligne sur les réseaux sociaux. Ainsi, Nicolas Sarkozy est la personnalité qui a le plus fait parler d’elle (66 000 citations) et Jean-François Copé celui qui affiche la plus forte progression. Par ailleurs, celui qui suscite le plus d’opinions positives est Alain-Juppé (31%), alors que le maire de Meaux recueille le plus de commentaires négatifs à son égard (38%)."

"Au-delà des prestations des candidats, sur notre communauté en ligne, certains critiquent le format du débat", explique Océane Cattez. " Ce n'est pas à un débat que nous avons assisté.  Les journalistes posent des questions sélectionnées par eux-mêmes, devant un public muet. Pour moi, un débat impose de débattre entre les hommes politiques et les électeurs", explique Jean, un retraité du Nord.

Le plus bavard n'est pas le plus convaincant

Selon Statista qui analyse les tendances du web sur plus de 18000 sources, le plus bavard des candidats n'est pas forcément celui qui est le plus convaincant. "Bien que les organisateurs du débat se soient attachés à l’équité du temps de parole, certains candidats se sont révélés plus bavards que d’autres. Avec une prise de parole totale de 16 minutes 40, Nicolas Sarkozy arrive en tête, dépassant de plus d’une minute Alain Juppé, son plus sérieux adversaire. Toutefois, l’ancien chef de l’État n’a convaincu que 15 % des téléspectateurs, tandis qu’Alain Juppé remporte l’adhésion de 27 % d’entre eux, confirmant son avance. Par ailleurs, Jean-François Copé, deuxième en temps de parole avec 15 minutes 31 cumulées, fait le moins bon score auprès des téléspectateurs (3 %). Preuve supplémentaire qu’il ne suffit pas d’être bavard pour être convaincant", analyse Pascaline Boittiaux, data journaliste chez Statista

Infographie: Le plus bavard n'est pas le plus convaincant | Statista
Vous trouverez plus de statistiques sur Statista



Par Stefan Waldhauser, directeur Sénior Industrie Marketing d'Alfresco 


Quand j'ai débuté dans le métier, je voyais les entreprises industrielles classiques comme de véritables « dinosaures », qui appartenaient à la « vieille économie ». Pour moi, il s'agissait de lents mastodontes menacés d'extinction imminente, rendus obsolètes par l'émergence de sociétés de haute technologie comme Nokia, Intel ou Microsoft. Dans mon esprit, ces industriels classiques offraient un contraste saisissant avec la « nouvelle économie » dans laquelle je travaillais. Du côté du high tech et des logiciels, tout était cool, l'innovation et le progrès infusaient toute chose. Du côté de l'industrie, c'était l'ennui, le cambouis, l'obsolescence. Mais cette distinction trompeuse entre le high tech et l'industrie s'estompe de plus en plus sous l'effet du passage progressif de l'industrie elle-même vers les hautes technologies numériques.

Nous constatons tous de nos propres yeux, dans de nombreux produits manufacturés, les signes extérieurs de cette transformation numérique. Aujourd'hui, tout se connecte au sein de ce qu'il est convenu d'appeler l'Internet des objets (IOT). La voiture est un exemple évident de cette transition accélérée vers le numérique et le tout-innovation. Quand on écoute de la musique en streaming via Bluetooth dans sa voiture, ou bien quand on utilise son GPS pour trouver sa route, ce sont autant d'indices manifestes du fait que la voiture est devenue un système mobile informatisé. Tesla est en train de révolutionner la voiture électrique et l'industrie automobile grâce à l'utilisation de petites batteries lithium-ion cylindriques. Google travaille sur la voiture autonome. Et Bloomberg a récemment porté à notre attention l'investissement réalisé par Larry Page, le fondateur de Google, au sein de deux start-ups dont l'objectif est de développer des voitures volantes.

Ces mutations technologiques sont spectaculaires, mais elles ne sont que les symptômes les plus visibles d'une transformation numérique plus profonde qui touche l'industrie elle-même en plein cœur.

Aujourd'hui, les puces électroniques, capteurs et autres logiciels qui équipent toutes sortes de produits manufacturés nous enseignent que la plupart des objets de notre quotidien contiennent désormais des systèmes informatiques. On peut les connecter à Internet, les actionner ou les diagnostiquer à distance.

Ce qui se cache derrière ce constat est un profond changement dans le processus de fabrication industrielle lui-même. Le passage de l'industrie au numérique ne prétend pas marcher autant à l'imagination que l'idée d'une voiture autonome, mais il n'en fait pas moins des entreprises industrielles traditionnelles l'équivalent des sociétés de high tech agiles qui dominent aujourd'hui le marché. Toute l'industrie n'a pas encore atteint ce stade, bien sûr. Mais la majorité des industriels tentent aujourd'hui de revoir leurs circuits d'innovation et le processus de fabrication de leurs produits, leur logistique et leur service clients. IDC estime que les industriels vont investir plus de 2 100 milliards de dollars pour réaliser leur transformation numérique d'ici 2019. Ils ont déjà dépensé 224 milliards de dollars sur des technologies allant dans ce sens. Comme le relève justement IDC, les facteurs qui poussent vers le tout-numérique sont l'orientation client, la volonté d'améliorer la qualité des produits, le besoin urgent d'innovation produit et la nécessité de pouvoir répondre le plus vite possible aux opportunités commerciales qui se présentent.

Qu'est-ce que la transition numérique de l'industrie ?
D'une manière générale, cela implique le passage au numérique non seulement des produits, mais des processus d'innovation et de collaboration et jusqu'aux procédés industriels eux-mêmes. La façon dont différents groupes au sein et hors de l'entreprise industrielle, disposant de différents types de savoirs spécialisés, peuvent collaborer joue un rôle crucial dans ce changement. De nos jours, les produits sont plus complexes et débordent sur différents domaines d'ingénierie, sans parler des frontières géographiques. Par conséquent, la collaboration dans tous les compartiments de fabrication du produit et au sein de toutes les spécialités que cela implique est plus fondamentale que jamais si l'on souhaite développer et encourager l'innovation autour des produits nouvellement numérisés. En outre, l'immense nombre de produits désormais connectés ou équipés de capteurs intégrés oblige les industriels à transformer la façon dont ils recueillent et analysent les données des utilisateurs et bouleverse leur vision du service client.

Tous ces changements, et bien d'autres encore, ne font que renforcer le besoin de diffuser au sein de l'entreprise les informations liées au produit. Selon IDC, « l'information se trouve au cœur de ce nouvel écosystème numérique. Il convient donc de la traiter comme n'importe quel autre actif, en y associant une gouvernance adaptée et en investissant en conséquence afin de maximiser sa valeur dans l'organisation ». Si on associe ce besoin croissant à l'émergence du cloud, du big data et des technologies mobiles, on obtient un mélange instable de changements synchrones qui nécessite de la stratégie, de la gouvernance et des processus adaptés. Mais le fait est que cette transition numérique change vraiment la façon de faire de l'industrie dans tous les domaines.

C'est pourquoi la transition numérique est traitée, non comme une tâche isolée pour différents services, mais comme une initiative stratégique globale, dans la mesure où elle traverse l'intégralité de l'entreprise. Et le succès de ce programme de transition numérique permettra de déterminer pourquoi certains dinosaures du passé parviendront à survivre pour devenir les géants du high tech et du digital d'aujourd'hui mais aussi de demain.


Par Kevin Sparks, directeur commercial UK/Ireland et Christophe Favresse, directeur commercial France chez FACT-Finder

Pour offrir une belle expérience d’achat en ligne à ses clients, l’innovation peut-être un bon choix. La bonne idée, bien appliquée, peut amener votre entreprise au niveau supérieur et créer un vrai point de différenciation face à vos concurrents. Mais attention, si vous êtes commerçant et développez vos activités en ligne, ne pensez pas à courir avant de savoir marcher.
Vous avez construit votre marque sur des emplacements physiques, qui restent vos points forts. Avant de vous plonger dans la complexité du e-commerce, renseignez-vous sur les nombreuses innovations pour « commerces de rue » dont vous pourriez tirer parti. Elles vous donneront les éléments pour aligner correctement votre présence en ligne à votre présence physique et refléter l’image et les valeurs que vous avez construites pour votre marque. La création de cette expérience client unifiée devrait être votre objectif principal et peut vraiment vous aider à concurrencer vos rivaux pure players.
Inspirez-vous des retours des principaux acteurs du e-commerce afin de mener autant de personnes que possible à travers les cinq étapes de l'achat en ligne :


  1. La motivation – Faire venir vos client jusqu’à votre boutique en ligne
  2. La prise d’information – Les amener aux produits souhaités
  3. La comparaison – Soutenir la confrontation aux offres concurrentes 
  4. L’achat – Enregistrer les coordonnées des clients rapidement et de manière sécurisée
  5. Le Paiement – Procéder au paiement

La sélection des produits est particulièrement importante. Les clients doivent trouver rapidement et facilement les articles qu'ils souhaitent, mais ce faisant, chacun aura ses exigences particulières et un comportement propre. Par exemple, ceux qui utilisent la fonction de recherche ont déjà une bonne idée de ce qu'ils veulent. Ils attendent vitesse et pertinence du service. C’est une chance pour les détaillants car ces « visiteurs décidés » sont deux fois plus nombreux que ceux qui n’utilisent que la navigation des sites de vente en ligne. Pour faire du choix des produits un acte aussi simple que possible, mettez en œuvre une solution de recherche puissante - particulièrement si vous offrez une large gamme de produits.
Pour la navigation, la pertinence de nombreuses pratiques a été confirmée par les grands acteurs du e-commerce eux-mêmes, mais reste souvent méconnue, comme l’importance des visuels et des blocs thématiques pour guider les clients. Il faut proposer un design clair et propre pour la catégorisation des éléments de navigation primaire et limiter l’arborescence de choix de produits à trois niveaux pour ne pas égarer ses visiteurs. Si l’importance des filtres n’est plus à démontrer, des filtres thématiques doivent compléter ceux plus fonctionnels, pour proposer en plus des indications techniques de véritables univers autour d’événements, de saisons ou de lieux (piscine, Noël, anniversaire, etc.). Il faut enfin s’assurer de la cohérence des chemins d’accès via navigation et moteur de recherche.
Après avoir mis en œuvre des outils de recherche, de navigation et de recommandation assez forts pour accompagner les clients jusqu’à l’étape Panier, de nombreux sites négligent de prendre le même soin de la fonction d'Achat. C’est une erreur majeure. Une expérience utilisateur médiocre à ce point du parcours  entraîne une hausse importante du taux d'abandon du panier d'achat, non parce que les gens ne veulent plus acheter, mais parce qu'ils trouvent l’acte trop laborieux, ennuyeux ou peu sécurisé.
Pour l’éviter, il est essentiel de créer un environnement de confiance et de ne pas laisser de questions sans réponse. Affichez un aperçu de tous les éléments choisis, en même temps que des informations précises sur la livraison. Offrez la livraison gratuite à partir d’un certain montant, diverses options de paiement et mentionnez explicitement : « Aucun tiers ne pourra avoir accès à vos données  personnelles », ainsi que des éléments complémentaires expliquant plus en détail votre politique de protection des données.
Ce ne sont que quelques-uns des  facteurs qui vous aideront à construire une expérience de shopping en ligne efficace pour vos clients, mais il y en reste de nombreux autres, sans parler de ceux spécifiques à votre marché et votre offre. A vous de jouer !
 Restez fidèle à vous-même et à votre identité de marque. Vos clients vous connaissent déjà In Real Life et vous jouissez auprès d’eux d’un capital de confiance et de compréhension. Assurez-vous, dans la mesure du possible, d’ancrer ce même sentiment en ligne.



Certains critiquent la prééminence des présentations "Powerpoint" dans le monde de l'entreprise ; d'autres les difficultés rencontrés pour mettre en place ces présentations entre ordinateur impossible à brancher, vidéoprojecteur trop complexe, etc. Pourtant les présentations constituent des rendez-vous importants de la vie de l'entreprise comme vient de le démontrer Barco, qui a interrogé des professionnels en France.

95 % des salariés pensent ainsi qu’une bonne présentation a un impact important sur l’entreprise ; six personnes sur dix (58 %) affirment que cela leur a permis de construire une réputation personnelle et pour 42 % d’entre eux de gagner de nouveaux projets.

L'étude montre que près de la moitié des personnes interrogées font une présentation en réunion plusieurs fois par semaine et 78 % d’entre eux utilisent une technologie pour réaliser leur présentation, ce qui en fait un élément central dans la réussite commerciale de l’entreprise. Près de la moitié (49 %) pensent qu’avoir une technologie adaptée est aussi, voire plus importante, qu’un bon animateur, et 74 % d’entre eux affirment avoir rencontré des problèmes techniques durant leur présentation.

Si les professionnels pensent qu’une présentation réussie a un large impact sur l’entreprise, ils sont aussi d’avis (33 %) que l’absence de problème technique durant une présentation est un élément clé de cette réussite. Pour 60 % d’entre eux, c’est aussi important que de couvrir tous les objectifs de la présentation.

Près de trois répondants sur dix (28 %) disent que ne pas disposer de solution lorsqu’un problème survient (problème technique par exemple) est une erreur majeure à éviter lors d’une présentation. Parmi les compétences les plus importantes en matière de présentation, les personnes interrogées citent l’expertise du sujet (87 %), la capacité à expliquer un sujet complexe en termes simples (60 %) et à répondre clairement aux commentaires et questions de l’audience (41 %). L’utilisation effective d’une technologie (29 %) reste un élément clé d’une présentation réussie.

Les ordinateurs portables et câbles de connexion sont les technologies les plus utilisées durant les présentations (59 %), suivies par les projecteurs (55 %) et les écrans de partage sans fil (28 %). Près de la moitié (46 %) sont d’avis que la technologie de leur entreprise est parfois déficiente tandis que pour 62 % celle-ci pourrait être améliorée de façon à leur donner les moyens d’augmenter les chances de réussite de leur présentation.

D’une façon surprenante et en dépit du fait que ce soit un facteur majeur dans la réussite d’une entreprise et de son personnel, seulement un quart des répondants (25 %) disent avoir accès à une formation à la présentation dans leur entreprise.

"La bonne nouvelle est que la technologie dans l’environnement de travail devient plus performante et les professionnels désirent et attendent un meilleur équipement. Je crois que dans les prochaines années, nous observerons une diminution importante des 74 % de ceux qui font l’expérience d’un problème technique durant leur présentation. La connexion sans fil jouera sans aucun doute un rôle essentiel ; elle facilitera les présentations et augmentera leur impact, l’animateur portant davantage son attention sur sa présentation que sur des problèmes avec la technologie utilisée", explique Nick Fitzherbert, coach pour les compétences en présentation.

Pour Lieven Bertier, Directrice Marketing Produit Clickshare, « Réaliser une bonne présentation tient autant à l’assurance et à la clarté de l’animateur qu’à la technologie utilisée pour présenter de manière efficace. Notre étude montre que pour 45 % des professionnels, une présentation rapide, facile à organiser et sans fil (52 %) correspond à l’idée qu’ils ont d’une présentation réussie. Disposer de ces éléments augmente vos chances de succès. Des changements au niveau des petits équipements peuvent faire la différence dans la réussite d’une présentation et de son impact.



Par Jean-Paul Béchu, fondateur de Brandsays

Vêtements, maroquineries, cosmétiques, high-tech, médicaments, etc. la contrefaçon explose avec la multiplication des achats sur Internet. Les saisies douanières provenant des ventes en ligne sont passées, en dix ans, de 1 à 30% [Source KeepAlert – Unifab] ! Pour endiguer ce fléau grandissant, les marques, le gouvernement et les citoyens se doivent d’unir leurs forces.
Clairement, le crime paie ! Avec un investissement de 1.000 dollars, un contrefacteur multiplie sa mise par 10 [Source RogueFinder], engendrant des revenus colossaux au même titre que la drogue ou la prostitution. Étant moins répréhensible par la loi, ce n’est pas un hasard si la contrefaçon en ligne prend une ampleur sans précédent et si le crime organisé s’est intéressé à ce juteux « business».



Des actions en justice insuffisantes

Face à ces réseaux criminels qui pullulent et se « professionnalisent » pour mieux tromper le consommateur, les marques se trouvent souvent impuissantes. Quand bien même, elles traquent et combattent vaillamment par le biais de procédures juridiques (bien souvent longues) les propriétaires de ces sites frauduleux,  ces actions isolées ne sont ni suffisantes ni adaptées au dynamisme du web.
Ces malfaiteurs sont nombreux, très agiles et changent de nom en permanence.  « Nous parvenons, par la justice, à faire fermer les sites mais en attendant, ils vendent, puis en ouvrent un nouveau», se plaignait le directeur général de Longchamp, Jean Cassegrain, dans une interview à Paris Match

Faute de sanctions juridiques immédiates pour contrecarrer efficacement la contrefaçon en ligne, beaucoup de marques privilégient la discrétion : ne pas s’épancher sur ce problème pour ne pas effrayer le consommateur et le dissuader d’acheter.


Une démarche transparente et collaborative nécessaire

Pour en finir avec cette politique de l’autruche qui fait finalement le jeu des contrefacteurs et dans l’attente de décisions de  justice, il devient urgent pour les marques de compléter leurs actions juridiques avec des outils de prévention en temps réel, collaboratifs et viraux, en résumé, conformes aux besoins du net.
Car voilà, en attendant que la justice tranche, des consommateurs continuent d’acheter des produits contrefaits de mauvaise qualité voire dangereux comme dans le cas par exemple des chargeurs de Smartphones qui explosent ou de faux médicaments. L’OMS a d’ailleurs rappelé que 50% des médicaments achetés sur Internet sont des contrefaçons !
Les marques ne peuvent décemment continuer à agir de manière secrète et silotée. Elles se doivent d’unir leurs forces - au-delà des fédérations et regroupements sectoriels qui existent déjà - pour créer une base de données mondiale recensant les sites illégaux et frauduleux, accessible aux consommateurs.

Et comme il en va de l’intérêt public, le gouvernement a lui aussi une carte à jouer pour inciter les entreprises à jouer collectif, en toute transparence. Certes des mesures sont prises pour lutter contre le fléau de la contrefaçon en ligne (Loi Numérique, Chartes d’engagement ou contribution au projet Phishing Initiative) mais sans aujourd’hui réussir à impliquer – voire si nécessaire contraindre-  les marques à s’unir pour la protection des citoyens.

Le concours de ces derniers est d’ailleurs tout aussi nécessaire. Et à l’ère du crowdsourcing, quoi de plus naturel que de faire appel à la vigilance des internautes. Imaginez le poids de cette ressource complémentaire pour les marques. Alertées directement par le consommateur, elles disposeraient alors d’un pouvoir d’identification des sites illégaux inégalable, sans aucune mesure comparable aux capacités de surveillance de leur service juridique aussi performant soit-il.

Plus qu’une nécessité donc, cette alliance informelle mais néanmoins combative est un devoir. Le devoir des marques de protéger les consommateurs, le devoir de l’Etat de protéger les citoyens, le devoir de vigilance des internautes. Finissons-en donc avec cette démarche nombriliste qui ne mène à rien si ce n’est à aggraver la situation et unissons nos forces ! Seule une prise de conscience collective nous permettra de lutter efficacement contre la contrefaçon en ligne.


Le Connected Camp, accélérateur de startups spécialisé dans l’Internet des Objets (IoT) B to B de l’IoT Valley (Toulouse), ouvre ce lundi 10 octobre le dépôt des dossiers de candidatures pour intégrer sa nouvelle saison, qui démarrera en janvier 2017.

En 9 mois, le Connected Camp aide ses startuppers à passer de leur prototype à une version industrielle de leur produit, à signer des contrats B to B avec ses nombreux partenaires. Le programme d’accompagnement mis en place est gratuit et sans prise de capital.

Pour Simon Vacher, Manager du Connected Camp : « Nous mettons en place l’écosystème le plus favorable à la croissance de nos startups. Côté Business, ces dernières ont l’opportunité de rencontrer, dès les premières semaines qui suivent leur arrivée, les décideurs grands comptes. Sur le plan technique, nous disposons de partenaires et d’experts présents sur toute la chaîne de valeur IoT, du produit hardware au cloud en passant par la connectivité. »

Le « Connected Camp » a l’ambition d’accompagner 16 startups dont des européennes à partir du début de l’année 2017.

En chiffres
• 25 startups passées par l’accélérateur de l’IoT Valley,
• 2/3 d’augmentation des effectifs par startup durant la durée d’accompagnement,
• de nombreuses signatures de contrats avec de grands comptes,
• un total de 3,5M d’€ de levée de fonds en cours sur la dernière saison*,
• 5 industrialisations en cours pour les startups actuellement accélérées,
• 1 voyage en Chine sur les lignes de productions.



Belle initiative de l'association La Mêlée, qui fédère les acteurs du numérique dans la région Occitanie Pyrénées-Méditerranée. L'association vient de lancer un nouveau groupe de travail tourné vers les jeunes.
"La Commission Emploi, Formation et Enseignement supérieur de La Mêlée a décidé de mettre en place de nouvelles actions visant à faire découvrir les métiers du Numérique aux collégiens et lycéens et pour cela un nouveau groupe de travail "Jeunes et Numérique" s'est créé", explique l'association

Pour démarrer, La Mêlée s'associe à JobIRL.com, qui participe aux côtés du Rectorat, de la Préfecture de Région, du MEDEF31, de Face Grand Toulouse et du Rotary Club, à une action pour près de 1000 élèves de 3e des neuf collèges des quartiers prioritaires de Toulouse.

L'association lance un appel à ses adhérents. "Ouvrez les portes de vos entreprises et de vos start-up à ces jeunes en leur proposant des stages découvertes de 3e pour faire découvrir le Numérique et ses métiers. Plus nous pourrons proposer de stages, plus le Numérique aura du poids face aux autres secteurs représentés", explique La Mêlée

Les semaines de stage sont les suivantes :
Collège VAUQUELIN du 07 au 11 novembre 2016
Collège BADIOU du 21 au 25 novembre 2016
Collège SAND du 05 au 09 décembre 2016
Collège NOUGARO du 12 au 16 décembre 2016
Collège BECANNE du 12 au 16 décembre 2016
Collège BELLEFONTAINE du 09 au 13 janvier 2017
Collège TOULOUSE LAUTREC du 16 au 20 janvier 2017
Collège PARKS du 23 au 27 janvier 2017
Collège STENDHAL du 30 janvier au 03 février 2017


500 animations sont prévues dans 75 villes de la région Occitanie, du 8 au 16 octobre pour la Fête de la science 2016. Des villages de la science, mais aussi des labos qui ouvrent leurs portes et des scientifiques qui rencontrent le public.

La Dépêche du Midi en partenariat avec Science et animation propose un coup de projecteur sur des chercheurs de la région qui font avancer la science, grâce à un long format inédit.

Pour le consulter, cliquez ci-dessous sur le bouton "View Story"




Okta, spécialiste de la gestion des identités et des terminaux à l’heure du cloud et de la mobilité d’entreprise, annonce les résultats de la première édition de son rapport Secure Business Agility. Selon les données compilées à l’issue d’une enquête menée auprès de 300 DSI et RSSI, la plupart des organisations sont intimement convaincues de la nécessité absolue d’offrir les meilleures technologies à leurs utilisateurs pour stimuler leur productivité. Pourtant, nombreuses sont celles qui peinent à faire preuve d’agilité, à cause d’une vision de la sécurité dépassée et focalisée sur leurs systèmes internes.

L’incapacité des organisations à adapter et à mettre à niveau leurs outils de sécurité représente pour elles un risque sur le plan de la sécurité. Ainsi, 65% des répondants s’attendent à ce que leur organisation soit victime d’une fuite de données dans les 12 prochains mois, à moins qu’elles ne parviennent à mettre à jour leurs solutions de sécurité à temps.
« Dans un souci de productivité, les organisations du monde entier investissent dans des technologies cloud et mobiles permettant à leur personnel de travailler virtuellement de n’importe où. Néanmoins, cette approche n’est pas la garantie d’une véritable agilité. Les organisations étant de plus en plus connectées, l’idée que l’on se fait traditionnellement des frontières de leurs réseaux est en train de disparaître. Les entreprises doivent donc renforcer leur sécurité en priorité », déclare David Baker, responsable de la sécurité des systèmes d’information chez Okta. « Afin de bien maîtriser leur nouveau périmètre et d’éviter de compromettre la sécurité et la productivité des salariés, les DSI doivent adopter des outils allant au-delà des frontières classiques des sociétés et de leurs réseaux, et rendre l’ensemble de leur organisation agile.»

Les principaux enseignements du rapport :

  • Les organisations sont divisées quant à l’impact positif ou négatif de leurs stratégies de sécurité sur leur productivité et leur agilité : On constate des divergences d’opinions au sein des personnes interrogées sur l’effet favorable ou non de leurs mesures de sécurité sur la productivité. Ainsi, plus de la moitié des répondants (52%) affirment que leurs solutions de sécurité actuelles compromettent la productivité, tandis que 48% d’entre eux estiment que les mesures en place permettent à leur organisation d’adopter des solutions de premier plan favorisant la productivité et l’agilité. Le DSI est pris dans l’étau, entre sa mission qui est d’assurer une sécurité maximale à l’entreprise et sa volonté de ne pas brider la productivité.
  • La visibilité sur l’utilisation des applications est limitée : Selon les résultats de notre enquête, 85% des DSI souffriraient d’un manque d’informations sur les individus ayant accès aux différentes applications au sein de leur organisation. Plus inquiétant encore : 80% des répondants considèrent que la faiblesse des mots de passe ou des contrôles d’accès constitue une problématique de sécurité.
  • Investir dans de nouvelles technologies mobiles, d’automatisation et cloud s’avère être une stratégie payante pour les organisations : 92% des personnes interrogées estiment que leur organisation pourrait faire davantage pour intégrer et prendre en charge des applications cloud dans leurs infrastructure et systèmes. Les équipes informatiques ont donc une formidable opportunité de réduire ce pourcentage en augmentant l’agilité et la productivité au sein de leur entreprise.




Par Yohan Stern, Président AdScoria By Key Performance Group

La multiplication des canaux de communication atteint aujourd’hui un degré inédit. Face à l’arrivée d’une pléiade de nouveaux points de contact, les publicitaires sont challengés et doivent constamment réévaluer la pertinence de leurs plans médias. Comment optimiser sa stratégie multicanale dans un tel contexte ?

1)    Être à l’affut de l’innovation

Les nouvelles plateformes de contenu se multiplient à un rythme toujours plus soutenu. Lorsque l’une d’elle connaît le succès, le prix de l’espace publicitaire augmente exponentiellement, il est donc nécessaire de ne pas arriver après la bataille et de savoir repérer les nouveaux outils les plus prometteurs. Pour ne pas louper le Snapchat de demain, mieux vaut donc garder un œil sur les données d’utilisation et les résultats des start-ups et des réseaux les plus innovants.

2)    Identifier les utilisateurs de façon fiable

La gestion de l’identité des consommateurs est la clé d’une stratégie efficace. Pour maîtriser les contacts opérés avec chacun et éviter les redites qui génèrent un sentiment de harcèlement, il est nécessaire de lier les divers fragments d’identité connus sur chaque personne physique : adresse postale, identifiants sur les réseaux sociaux, adresse IP, etc. Avec une telle synchronisation des actions sur chaque canal, il est indispensable d’opérer une centralisation de toutes les données marketing. C’est dans ce but que sont aujourd’hui développées des DMP, ou data management platforms, de plus en plus perfectionnées et demandant le concours de data analysts compétents techniquement et stratégiquement.

3)    Utiliser les données pour optimiser vos contenus en fonction des cibles et des canaux

En s’appuyant sur les données fournies par la DMP, les professionnels du marketing ont désormais l’occasion d’automatiser le partage de contenus ciblés. Il est désormais possible de connecter les plateformes d’achat médias sur les réseaux sociaux et les moteurs de recherche en utilisant les critères de ciblages définis par les data analysts sur la base d’informations croisées dans la DMP : c’est le marketing automation.

4)    Créer des modèles d’attribution pertinent pour suivre vos KPI’s

Pour perfectionner continuellement sa stratégie multicanale, encore faut-il connaître avec précision ses résultats sur chaque levier. C’est le but des modèles d’attributions, savoir d’où vient le consommateur qui vient d’effectuer un achat mais aussi par quels autres canaux il a pu être touché précédemment : comparateur d’achat, newsletter, etc. Parce qu’il existe autant de parcours clients que de clients et parce que le offline et le online interfèrent plus que jamais, il convient de croiser un maximum de données provenant de toutes les sources à disposition.


La multiplication des canaux transforme et complexifie donc radicalement le travail du marketeur. Toutefois, les bases de toute stratégie restent valables : un plan média commence par la définition d’objectifs (audience, branding, ROI, génération de leads, etc.), la connaissance qualitative de sa cible ainsi que l’affirmation de valeurs de marques claires. Malgré toutes les innovations, les basiques restent indispensables !


Dans le cadre de la Mêlée Numérique et de sa journée « Meet the Big » qui s'est tenue le 28 septembre dernirer, RED by SFR et l’association La Mêlée, au terme d’un étroit partenariat, ont décidé d’initier un concours dédié aux Startups afin d’amplifier leur accompagnement. Pour RED by SFR, dont c’est la 3ème étape de son programme en régions « Tremplin Startup », c'est ainsi l'occasion, tout en apportant son expertise, de nouer des relations privilégiées très en amont avec des acteurs en devenir dans les domaines où l’opérateur développe de nouvelles offres.

Plus de 50 jeunes entrepreneurs étaient réunis le 28 septembre lors d’une session de pitchs à la « Cantine Toulouse », lieu d’échange, de rencontres et d’expérimentations initié par l’association La Mêlée. Parmi plus d’une quinzaine de candidatures, 6 projets ont été retenus pour leur caractère innovant et responsable.

Applicolis.com - Florent Fournier

Applicolis est un réseau de transporteurs à disposition des commerces locaux, permettant d'assurer la livraison du dernier kilomètre. La solution permet aux entreprises locales et aux sites marchands de proposer un service de livraison dans l'heure ou sur rendez-vous, afin de s'adapter au mieux les besoins des consommateurs.

Capturs.com - Ludovic Lesieur

Capturs est une balise compacte de 50 grammes, qui envoie la position GPS de son porteur en temps réel sur Internet jusqu’à plusieurs semaines. Elle s’adresse aux pratiquants d’activités « outdoor » (trail, course à pied, randonnée, alpinisme, ski…) ayant pour problématique de devoir partir longtemps dans des zones isolées. L’innovation majeure est liée à l’utilisation du réseau bas-débit SIGFOX diminuant à l’extrême la consommation énergétique de la balise.

Takaclic.com Elsa Gard

Takaclic permet aux utilisateurs de créer leur Fiche de Voyage et recevoir directement par e-mail, de la part des agences de voyages de son réseau de partenaires, des propositions sur mesure répondant à leurs critères. Ils n’auront plus qu’à faire leur choix et réserver auprès de l’agence qu’ils auront sélectionnée.

Parkisseo.com - Florent Duhot

Parkisseo fournit une solution de stationnement intelligent, avec une détection du statut d'occupation des places, indication en temps réel des informations sur web et smartphones, et une identification automatique des automobilistes préalablement enregistrés. La détection permet l'envoi d'informations sur la disponibilité des places de stationnement situées autour de soi. L'identification permet de régler automatiquement ses droits de stationnement et de valider le droit à utiliser des places réservées (places nominatives, PMR, livraison, taxis, ...).

Start-Track.fr - Anaïs Balor

L’application mobile développée par l’équipe de la startup Start-Track permet à toute personne pratiquant une activité physique (sportif amateur ou de haut niveau, personne en rééducation, sénior, …) d’adapter ses efforts à ses capacités à l’instant T et de recevoir des conseils personnalisés en temps réel.

Bigoudy.fr - Morgan Charton

Bigoudy permet de comparer facilement tous les coiffeurs et barbiers exerçant à domicile ou au bureau en quelques clics. Après avoir sélectionné son quartier, le choix se fait en fonction des prestations proposées par les professionnels, de leurs tarifs et de leurs disponibilités.


La popularité d'Instagram et de Snapchat a grimpé en flèche au cours de ces deux dernières années. C'est ce que révèle ce premier volet de la nouvelle édition de Connected Life, l'étude de référence réalisée par Kantar TNS dans 57 pays auprès de 70 000 personnes. Elle s'intéresse à la façon dont la technologie transforme le quotidien des citoyens et consommateurs. Elle délivre ainsi des insights clés pour comprendre l'impact de l'écosystème digital pour les marques.

L'usage de Snapchat et Instagram monte en flèche, en France comme ailleurs

Au niveau international, environ un quart des internautes (23%) sont désormais sur Snapchat - un bond fulgurant en deux ans (+11 points). Instagram connaît également une belle croissance : 42%  des internautes y sont inscrits alors qu'ils étaient 24% en 2014.

En France, l'usage de Snapchat monte en flèche : en 2 ans, Snapchat a vu son utilisation progresser de 13 points et Instagram de 10 points. 30% des internautes français utilisent désormais respectivement chacun de ces deux réseaux. Parmi eux,

- 16% utilisent Snapchat quotidiennement, soit plus que la moyenne internationale (10%)
- 14% utilisent Instagram quotidiennement (21% au global),
une fréquence d'utilisation qui n'a rien à envier à celle de Twitter utilisé quotidiennement par 14% des internautes français, (17% au global) mais encore loin derrière leur ainé Facebook avec 61% des internautes français qui l'utilisent quotidiennement (56% au global).


Pour Guénaëlle Gault, Chief Digital Officer de Kantar : « Facebook est un basic dans la panoplie des réseaux sociaux et renvoie de plus en plus à une gestion quasi « institutionnelle » de son identité et de ses relations. Twitter a un positionnement particulier sur l'échange d'infos et de liens. La montée en puissance d'Instagram et de Snapchat vient compléter ce paysage et répondre au désir des consommateurs d'accéder à du contenu instantané et personnalisé, spontané et authentique souvent enrichi grâce à des fonctionnalités de filtres ou d'édition. Cela constitue une véritable opportunité pour les marques d'exploiter cette tendance en créant du contenu personnalisable et partageable (vidéos, stories, etc...). Mais plus que jamais, c'est aussi un défi pour adresser le bon contenu à la bonne cible, sur la bonne plateforme au bon moment. Et savoir casser les codes traditionnels et adopter une posture conforme à ces nouvelles formes d'interaction.»



En France, les 16-24 ans sont les plus accros, tandis que les séniors commencent à se l'approprier

Comme souvent en matière de digital, les 16-24 ans sont les plus assidus : en France, 62% d'entre eux utilisent Snapchat toutes les semaines, pour partager du contenu instantané. Et 46% des 16-24 ans font de même sur Instagram de manière hebdomadaire.

Du côté des séniors, la montée des Instagramers se poursuit en France : près d'un internaute sur 10 âgé de 55 ans et plus est inscrit sur Instagram (9%) soit quatre fois plus qu'en 2014. De même, dans cette tranche d'âge, 7% d'entre eux utilisent Snapchat pour partager des photos instantanément (+6 points vs 2014).


Par Malek Rezgui – Fondateur de Dommee

On l'attendait depuis longtemps, Google a enfin levé le voile sur Home, son assistant personnel visant à concurrencer Echo d'Amazon, carton aux Etats-Unis depuis son lancement. Ces solutions répondent sans conteste aux besoins actuels pour faciliter le maintien à domicile. Mais projetons-nous quelques années plus loin et voyons si ces Intelligences Artificielles correspondront à nos besoins en 2030.

Le marché de la Silver Economy est en forte croissance depuis quelques temps, puisqu'il pèserait en France plus de 130 milliards d'Euros. Entre santé connectée et domotique, pas une semaine ne passe sans une nouvelle application ou un énième gadget connecté pour le bien vivre chez soi des résidents. De la start-up aux grands groupes comme Google ou Amazon, tous veulent une part du gâteau.
Le marché des objets connectés et applications pour le maintien à domicile va-t-il poursuivre son expansion ? Aux dépens ou non du rôle de la famille ?

En 2030, on revient à l'essentiel… avec l'aide des nouvelles technologies
Comme nous continuerons de vivre de plus en plus longtemps, plusieurs générations vont coexister, de 15 à 90 ans et plus. Elles auront plusieurs problématiques communes :
Comment maintenir le lien avec les 15 ans et plus ?
Sans surprise, ils seront encore plus connectés, toujours plus adeptes des tablettes et des smartphones que de nos traditionnels écrans TV. Leurs ainés vont s'adapter car ils refusent l'idée d'être considérés comme des vieux. C'est aussi une des raisons pour lesquelles les magasins clairement spécialisés seniors n'auront pas tous le vent en poupe, même si certaines enseignes nationales se sont lancées sur ce segment. En effet, les seniors n'ont pas envie de côtoyer uniquement des gens de leur génération, ils veulent être traités comme tout le monde. Ils feront leurs courses aux mêmes endroits que les autres, dineront dans les mêmes restaurants et fréquenteront les mêmes cinémas. Et ils vont également s'adapter aux nouvelles technologies, car elles présentent beaucoup d'avantages. Notamment celui de pouvoir partager leur quotidien sur les réseaux sociaux, voir la famille qui habite loin grâce à la vidéo, mais aussi rompre leur éventuel isolement grâce aux communautés qui vont être amenées à se créer.

Comment rester à son domicile le plus longtemps possible ?
Ce besoin sera bien évidemment renforcé. La maison de demain ne sera certainement pas suréquipée de capteurs et autres objets connectés pour surveiller les moindres faits et gestes des résidents. Ils ne veulent pas être prisonniers de la domotique, ni se sentir sous surveillance vidéo. La tendance ira vers quelques équipements discrets qui ciblent les besoins essentiels (détecteur de chute, mesure du volume d'eau utilisé, fermeture des portes et des volets, ou encore éclairage de certaines pièces, commande de repas…). Les informations stockées ne seront pas partagées directement avec une société de gardiennage lambda, afin de ne pas risquer que les données personnelles soient utilisées à des fins commerciales, mais en priorité aux proches. Ensuite, libre à eux de décider du traitement de ces données.

Le rôle prépondérant des proches :
La famille verra son rôle de prescripteur renforcé. Souvent, ils suggéreront au résident des services et des nouveautés susceptibles d'améliorer son confort et son bien-être. Les nouvelles technologies continueront d'améliorer la communication entre le résident et sa famille éloignée, mais aussi avec le personnel médical. Les systèmes de visioconférence seront dopés par la réalité augmentée, afin de donner l'impression d'être à côté de celui avec qui on converse.

Vers un tassement du marché de la domotique et de la santé connectée
Comme expliqué plus haut, on s'oriente vers un retour à l'essentiel et un rejet de plus en plus massif de tout ce qui pourrait se révéler trop intrusif. Cela va donc entrainer un tassement du marché de la santé connectée et de la domotique. Quant aux robots, s'il est vrai qu'ils peuvent rendre de nombreux services, ils peuvent aussi nuire au besoin d'intimité. Tout va dépendre de leur capacité à devenir plus humain, à l'image du héros du film Robot and Frank.

D'une certaine manière, 2030 ressemblera beaucoup à ce que l'on observe déjà aujourd'hui. Les besoins et les attentes des uns et des autres seront les mêmes, mais amplifiées par leur volonté de profiter plus longtemps de leur domicile et de coller à l'air du temps. Les acteurs de la domotique, de la santé connectée et de l'habitat n'auront d'autre choix que de conserver une certaine simplicité et de la discrétion pour les satisfaire.

Le dispositif Home présenté par Google