Médiamétrie vient de publier son étude annuelle "Année Internet 2017". Une mine de données qui permettent de mieux cerner le comportement des Français. Fin 2017, on comptait en France près de 52 millions d’internautes chaque mois (83% de la population) et 42,2 millions au quotidien. En 10 ans, la population internaute a progressé de 40%.

92% des foyers ont au moins un écran
L'an passé, 92% des foyers en France sont équipés d’au moins un écran internet :  smartphone, tablette ou ordinateur. Et s’il reste encore 17% de non connectés, Internet est devenue une activité quotidienne pour une large majorité : 2/3 des Français se connectent tous les jours et le temps passé sur la toile est d’1h28 par jour et par personne avec des disparités entre les individus. Les CSP+ et les 25-49 ans tirent la consommation vers le haut avec respectivement 2h15 et 2h12 de surf quotidien. De plus, il existe de vrais aficionados du web puisque les 15% des Français les plus consommateurs comptabilisent à eux seuls près de la moitié du temps total passé sur internet.

Le smartphone pèse 40% du temps passé sur Internet
Avec plus de 30 millions de mobinautes chaque jour (48%), le smartphone est le 1er écran pour se connecter au quotidien, devant l’ordinateur. Près d’1 individu sur 5 n’utilise même que son mobile pour surfer. Le smartphone pèse 40% du temps passé sur Internet, et 65% chez les jeunes (15-24 ans).

La puissance des plateformes des réseaux sociaux
Plus de la moitié des Français (50,4%) se rend tous les jours sur au moins un réseau social. En termes de temps passé, les internautes de 2 ans et plus y passent 24 minutes par jour, soit plus d’un quart de leur consommation internet : Facebook s’impose devant YouTube et Snapchat. A l’inverse, chez les 15-24 ans, qui consacrent près de la moitié de leur temps internet aux plateformes sociales (43 min), YouTube arrive en tête devant Snapchat et Facebook.

Les applications au cœur de la bataille de l’attention
Les applications que l'on installe sur son smartphone ont connu un essor considérable ces dernières années, indique Médiamétrie : si les mobinautes consultent chaque mois 3 fois plus de sites que d’applications en 2017 (52 sites contre 16 applications), ils consacrent 87% de leur temps passé aux applications, dont la moitié sur les applications des réseaux sociaux, des jeux et de plateformes vidéos. Les 15-24 ans ont un usage encore plus concentré des applications sur leur mobile : elles représentent 92% de leurs temps passé avec une part des réseaux sociaux, des jeux et de la vidéo qui atteint 70%.

La puissance des GAFA
Autre facette de cette concentration d’internet, les 10 applications disponibles dans les Stores les plus consultées appartiennent toutes aux GAFA (Google, Amazon, Facebook, Apple). Les sites et applications des GAFA représentent 36% du temps total passé sur internet et 64% des Français (38,2 millions) s’y connectent tous les jours.

L'équilibre internet-télé se fait en fonction de l'âge
La télévision est le 1er média en France loin devant internet. Mais si les Français passent 3h42 en moyenne chaque jour devant leur téléviseur et 1h28 sur internet, l’équilibre TV/ Internet est différent chez les 15-24 ans : leur temps passé sur internet (1h38) est désormais supérieur à celui passé devant le téléviseur (1h26) et il y a plus d’internautes quotidiens de 15-24 ans que de téléspectateurs du même âge. Mais ce temps passé sur internet comprend toutes les activités réalisées en ligne dont 1/3 consacrées à regarder des contenus vidéos.



Surfer sur internet lors de vols longs courrier, c'est déjà possible mais souvent très cher. Les choses vont bientôt changer et devraient être plus abordables grâce à la décision rendue par l'Arcep (Autorité de régulation des communications électroniques et des postes). Le gendarme des télécoms a décidé d'autoriser Inmarsat Ventures Limited à exploiter des antennes relais terrestres 4G complémentaires à son système mobile par satellite en bande MSS 2 GHz.

Dans sa demande à l'Arcep, Inmarsat indiquait que ce réseau serait composé au maximum de 50 stations déployées sur le territoire métropolitain, qu’il serait installé dans la zone de couverture de son satellite Europasat lancé le 258 juin 2017.

L’autorisation délivrée à Inmarsat par l'Arcep, après une phase de consultation, lui permet, dans le cadre de son projet EAN (European Aviation Network), de proposer des services d’accès à internet dans les avions grâce à une double connectivité : par satellite et par l’usage complémentaire des antennes relais au sol.

Le projet EAN, réalisé avec Nokia, nécessite la construction de 300 sites en Europe, dans les 28 pays plus la Suisse et la Norvège.






Guillaume Broutart, Country Manager France, Teamleader


L'IA (Intelligence Artificielle), une entité bientôt consciente, douée de valeurs morales et capable de prendre des décisions stratégiques, serait-elle plus compétitive que les humains sur le marché du travail ? Cette probabilité irrite autant qu'elle fascine : l'IA ne dort pas, n'a aucune contrainte et peut calculer un volume de données impressionnant. Un avantage compétitif qui suscite autant de craintes que d'espoirs dans le monde de l'entreprise. Une des solutions pour dépasser cette ambivalence reste la démocratisation de la formation du plus grand nombre aux connaissances du numérique.

Un bouleversement majeur
Certains experts voient dans l'essor du numérique et de l'intelligence artificielle une sorte de troisième révolution majeure, qui suivrait la révolution industrielle. Et pour cause : la productivité humaine semble avoir bien des choses à envier aux machines dotées d'Intelligence Artificielle. Ces dernières n'ont pas besoin de repos, n'ont pas de vie privée ou d'aspirations personnelles et impromptues, ne tombent jamais malades, et sont de surcroît capables d'une formidable puissance de calcul. Les progrès accomplis dans l'exploitation de l'Intelligence Artificielle et du Machine Learning participent à une accélération générale des bouleversements liés au numérique. Pour se rendre compte du phénomène, rappelons qu'il fallait auparavant attendre près d'une centaine d'années pour assister à un progrès fulgurant, tandis qu'aujourd'hui, tous les quinze ans environ, une innovation bouleverse l'ordre des choses. De quoi faire craindre le pouvoir grandissant des GAFAMI*. Si l'incertitude quant à l'avenir peut justifier certaines craintes, il ne faut pourtant pas voir dans l'IA la menace du remplacement des humains, mais l'opportunité pour tous d'acquérir des connaissances sur le numérique. C'est là le meilleur moyen de contrecarrer les éventuelles pertes qui pourraient être causées par le progrès de l'IA.

Des visions divergentes dans le monde du travail
L'essor de l'IA pose une question fondamentale : comment, dans un avenir proche, les humains pourront-ils subvenir à leurs besoins et créer de la richesse ?
En entreprise, les avis sont partagés : quand certains dirigeants tirent la sonnette d'alarme, d'autres sont plus optimistes, et voient en l'IA une entité complémentaire plutôt qu'un rival de l'intelligence humaine. Dans les deux cas, il importe de se souvenir d'une notion importante : l'Intelligence Artificielle fait parfois l'objet de spéculations exagérées, et ne peut en aucun cas remplacer l'intuition et la réflexion humaines. En revanche, pour préserver l'accès à l'emploi, les entreprises ont intérêt à revoir leur vision des métiers afin qu'ils intègrent pleinement les outils numériques. Ceux-ci ont déjà profondément changé la manière dont fonctionnent les relations interpersonnelles, y compris dans le contexte professionnel, ainsi que notre façon de travailler. Ainsi, dans le secteur bancaire, l'Intelligence Artificielle d'IBM, Watson, s'intègre peu à peu comme assistant auprès des conseillers de clientèle. Elle y fournit des réponses ultra-pertinentes à des requêtes précises, et aide à déceler, grâce à l'analyse sémantique, le ton des correspondances avec le client. Des applications de Watson sont également prévues dans le milieu hospitalier, notamment dans les domaines de la cardiologie ou de l'oncologie. Pour éviter que certaines typologies d'emploi, comme les stages ou les métiers administratifs, ne soient impactées, il importe de privilégier l'accompagnement et la formation au numérique, par exemple en les rendant gratuits.

L'importance de démocratiser la connaissance autour de l'IA et de ses enjeux
Quelles que soient les évolutions qui seront engendrées par l'Intelligence Artificielle, le besoin de formation à la numérisation des structures est réel. Mieux vaut se préparer pour être plus adaptable, tant sur l'aspect économique et organisationnel que sur le volet humain et social. Le travail de formation doit être étendu au plus grand nombre, si l'on veut éviter de se retrouver dans une situation de monopole par les géants du web, mais aussi pour s'assurer que les métiers puissent se réinventer.

Nous évoluons vers un monde où les tâches monotones seront prises en charge par l'Intelligence Artificielle, laissant les humains se concentrer sur leurs compétences métier et leurs loisirs. A l'avenir, nous pourrons peut-être doter les machines de capacités plus poussées, comme celle de prendre une décision après avoir analysé différents paramètres. Néanmoins, il ne faut pas perdre de vue que l'IA est là pour assister l'humain et tenir auprès de nous un rôle de conseil, de support, et que c'est là sa vocation première. De notre capacité à garder ce cap et à démocratiser la connaissance du numérique dépendra l'impact de l'IA sur le monde du travail, de l'éducation et de la société.

*Le terme GAFAMI désigne les leaders actuels du web et de l'exploitation de l'Intelligence Artificielle : Google, Amazon, Facebook, Apple, Microsoft et IBM.


Au sein d’une relation épanouie, l’univers numérique de chaque partenaire tend à se confondre avec celui de l’autre, ce qui peut faire s’évaporer toute notion de vie privée. Une étude réalisée par Kaspersky Lab et Toluna révèle la manière dont les Français gèrent le partage des données numériques au sein du couple.  Pour ou contre le partage des données privées au sein du couple ?

85 % 

Pensent que les partenaires doivent conserver un jardin secret... sur Internet et en dehors.

89 %

De personnes malheureuses en couple dissimulent certaines de leurs activités à leur partenaire(conversations par message, dépenses, fichiers personnels, sites consultés...)

75 %
Des personnes heureuses en couple dissimulent certaines de leurs activités à leur partenaire.
68 %
Attachent davantage de valeur à leur relation qu'à leur vie privée.

19 %

Avouent espionner leur partenaire sur Internet. Cette proportion concerne près de la moitié de ceux dont le couple bat de l'aile.

42 %
Déclarent s'être querellées avec leur partenaire au sujet de quelque chose qu'il ou elle n'a pas voulu lui montrer sur son appareil.
59 %
Partagent ouvertement leurs codes PIN et mots de passe avec leur partenaire. 1/4d'entre eux ont même enregistré leurs propres empreintes digitales sur un appareil appartenant à leur conjoint.

20 %
Des personnes malheureuses en couple sentant leur vie privée menacée par leur partenaire. Cela concerne seulement 10 %des personnes satisfaites de leur relation.

« Quand une relation se noue, les frontières de la vie privée en ligne sont remises en question, tout comme le nombre de personnes disposées à ce que leur partenaire ait accès à leur univers numérique. Celles et ceux qui utilisent les appareils de leur moitié allant jusqu’à l’espionner sont si nombreux que la vie privée vole en éclats. Ils prennent le risque d’éventer toute surprise préparée à l’occasion d’un anniversaire ou autre célébration, en rendant impossible le fait de garder un secret vis-à-vis de leur partenaire », commente Andrei Mochola, responsable de la division Grand Public de Kaspersky Lab.

« Il est important de préserver un juste équilibre entre une relation transparente et sincère et la sécurité de notre univers numérique personnel. Un bon point de départ est d’avoir un dialogue franc avec son partenaire afin de fixer les limites de la vie privée, lesquelles peuvent être protégées par les fonctionnalités des produits Kaspersky Lab. »
smartagriculture



ericdosquet
Avis d’expert par Eric Dosquet, Chief Innovation Officer d'Avanade

Tout le long du XX siècle, l’agriculture s’est transformée pour nourrir une population mondiale toujours plus nombreuse. Aujourd’hui centrée sur le défi essentiel, celui de nourrir 9 milliards de terriens d’ici 2050, c’est tout le système avec son environnement, ses outils et ses pratiques, qui vit une révolution. Certes, il s’agit de produire plus, mais surtout produire mieux et avec moins. Comment ? En passant du tracteur à l’Internet des Objets, au big data, à l’intelligence artificielle et autres pratiques innovantes pour devenir un écosystème « smart » : intelligent, collaboratif et durable.

Contrairement aux idée reçues, l’agriculture est une des filières les plus ouvertes à la technologie. La Smart Agriculture est un ensemble d’outils, de concepts et de pratiques qui favorisent une croissance économique des exploitations - coopératives agricoles et leur compétitivité, le tout dans le respect des ressources environnementales et des hommes. Face à une agriculture conventionnelle controversée et centralisée, cette nouvelle agriculture accompagne la mutation de la société aussi bien dans ses valeurs de partage, de collaboration, de durabilité, que dans ses outils, numériques et connectés. Deux branches d’innovation peuvent être distinguées : des innovations physiques (robots, drones, capteurs, M2M, Internet des objets) et des innovations numériques (logiciels de gestion, plateformes collaboratives). Complémentaires et interdépendantes, ces innovations prennent en charge différents aspects du travail agricole : le travail des sols, la gestion, la mise en marché, le matériel agricole, la mutualisation des investissements, etc.

Cependant, comme dans d’autres secteurs économiques, la plus grande innovation et le principal outil de l’agriculteur moderne sera la donnée, la meilleure méthode – la collaboration peer-to-peer. Faisons un point sur ces deux grandes tendances de la filière agricole.

La fertilité des terres passera aussi par la donnée

Il ne fait plus de doute que la bonne graine qui donnera la meilleure récolte de demain est la donnée. IBM Research estime à 90% la part des pertes de récolte dues à la météo : en alliant les modèles de prédictions météo aux techniques d’agriculture de précision, ces dégâts pourraient être réduits de 25%. L’agriculteur n’a donc pas d’autre choix que de devenir également dataculteur : il sèmera, cultivera et récoltera le biologique et le numérique.

Pour répondre à la demande croissante de la filière et démocratiser l’accès à l’innovation, de nombreuses solutions sont proposées par des acteurs technologiques. Des capteurs et objets connectés (puces intelligentes, implants, etc.) s’adaptent à une infinité de tâches quelle que soit la branche : limiter l’utilisation de pesticides dans les champs, les vignes et les vergers, surveiller l’activité des troupeaux et même des abeilles. Ainsi, les balances connectées conçues par la start-up Label Abeille se placent sous les ruches. Elles envoient des informations sous forme de tableau de bord en ligne permettant d’analyser les données à distance et ainsi effectuer un contrôle non-intrusif de la ruche.

Une des innovations les plus pointues participant à l’essor de la Smart Agriculture est l’utilisation des drones comme outil de récupération de données et d’aide à la décision. Précis, peu coûteux et polyvalent, le drone permet une meilleure connaissance des champs et de leur état en temps réel. Couplé aux données de prévisions météorologiques et d’épidémies de nuisibles, le drone permet d’optimiser l’utilisation de l’eau, réduire l’apport des pesticides, préserver la qualité du sol et optimiser le rendement. C’est ce que propose, par exemple, la start-up parisienne M-Cador avec son offre centrée sur l’analyse des données et des images pour en retirer l’information essentielle qui permettra de délivrer une réponse anticipée et précise, c’est-à-dire efficace, durable et peu onéreuse. Certes, l’aperçu aérien en temps réel reste l’élément le plus impressionnant des drones, mais c’est le service complet permettant d’analyser les données et d’en tirer des enseignements critiques qui constitue la véritable valeur ajoutée de ces drones aériens ou terrestres.

Collectées et transmises ensuite dans le Cloud, les données sur la température, hygrométrie de l’air et du sol, nombre de pieds au calibre, enherbement ou l’état sanitaire alimentent des logiciels de gestion agricole. Ces outils analytiques qui feront parler les données sont bel et bien au cœur de l’innovation digitale. Support nécessaire favorisant l’aide à la décision, ils permettent aux agriculteurs de gérer leurs machines à distance, mais surtout de moduler le travail sur la base de données fiables et en temps réel. À ce titre, la solution Fieldview développée par The Climate Corporation, fournit des données agronomes et météorologiques au niveau des parcelles agricoles afin de faciliter la prise de décision. L’agriculteur remplit un certain nombre de données concernant sa parcelle : superficie des champs, type de récolte, etc. Avec un accès mobile, le logiciel est consultable partout en temps réel. Les agriculteurs ont alors à disposition des données actuelles et futures concernant les conditions de leurs exploitations. Les décisions opérationnelles peuvent donc être prises à tout moment, en fonction des changements indiqués. L’agriculteur n’est alors plus un technicien du biologique et du chimique mais un travailleur augmenté, non plus isolé dans un champ mais au centre d’un monde numérique, le sien et celui de son écosystème.

Nouvelles pratiques collaboratives pour une meilleure rentabilité

Comme tout nouveau paradigme, la Smart Agriculture s’organise en réseaux, souvent de nature digitale. En complément des nouvelles pratiques agricoles, des plateformes collaboratives commencent à émerger avec comme maîtres mots « échange » et « communauté ». C’est l’occasion pour les agriculteurs d’améliorer la performance économique de leur exploitation agricole. Ainsi, Mimosa, première plateforme de financement participatif, est exclusivement dédiée à l’agriculture et à l‘alimentation. Dans une logique de co-farming, Wefarmup.com connecte les agriculteurs selon leur proximité géographique pour faciliter l’échange et la mutualisation de matériel agricole. L’algorithme de comparateuragricole.com leur permet de vendre leur production au meilleur prix, tandis que La Ruche qui dit Oui supprime les intermédiaires et favorise la consommation locale.

Les nouvelles pratiques du numérique dans l’agriculture vont devenir courantes dans cinq ans, il faudra attendre de 15 à 20 ans pour voir leur adoption se généraliser. A quoi ressembleront les agriculteurs de demain, ces 0,1% de la population travailleront-ils encore (et toujours) la terre ? Ces hommes et ces femmes s’appelleront toujours fermiers et agriculteurs, héritiers et passeurs d’une tradition fondatrice du néolithique, même si presque tout le travail physique lié aux semailles, au contrôle antiparasitaire et à la récolte, sera effectué par des robots, monitorés par une multitude de capteurs, et ce sous le soleil brûlant et même sous la pluie. Leur travail consistera à superviser et coordonner ces nouveaux employés, mais surtout « sentir » et « communiquer » avec la terre ou anticiper quel produit suscite(ra) le plus d’envie chez ses consommateurs. L’avenir de l’agriculture n’est plus dans le « travailler dur », mais dans « travailler smart ».
iotvalley


Le futur campus de l'IoT Valley dédié à l'internet des objets est en route. Lundi 19 février 2018, à la Préfecture de la Haute-Garonne, la SCI IoT Valley, constituée majoritairement de l’IoT Valley et de la LRA, Société d’Economie Mixte de la Région Occitanie / Pyrénées-Méditerranée, a déposé le permis de construire du premier lot de 27000 m2 de son vaste programme immobilier portant sur une surface totale de 85 000 m2 à Labège, près de Toulouse.

Ce premier ensemble regroupera des espaces de bureaux et de co-working, une agora modulable, des lieux de formation, des parkings, 1 000 m2 de commerce ainsi qu’un hôtel de 140 chambres. Il a vocation à accueillir tous les membres qui forment l’écosystème unique de l’IoT Valley : des start-up, notamment le siège de Sigfox, des grands comptes et ETI, des FabLabs et organismes de formation, ainsi que son accélérateur de start-up « Le Connected Camp ». Un projet novateur et d’envergure qui s’inscrit dans la vision de Ludovic Le Moan, président-fondateur de l’IoT Valley et CEO de Sigfox.

« C’est une étape clé que vient de franchir l’IoT Valley dans son développement. Depuis deux ans, nous ouvrons plus de 2 000 m2 de surface tous les six mois, le dépôt du permis de construire augure d’ores et déjà de bonnes perspectives ! Ce premier ensemble pourra dès 2021 accueillir 1 300 personnes. Quand on connait les contraintes en termes de sécurité de bâtiment, c’est un vrai challenge de pouvoir héberger sur un même site du tertiaire, des commerces, des parkings et de l’hôtellerie » se félicite Nathalie Fabre, Directrice du Projet Immobilier de l’IoT Valley, qui travaille depuis maintenant 2 ans en étroite collaboration avec les équipes du Cabinet d’architecture Jean-Paul Viguier afin de définir le visage de la future IoT Valley.

Première pierre en fin d'année

La Région Occitanie soutientce projet d’immobilier d’entreprises, jugé particulièrement structurant pour le territoire. En effet, la Région souhaite l’émergence de cette filière et de ce projet, pour lequel le montant des travaux est aujourd’hui estimé à plus de 30 M€, en dotant la SEM régionale LRA de moyens financiers importants afin de porter ce premier bâtiment, avec d’autres opérateurs.

Le permis de construire va être instruit dans les prochaines semaines. La pose de première pierre est programmée dans le courant du 4ème trimestre 2018.

L’étape suivante portera sur la constitution d’une société dédiée au portage de ce premier bâtiment avec un tour de table actuellement en cours de discussion.


Par Edouard Beaucourt, Directeur France & Europe du Sud, chez Tableau


De plus en plus d'entreprises transfèrent données et applications principales vers le cloud. Elles adoptent le cloud très rapidement : optant pour le « lift and shift » ou pour le « re-platforming ».
Les entreprises ont vite pris conscience qu'une solution cloud unique ne peut pas répondre à leurs futurs besoins. Aussi, en 2018, leur stratégie sera progressivement axée autour d'un modèle multi-cloud.  Gartner prévoit que l'approche multi-cloud deviendra la norme pour 70 % des entreprises d'ici 2019, contre à peine 10 % à l'heure actuelle.
Toutefois, l'adoption de cette tendance doit s'accompagner d'une prise de conscience lucide des bénéfices et des difficultés impliqués par la migration vers ce type d'environnement. Même si l'approche multi-cloud offre une plus grande flexibilité, elle peut augmenter les coûts car elle implique de répartir la charge de travail de l'entreprise entre plusieurs fournisseurs. Les gains en termes de fiabilité et de temps de disponibilité sont des points forts, mais la gestion de plusieurs environnements cloud risque de disperser le service informatique.
Les entreprises doivent donc peser le pour et le contre de ces deux courants de pensée pour réussir leur déploiement multi-cloud :

Avantage n° 1 : opter pour le fournisseur le plus performant
Les entreprises craignent de plus en plus d'être confinées à une solution existante unique. C'est pourquoi l'évaluation et la mise en place d'un environnement multi-cloud peuvent les aider à déterminer le fournisseur dont les performances et la prise en charge conviennent les mieux à leurs besoins spécifiques. L'entreprise GE, par exemple, a revu sa stratégie d'hébergement cloud pour exploiter à la fois Microsoft Azure et Amazon Web Services. Son intention était de comprendre quel environnement d'hébergement était le plus performant et de voir quel contrat lui permettait de minimiser les coûts répercutés sur les clients. En fin de compte, les entreprises peuvent tester plusieurs technologies de différents fournisseurs avant de faire leur choix. Elles sont ainsi sûres d'acquérir la solution qui leur convient le mieux et au meilleur prix.

Inconvénient n° 1 : augmenter ses coûts et réduire son pouvoir d'achat 
L'adoption d'une stratégie multi-cloud peut diminuer le pouvoir d'achat d'une entreprise. Si elle répartit ses achats entre plusieurs fournisseurs, elle ne peut pas profiter d'économies d'échelle. L'entreprise risque donc d'acheter moins, pour plus cher. En outre, les coûts peuvent augmenter, car dans ce scénario, le service informatique travaille avec plusieurs fournisseurs de services cloud au lieu de se consacrer à une plateforme cloud unique.

Avantage n° 2 : gagner en fléxibilité 
L'approche multi-cloud offre une plus grande flexibilité aux entreprises en permettant au service informatique de concevoir un cloud réellement adapté à leurs exigences. A titre d'exemple, un fournisseur de services cloud peut proposer de meilleurs contrôles de sécurité que ses concurrents, tandis qu'un autre prestataire peut se vanter d'offrir une architecture avec un plus haute disponibilité. En utilisant plusieurs clouds, les entreprises ont la possibilité de choisir l'option de déploiement la plus adaptée à une grande variété de tâches informatiques en combinant les atouts de ces différents clouds pour atteindre leurs objectifs commerciaux.

Inconvénient n° 2 : comprendre le fonctionnement et gérer différentes plateformes 
Il faut déjà beaucoup de temps et de ressources pour se familiariser avec une plateforme cloud unique. L'utilisation de plusieurs environnements cloud, ayant chacun leurs complexités, peut donc s'avérer vite problématique. Les ressources mobilisées ont, en effet, moins de temps à consacrer à d'autres tâches comme la création de nouvelles fonctionnalités informatiques ou la gestion du service client. Qui plus est, si un environnement multi-cloud n'est pas surveillé et contrôlé correctement, les problèmes opérationnels commencent à s'accumuler et créent des obstacles à la gestion du contrôle des accès et des mises à jour de sécurité. Un environnement multi-cloud efficace nécessite donc une planification et une allocation des ressources poussées, car les équipes de développeurs internes doivent maîtriser plusieurs plateformes et mettre en place des processus de gouvernance supplémentaires en fonction des différents environnements à prendre en charge.

Avantage n° 3 : diminuer ses risques de temps d'arrêt 
L'utilisation d'une seule plateforme cloud peut s'avérer risquée, étant donné que la majorité des données est stockée au même endroit.  L'avantage avec une stratégie multi-cloud, c'est qu'en cas de panne ou de baisse de performances de l'une des plateformes cloud, les applications peuvent continuer à tourner sur une autre. Il est essentiel de prendre en compte la question de la fiabilité et du temps de disponibilité, car la diminution des risques de temps d'arrêt permet de booster la productivité et les performances globales des entreprises.

Inconvénient n° 3 : assurer la sécurité des données
La sécurité est une question importante lorsque l'on parle du cloud, et encore plus des environnements multi-cloud, car les données qui y sont hébergées sont sensibles. La complexité accrue que sous-tend l'approche multi-cloud peut entraîner davantage de problèmes de sécurité, surtout si l'environnement multi-cloud n'est pas géré de manière adéquate et si les mises à jour de sécurité ne sont pas appliquées correctement. En revanche, l'utilisation de plusieurs clouds peut réduire le risque de perte généralisée des données ainsi que les temps d'arrêt dus aux pannes matérielles. En combinant plusieurs clouds, les entreprises ont la possibilité de sécuriser leurs données sur un cloud privé et de mener d'autres activités dans un environnement cloud public. Enfin, avec un environnement multi-cloud, les équipes de développeurs internes doivent maîtriser plusieurs plateformes et mettre en place des processus de gouvernance supplémentaires en fonction des différents environnements à prendre en charge.

Comme tout porte à croire que l'approche multi-cloud va se généraliser en 2018, les entreprises vont devoir ruser en mesurant le degré d'adoption de chaque plateforme cloud, l'utilisation en interne, ainsi que le coût des exigences et de la mise en œuvre des charges de travail.  Afin de trouver la bonne solution pour son entreprise, il faut absolument commencer par peser le pour et le contre de cette tendance. 


Implanté à l’IoT Valley, écosystème spécialisé dans l’Internet des Objets à Labège, CityMeo,  spécialiste de l’affichage dynamique nouvelle génération, vient d'être lauréate du Pass French Tech Occitanie.

La société vise à simplifier la création, la publication et la diffusion de contenus interactifs sur tout type d’écran et permet ainsi une gestion et une animation plus fluides des parcs d’écrans connectés.
Intuitive, plug&play, multi-écrans, multi-utilisateurs, la solution CityMeo transforme tout écran en un redoutable outil de communication pour transmettre le bon contenu à la bonne audience au bon moment.
Les domaines d’application vont de la digitalisation des points de vente aux régies publicitaires, en passant par la communication interne des entreprises pour apporter des expériences et parcours clients toujours plus fluides.

CityMeo veut devenir le leader mondial des écrans connectés. Après avoir conquis 25 pays et connecté plus de 5 000 écrans, la start-up conforte sa présence européenne avec 2 ouvertures de bureaux prévues dans les mois à venir en Allemagne et au Royaume-Uni.

Créée en 2012, la start-up emploie actuellement 22 salariés et prévoie de doubler ses effectifs avant la fin de l’année. En 2017, CityMeo a réalisé un chiffre d'affaires d’1M€. Pour 2018, son CA prévisionnel est de 3,5M€.

Le Pass French Tech
Depuis sa création, le Pass French Tech a été accordé à une quinzaine d’entreprises toulousaines. Ces pépites sont reconnues pour leur hypercroissance et la qualité des innovations qu’elles proposent. Grâce à cette reconnaissance nationale, elles bénéficient d’un accompagnement privilégié auprès des partenaires économiques du Pass French Tech.
La prochaine vague de labellisation aura lieu en juin 2018. Les entreprises souhaitant déposer leur dossier de candidature sont invitées à l’envoyer avant le 15 mai 2018.
Lien dossier : http://www.digitalplace.fr/index.php/fr/pass-french-tech


Par Chrystelle Verlaguet, Directrice solutions dématérialisation et éditique Neopost France

La gestion administrative compte de nombreuses tâches chronophages et répétitives, mais indispensables pour les entreprises. 63% d’entre elles souhaiteraient gagner du temps sur ces process, et perçoivent la digitalisation comme une opportunité pour optimiser leur efficacité [1]. La transformation est déjà en marche : les nouvelles technologies volent au secours des entreprises et leur offrent une véritable valeur ajoutée dans la gestion de ces tâches.

Les tâches administratives, un challenge pour les entreprises                         

Pour beaucoup d’entreprises, la gestion de documents administratifs comme les bulletins de paie ou les factures représente un challenge. En effet, 47 % des salariés dédiés à cela estiment perdent du temps dans ces tâches répétitives2. Les sociétés cherchent donc à adopter des process plus efficaces. Cette gestion est d’autant plus fastidieuse que la réglementation pour la dématérialisation des factures envers l’État qui oblige les grandes entreprises et, depuis le 1er janvier 2018, les ETI, à passer par le portail Chorus, impacte fortement les services administratifs.

Les entreprises doivent alors gérer différents modes de diffusion de factures selon le secteur d’activité privé ou public de leurs clients. Une fois ce premier critère passé, elles sont confrontées à un autre obstacle : celui de l’hétérogénéité des formats (électroniques ou papiers) attendus par leurs clients privés. Vient ensuite la question du mode de réception : chaque entreprise a un canal de communication privilégié, et là encore, cela exige des formats multiples : email simple, portail web sécurisé, courrier, fax, etc. La diversification des pratiques oblige les services administratifs à consacrer plus de temps à ces tâches, à tel point que 45 % d’entre eux craignent des risques d’erreurs humaines liés à une confusion lors des envois de communications2. Une problématique qui ressurgit également pour d’autres tâches, comme la difficulté à retrouver les documents envoyés aux clients et partenaires ou le manque de visibilité et de traçabilité sur les envois non digitalisés.

Les nouvelles technologies, une solution pour alléger la gestion administrative des entreprises

La gestion administrative de documents nécessite plusieurs étapes : la production, la recherche et l’archivage. En revanche, la dématérialisation offre aux équipes un véritable gain de temps avec la mise en place de process automatisés et donc quasiment instantanés. Désormais, les nouvelles technologies permettent de fluidifier les tâches en favorisant une communication plus interactive et plus efficace.

En effet, le digital facilite les échanges et offre une meilleure traçabilité. Les entreprises ont accès à un suivi détaillé du traitement des factures en temps réel ainsi qu’à un meilleur pilotage : les circuits de validation préalable, l’envoi des factures et des relances sont facilités et automatisés, les délais de recouvrement sont réduits et évitent aux entreprises des pénalités financières parfois graves. En moyenne, chaque facture électronique représente un gain de 17 € par rapport à un format papier.

La dématérialisation a également un rôle à jouer dans la gestion des documents liés aux ressources humaines, comme les bulletins de paie ou les contrats de travail. Elle permet d’affranchir les entreprises des problématiques liées  aux envois papiers sans pour autant perdre en sécurité : plutôt que de transmettre les documents en main propre ou par courrier, il est désormais possible de le faire via des coffres forts électroniques sécurisés et de faire signer électroniquement les contrats en quelques secondes. Cela évite notamment la réimpression des bulletins perdus par les salariés. De plus, les délais d’acheminement sont fortement raccourcis et appréciables en particulier  quand il s’agit de faire signer un contrat de travail rapidement.

En France, sur 240 millions de bulletins émis chaque année, seulement 15 % sont dématérialisés2, alors qu’environ 80 % des salariés estiment important d’avoir une solution d’archivage alternative en cas de sinistre, et sont prêts à recevoir leur bulletin de paie dématérialisé sur un outil sécurisé en ligne2.

La gestion des documents se dématérialise de plus en plus. C’est une véritable opportunité pour les entreprises qui mettent un premier pied dans la digitalisation avec Chorus. Pour elles, les bénéfices liés aux nouvelles technologies sont certains, et amorcent une généralisation de la digitalisation  de leurs process dans les prochaines années.

1 Chiffres issus de l’étude Markess « Flux documentaires et Digital » 
2 Baromètre OpinionWay sur les entreprises françaises en matière de transformation digitale (juin 2017)


Proofpoint a analysé plus de 160 milliards d'emails envoyés à plus de 2 400 entreprises dans 150 pays. Voici les chiffres clés qui ressortent de l’Email Fraud Report de Proofpoint pour 2017

Cette année encore la fraude par email continue de monter en flèche. Déjà très répandue en 2017, la menace s’intensifie. Les experts Proofpoint ont constaté que les attaques ont touché un plus grand nombre d'organisations et de façon plus fréquente qu’en 2016. Le pourcentage d'entreprises visées par au moins une attaque a atteint un nouveau sommet avec 88,8 % au quatrième trimestre. Cela représente une hausse de 13,8 points par rapport aux 75,0 % des organismes visés au trimestre correspondant de l'exercice précédent.

En moyenne, les entreprises ont été ciblées par 18,5 courriels frauduleux par trimestre, soit une hausse de 17 % par rapport à l'année précédente. En volume, l'année s'est terminée avec deux des trois trimestres les plus importants jamais constatés pour ce qui est de la fraude par courriel.

Depuis le lancement de l’Email Fraud Report en 2016, Proofpoint n’a pratiquement jamais observé de liens entre la taille de l'entreprise et la fréquence à laquelle elle est la cible d'une fraude. Seul le deuxième trimestre 2017 a montré une corrélation chez tous les attaquants, ce qui révèle une légère préférence des attaquants pour des cibles plus larges.

Malgré les investissements importants des entreprises dans la sécurité, la fraude par courriel reste en hausse. Les cybercriminels sont de plus en plus innovants et passer souvent à travers les solutions de sécurité laissant les employés comme le dernière ligne de défense. De plus, ces tactiques de fraude par courriel changent constamment. C'est pourquoi une défense multicouche s’impose.
De gauche à droite : André Joly (SIMSOFT INDUSTRY), Virginie Monnier-Mangue (Déléguée Territorial EDF Occitanie), Marie-Anne Lissandre (ISYmap), Vincent Talon (TwinswHeel), Gilles Capy (Délégué Régional EDF Occitanie)


Pour développer son offre client à l’international, le groupe EDF a fait appel à des porteurs de projets innovants, à l’occasion de son premier appel à projet dédié qui s’est déroulé du 18 octobre au 8 décembre 2017.

Avec 156 candidatures, 19 finalistes, et 8 entreprises sélectionnées, ce premier appel à projets d’EDF Nouveaux Business a permis d’identifier les solutions les plus prometteuses. Parmi les 8 lauréats, on compte 3 sociétés d'Occitanie.

La société ISYmap (Instrumentation SYstems for mapping), basée dans le Gard, développe des systèmes de mesure et de cartographie innovants pour l’investigation de zones sensibles. Ces systèmes permettent de mesurer et de visualiser instantanément les informations associées, tout en restant à distance de la zone d’intérêt. Ses capteurs communicants, miniaturisés et géolocalisés sont couplés à un système de gestion des données.

SIMSOFT INDUSTRY est une start-up de l’intelligence artificielle française, basée à Labège près de Toulouse, qui développe des assistants vocaux intelligents pour les techniciens de l’industrie 4.0. La solution présentée dans la catégorie Elaboration et actualisation du dossier de connaissance est l’outil DIVA (Dismantling Intelligent smart Voice Assistant). Il s’agit d’un assistant vocal intelligent dédié aux techniciens du nucléaire intervenant en milieux complexes, pour les aider dans la formalisation de rapports d’interventions à chaud, et dans la structuration d’observations qualitatives liées à leur expérience.

Enfin TwinswHeel, basée à Cahors et à Lyon,  propose des solutions pour les techniciens en charge du démantèlement dans les tâches de transport. Ses droïdes permettent de seconder les ouvriers, et les techniciens dans leurs tâches de logistiques, les rendant plus libres de leurs mouvements. Ils peuvent ainsi se recentrer sur des tâches à plus forte valeur ajoutée.


A la fois fonds d’investissement et incubateur, EDF Nouveaux Business a prévu d’investir 40 millions d’euros dans 10 start-up d’ici à 2 ans.



Le toulousain IntuiLab, éditeur d’IntuiFace, la plateforme de création d’expériences digitales tactiles, annonce une levée de fonds de 3M€ auprès de IRDI SORIDEC Gestion, de M Capital Partners (investisseur historique), de business angels et d’un pool bancaire avec le concours de Bpifrance.

Grace à cette levée de fonds orchestrée par la banque d’affaires Avolta Partners, l’objectif d’IntuiLab, qui réalise plus de 90% de son chiffre d’affaires à l’international, est de devenir le leader mondial sur le segment de l’affichage dynamique (Digital Signage) interactif.

Par ailleurs, la société se renforce avec l’arrivée de Jacques Soumeillan, fondateur de Cameleon Software, cédé à PROS Inc. en 2014, au poste de Président.

La société Intuilab avait effectué une levée de fonds de 1,2 million d'euros auprès de Midi Capital et Wiseed en octobre 2011.


Deux nouvelles start-up toulousaines viennent d'être labellisées par le Pass French Tech, vient d'annoncer l'incubateur DigitalPlace.

Premier lauréat, Syntony. La start-up, spécialisée dans radionavigation, a mis au point un récepteur GPS IoT permettant de réaliser des trackers GPS offrant 10 ans d’autonomie, ainsi qu’une solution unique au monde permettant de se localiser avec tout récepteur GPS du commerce dans les tunnels, stations de métros et parkings souterrains, y compris avec Google Map.

Deuxième lauréat, Digicall. La start-up est experte en solution SAAS et accompagnement de la relation client. Elle propose notamment une solution permettant d’identifier et d’analyser les appels entrants provenant de sources online et offline.

Déjà présentes à l’international, ces 2 entreprises souhaitent continuer leur développement.

Depuis sa création, le Pass French Tech a été accordé à une quinzaine d’entreprises toulousaines. La prochaine vague de labellisation aura lieu en Juin. Les entreprises souhaitant déposer leur dossier de candidature sont invitées à l’envoyer avant le 31 Mai 2018.



Le Parlement européen a voté ce mardi 6 février en faveur du Règlement interdisant le géoblocage injustifié. Les acheteurs en ligne bénéficieront désormais d'un accès transfrontalier plus large aux produits, aux réservations d'hôtel, aux locations de voitures ou aux billets de concert.

Par exemple, un internaute français qui voulait commander un livre rare sur un site d'e-commerce allemand était systématiquement éconduit vers la version française du site où le livre n'y étais pas. Ce type de redirection est désormais terminé.

Beaucoup d’eurodéputés ont salué ce pas en avant vers un marché numérique plus harmonisé. "Trop souvent, les acheteurs en ligne faisaient face à des refus de vente ou à des conditions d’achat différentes lorsqu’ils souhaitaient acquérir des biens ou des services dans un autre État membre. Ces pratiques, bien que contraires au principe de non-discrimination essentiel au fonctionnement du marché intérieur, n’étaient que rarement sanctionnées", explique Virginie Rozière, eurodéputée Radicaux de gauche du Sud-Ouest, chargée de ce dossier pour le groupe S&D.

Un approfondissement de l'harmonisation européenne

"Malgré les tentatives des conservateurs, toujours prompts à vouloir faire d’Internet une zone de non droit, les consommateurs continueront de bénéficier d’un niveau équivalent de protection de leurs droits qu’ils achètent en ligne ou hors ligne. Car si Internet bouleverse nos modes de consommation et nos habitudes, il ne doit pas être un moyen de revenir sur des règles qui nous protègent", poursuit la parlementaire qui ajoute "le travail sur ce texte nous a démontré qu'au-delà de la simple logique consistant à interdire les discriminations il faut se poser la question d'un approfondissement de l'harmonisation de nos législations afin de clarifier et sécuriser les situations. J'espère que la Commission aura à cœur d'avancer en ce sens à l'avenir.

Pour les Vert, le texte ne va pas assez loin

En revanche, en dépit des avancées, certains eurodéputés estiment que le texte ne va pas assez loin, à l'instar de Pascal Durand, Vice-Président du  groupe Verts / ALE. ""En excluant les contenus numériques pour lesquels la plupart des consommateurs expérimente le géo-blocage, cette réglementation n'atteint pas l'objectif qu'elle s'était fixé. Les consommateurs sont confrontés le plus souvent à la mention "non disponible dans votre pays" pour les vidéos, la musique, les ebooks et les jeux en ligne. Il est donc profondément frustrant que les États membres aient refusé d'inclure ces contenus dans le règlement. Cette position ne nie pas seulement l'expérience quotidienne des consommateurs en ligne, en particulier celle des locuteurs de langues minoritaires, elle s'oppose à la position adoptée par le Parlement européen l'année dernière", explique Pascal Durand.

"Bien que ce soit une occasion manquée de mettre véritablement un terme au géo-blocage, il y a quelques avancées pour les consommateurs dans l'accord final", reconnaît toutefois Pascal Durand.


L'institut IDATE DigiWorld, basé à Montpellier, publie ce mardi 6 février sa base de données des marchés de l’IoT (Inyternet of thongs, internet des objets) couvrant les plus grands marchés en Europe et dans le monde (dont le Brésil, les Etats-Unis, la Chine, le Japon…) et 14 marchés verticaux (agriculture, industrie, automobile, électronique, utilities, logistique, transport, commerce, smart home, smart city, sport, santé, communication, etc.).

35 milliards d'objets connectés en 2030

"Nous prévoyons un taux de croissance de 10% par an, pour atteindre un parc de 35 milliards d’unités en 2030", explique Samuel Ropert, Lead analyst IoT "avec une zone Asie-Pacifique particulièrement dynamique puisqu’elle représente à elle seule déjà 48% du marché total en 2017. A tel point que nous nous attendons à voir la Chine passer devant les Etats-Unis en 2021."

En Europe, l'Allemagne en tête devant la France

En Europe, l’Allemagne prend le leadership grâce à ses positions fortes dans l’automobile, et l’industrie (notamment via l’initiative publique Industrie 4.0). Le Royaume-Uni se distingue particulièrement dans les secteurs du smart metering et de la sécurité. L’Italie se distingue par un leadership sur le marché du smart metering (lancé bien avant ses voisins Européens) suivi par la France et l’Espagne.

Il est donc encore impossible de parler d’une prochaine maturité des marchés, d’autant que les différences sectorielles sont encore très fortes : le marché des Utilities (énergie, eaux…) est très en avance, porté par les réglementations nationales et les politiques publiques.

Encore balbutiant, l’automobile va devenir le second marché le plus important en 2030 porté par les réglementations (telle eCall en Europe) et bien sûr l’avènement des voitures autonomes.

Beaucoup d'attente sur la 5G


En terme de technologie, l’accès Wireless standardisé (comme le WiFi et le Bluetooth), déjà dominant en 2017, restera en tête en 2030, en raison du fort développement attendu des applications grand public (maison connectée, de sport/wellness et de gadgets électroniques) et bien sûr de son faible coût.

Mais c’est l’IoT cellulaire (via les normes NB-IOT, LTE-M et prochainement la 5G) qui devrait connaître la plus forte croissance (avec plus de 55% par an d’ici 2030), tandis que les technologies LPWA (LoRa, Sigfox) progresseront de 16% d’ici 2030.



Par Steve McGregory, Senior Director ATI Research chez Ixia

 Les pirates informatiques sont opportunistes. Au fur et à mesure que les constructeurs augmentent la puissance des matériels, ces dispositifs deviennent des cibles de plus en plus utiles pour les Botnets. Dans le même temps, les pirates informatiques recherchent les vulnérabilités des périphériques ou exploitent des applications et des périphériques mobiles Dès l’instant qu'un réseau n'est pas sécurisé.

Les Ransomwares ont permis de monétiser facilement ces vulnérabilités et ont eu comme effet secondaire de faire exploser la valeur des crypto-monnaies en raison de leur intérêt croissant. L'extraction de crypto-monnaies (cryptocurrency mining), qui consiste à confirmer des transactions en Bitcoin ou autre monnaies virtuelles, est parfaitement légal. Les développeurs d’applications mobiles recherchent des moyens de monétiser leur travail sur ce marché concurrentiel et l'extraction de bitcoin via ces applications est devenue une opportunité intéressante. Cependant, cette méthode de monétisation pose problèmes lorsque les utilisateurs ne savent pas que leurs appareils sont utilisés pour extraire de la monnaie numérique.

Les récentes poursuites judiciaires contre Apple, accusé de ralentir les performances des versions les plus anciennes de ses iPhones, pourrait devenir un précédent juridique dans le cadre de futures poursuites pour des affaires de « cryptocurrency mining ». Si un utilisateur peut poursuivre Apple en justice puisque son téléphone a été ralenti sans qu’il ne le sache, des développeurs qui installent des capacités minières affectant les performances et la durée de vie des batteries pourraient également être tenus responsables.

Non seulement cette menace est amenée à s’installer, mais elle est en train de devenir aussi présente que les ransomwares. Par exemple, des indicateurs fiables montrent que les pirates utilisent d’anciennes vulnérabilités plus pour miner de la crypto-monnaies après avoir initialement tenté une infection pour générer des bitcoins sans exiger de rançon. Au fur et à mesure que ce pool se rétrécit, les mineurs se concentrent sur l'extraction de la valeur par d'autres moyens, tels que l'utilisation du malware comme arme DDoS.

Bien que la malveillance de ce type d'applications mobiles et de navigateurs Web infectés fasse l'objet de débats, nous pouvons dire avec certitude que nous assistons à la naissance d'une nouvelle forme de malware. Et sans une stratégie robuste de sécurité et de surveillance, ainsi que la visibilité du réseau pour protéger les applications et les ordinateurs, on doit s’attendre à devenir les prochaines victimes du cryptocurrency mining.

L’extraction à l'ère du mobile

L'ère du mobile a créé une occasion pour les pirates de tirer le meilleur parti des logiciels malveillants destinés à miner de la crypto-monnaie. Cette pratique nécessite de la puissance CPU pour générer de la valeur, de la puissance de traitement de données et consomme de l'électricité, trois besoins qui coûtent de l’argent.

Les recherches montrent qu'il existe de nombreuses applications Android malveillantes qui circulent actuellement sur Internet. Parmi elles, certains crypto-mines ont réussi à contourner les filtres pour intégrer le Google Play Store. Une récente analyse sur les malwares visant les mobiles a conduit les chercheurs à identifier un certain nombre de portefeuilles de crypto-monnaie et de comptes appartenant tous à un même développeur russe, lequel affirme que son activité est parfaitement légale pour faire de l'argent.

Dans le domaine de l'industrie, nous avons un point de vue totalement différent et nous considérons que le minage de crypto-monnaies est un détournement du dispositif d'un utilisateur. Bien qu'il soit techniquement légal que l'extraction de crypto-monnaies soit divulguée, ces actions sont délibérément trompeuses et manquent souvent de transparence.

Nous avons été témoins de l'utilisation de mineurs intégrés à des applications légitimes, disponibles sur l’Android Store, et qui sont utilisés pour extraire de la valeur à partir de téléphones mobiles, lorsque leurs propriétaires ne les utilisent pas. Au cours des derniers mois, il y a eu plusieurs cas de pirates exploitant des crypto-monnaies, même une fois que la fenêtre de navigateur était fermée.

Parmi les autres méthodes qu’utilisent les pirates pour déployer des mineurs de crypto-monnaies, on retrouve l'utilisation des forcers bruts Telnet/SSH, ainsi que l'injection SQL et l'installation directe des mineurs. Le crypto-minage, qu’il s’opère via les navigateurs ou les applications mobiles, va persister, de telle sorte que les entreprises concernées devraient améliorer leurs performances de sécurité, en apportant une visibilité et un contexte au niveau des applications à leurs outils de surveillance.

Plus d'appareils, plus de minage

Alors que de nouvelles menaces de sécurité émergent chaque semaine, il y a de fortes chances pour que d'autres périphériques soient rapidement infectés par des malwares de cryptocurrency mining. L’accroissement de la présence de dispositifs IoT va créer de nouvelles cibles pour les mineurs de crypto-monnaies. Nous pourrons également voir des attaques hybrides qui s’appuient d’abord sur un ransomware puis sur un crypto-mineur, afin de profiter deux fois d’une même attaque sur chaque ordinateur.

La plupart de ces attaques se produisent à la périphérie du réseau. L'une des attaques les plus fréquentes qui tente d'installer des crypto-mineurs est la vulnérabilité EternalBlue. Celle-ci a permis le développement de ransomwares comme WannaCry et Not-Petya. Et alors que les pirates n'utilisent pas de nouveaux outils ou de méthodes avancées pour déployer ces mineurs de crypto-monnaies, ils rencontrent quand même du succès. Par conséquent, les entreprises doivent avoir une stratégie réactive de gestion des correctifs, s'assurer que leurs règles IPS sont à jour, effectuer des tests pour s'assurer qu'elles peuvent détecter les vulnérabilités qui ne peuvent pas être corrigées immédiatement, et enfin, surveiller le trafic réseau pour identifier le trafic d'exploitation de chaque poste.

Si les organisations n'ont pas d'informations sur leurs réseaux, elles ne sont pas en mesure de savoir si leurs terminaux exploitent de la crypto-monnaie sans autorisation, divulguent des données en cas de brèche ou diffusent des malwares en interne. La mise en place d'une solution de surveillance du réseau les alertera dès le début d’un compromis en montrant un changement dans la configuration du trafic réseau.


C'est un projet étonnant que mènent les élèves de la spécialité «Systèmes Robotiques et Interactifs» (SRI) de l’UPSSITECH, école d’ingénieur de l’Université Toulouse III – Paul Sabatier : la conception d'un robot interactif nommé Ziggy, pour le compte de l'éditeur toulousain Eurécia, spécialisé dans les logiciels de gestion administrative du personnel et de ressources humaines (RH).

L'idée est de développer l’usage du robot français Ziggy en entreprise pour améliorer la communication et la gestion des ressources humaines. Le petit robot peut ainsi assister les services RH et communication dans leurs missions, et contribuer ainsi à créer un environnement propice au bien-être des collaborateurs.



Les étudiants ont planché cinq mois sur le sujet et conçu un premier prototype, dans le cadre du Projet de Grande Envergure (PGE) de la formation de 3e année SRI, au cours duquel les étudiants de dernière année (niveau bac+5) apprennent à gérer toutes les facettes d’un projet industriel.

"L’enjeu principal est d’humaniser le robot, et le doter de la capacité de pouvoir interagir de manière naturelle, fluide et intelligente. Il pourra notamment apporter son soutien aux collaborateurs d’Eurécia pour l’accueil des visiteurs, sonder l’humeur des salariés, aider à l’organisation des événements, identifier le bon interlocuteur pour un projet", expliquent les deux partenaires.

Un modèle de robot qui cartonne au Japon



Le robot toulousain Ziggy est issu d'une modification du robot humanoïde Pepper. Commercialisé par la société Softbank Robotics, ce robot est déjà déployé auprèsd du grand public. "Plus de 140 magasins SoftBank Mobile au Japon ont intégré Pepper comme une nouvelle manière d'accueillir, d'informer et de divertir les clients. Depuis peu, Pepper est aussi le premier robot humanoïde qui a rejoint les foyers japonais", explique le constructeur.

Pepper peut reconnaître un visage, parler, entendre ou se déplacer de manière autonome. Il est surtout personnalisable et peut donc être programmé pour des utilisation très particulière, ce qu'ont fait les étudiants toulousains.

Eurecia et la spécialité «Systèmes Robotiques et Interactifs» de l’UPSSITECH présenteront Ziggy le 23 février prochain.




HiPay analyse les transactions réalisées en France auprès d’une centaine de e-commerçants utilisant ses services. Pour ce faire, HiPay fait appel à son outil d'analyse des données : HiPay Intelligence. L’étude porte sur la comparaison entre les 8 premiers jours des soldes d'hiver en janvier 2017 et en janvier 2018.



  • Le panier moyen global sur la période 2017 était supérieur de 4,49 € à celui de 2018 (87,97 € vs. 83,48 €). La tendance suivit par le panier moyen est la même en 2018 et en 2017 : une baisse abrupte de 11 € du panier moyen, suivie d'une phase de croissance sur les 4 jours suivants, avant de connaître une évolution irrégulière sur les 3 derniers jours. HiPay constate que la valeur du panier moyen global en ligne est moindre sur la première semaine des soldes d'hiver 2018 par rapport à 2017, cela s'explique en partie par la plus grande variance du montant du panier moyen chez les marchands.


  • Cette baisse du panier moyen est à relativiser car le volume de transactions enregistrées sur la période 2018 est globalement supérieur à celui de la même période sur 2017. Malgré la baisse du panier moyen, le chiffres d'affaires global des marchands est plus élevés en 2018 qu'en 2017, notamment grâce à un volume de transactions autorisées en forte hausse.
  • En matière de volume de transactions autorisées, HiPay remarque la même tendance globale sur 2018 et 2017, à savoir un fort pic dès la première journée. Ce pic représente la journée la plus dense en termes de transactions de la première semaine de soldes 2018 comme 2017.
  • HiPay note un léger creux dans le boost d'activité procuré par les soldes sur les 2ème et 3ème journées qui se matérialise par deux chutes successives de 28 % puis de 21 % du volume de transactions autorisées, soit un volume de transactions 43 % plus faible que le 1er jour des soldes. HiPay observait le même phénomène en 2017 de façon légèrement moins intensive.
  • Les 4ème et 5ème jours, soit le 1er weekend des soldes, constituent une période de second souffle portée par une croissance stable et régulière. HiPay notait également ce second souffle en 2017, mais toutefois avec des performances plus mesurées.
  • Sur les trois derniers jours de soldes, HiPay observe une baisse de 10 % du volume de transactions sur le 6ème jour de soldes, puis une stagnation.


Par David Chassan, Chief Communications Officer, Outscale

A l'ère de l'expérience client et au-delà de l'économie collaborative, le Cloud a créé un nouveau paradigme, celui de l'innovation agile. Ses atouts : un accès permanent aux toutes dernières technologies informatiques, une garantie de sécurité et de protection des données et enfin des ressources élastiques, contrôlées automatiquement par l'entreprise, et facturées à l'usage.

Depuis quelques années, les nouveaux usages informatiques ont transformé notre quotidien. Cette révolution a été possible parce qu'un changement de paradigme s‘est produit sur le plan de l'accès aux ressources informatiques. Grâce au Cloud, des start-ups comme AirBnB, Uber ou Blablacar, avec leurs applis centrées sur l'expérience client, ont pu innover de manière agile et convaincre des millions d'utilisateurs. A la recherche des mêmes dynamiques de croissance et d'agilité, des entreprises ont basé leur transformation numérique sur ce modèle. C'est ainsi que le Cloud est devenu la fondation sur laquelle se développent de plus en plus de produits et de services innovants. Trois atouts clés ont permis cette réussite.

Un accès aux dernières avancées technologiques facilité
Selon IDC, les dépenses en services de cloud public sur la période 2015-2020, ont progressé de 21,5%. Ce chiffre représente près de sept fois le taux de croissance globale des dépenses informatiques. Les dépenses en Cloud en mode IaaS (Infrastructure as a Service), quant à elles, ont augmenté de 31% en 2016 en passant de 16,8 milliards de dollars à 22,1 milliards de dollars (Source Gartner). Avec le Cloud, les barrières à l'entrée liées aux investissements technologiques, qui limitaient la création et le développement des entreprises, ont volé en éclat. Jamais les acteurs économiques n'ont eu autant de moyens pour innover, avec des investissements initiaux aussi faibles. La fameuse courbe technologique, qui contraignait les entreprises à changer toute leur infrastructure informatique de manière régulière, est désormais révolue. Les fournisseurs Cloud investissent à leur place en permanence, dans des solutions basées sur les toutes dernières avancées technologiques. Mutualisation oblige, celles-ci profitent à tous.

Sécurité, protection des données et souveraineté
Néanmoins, dans un contexte où les cyberattaques sont de plus en plus sophistiquées, les avantages du Cloud ne seraient rien sans la garantie d'une sécurité optimale. Selon le cabinet Cyberventures, en 2016, plus de 4 milliards d'enregistrements de données ont été compromis, soit une augmentation de 556% par rapport à 2015. Peinant à recruter des experts en cybersécurité, les entreprises qui hésitaient à aller vers le Cloud y vont désormais pour être mieux protégées. Par ailleurs, avec l'imminence de l'entrée en vigueur du futur règlement européen sur la protection des données personnelles (RGPD), la notion de souveraineté des données est en train de s'imposer. A ce titre, dès Mai 2018, les entreprises devront assurer une protection sans faille des données personnelles des consommateurs. Si celles-ci sont hébergées par un tiers, elles devront justifier du recours à un acteur disposant de datacenters situés en Europe. Le choix du fournisseur est donc primordial et susceptible d'impacter la santé financière de l'entreprise, en cas de violation.

Des ressources automatiquement ajustables et facturées à la consommation…
Transformation numérique oblige, l'expérience client est aujourd'hui au cœur des modèles économiques. Le Cloud, parfaitement adapté à cette nouvelle ère, apporte la notion d'élasticité, indispensable pour permettre aux entreprises de s'adapter aux usages des consommateurs finaux, par définition variables selon les périodes de l'année et les moments de la journée. Les solutions Cloud les plus avancées offrent par exemple une interface de pilotage simple et puissante (API). Les entreprises peuvent ajouter elles-mêmes des ressources en cas de pic d'activité et les diminuer en cas de baisse. Cet ajustement est instantané et géré de manière automatisée. Les administrateurs réseaux et systèmes sont ainsi libérés des tâches répétitives et à faible valeur ajoutée. Cet avantage est décisif dans une période où les talents numériques sont rares et les experts informatiques précieux pour optimiser le lancement de projets innovants. C'est justement pour permettre cette fameuse agilité, également garante d'une exploitation optimale des ressources (la fameuse OPEX), que les services Cloud sont facturés à l'usage, parfois à la seconde près. Par ailleurs, le fait de disposer de nombreux datacenters, répartis en France et à l'étranger, permet à un fournisseur Cloud d'offrir des temps de réponses ultra-rapides, quel que soit la localisation des entreprises, et le cas échéant, de les accompagner dans leur internationalisation.

De par leur autonomie, leur auto-adaptation et leur avance technologique, les applications disponibles en mode cloud permettent aux entreprises d'accroître leur capacité d'innovation, avec des investissements initiaux réduits. C'est le temps du time-to-market. Ces dernières sont en mesure d'offrir une expérience client optimale, partout dans le monde, quel que soit le nombre d'utilisateurs connectés et ceci au meilleur coût. Un nouveau paradigme qui offre tellement d'avantages que les entreprises ne reviendront plus jamais en arrière. Vous êtes à la recherche d'agilité pour innover ? Alors, il ne vous reste plus qu'à choisir votre fournisseur Cloud !