Dans un contexte marqué par la multiplication des infox, notamment lors de l’incendie de Notre-Dame de Paris et des attentats survenus au Sri Lanka, l’institut BVA se penche ce mois-ci sur le rapport des Français aux fake news.

Les Français privilégient la télévision et Internet pour s’informer sur l’actualité

80% des Français déclarent privilégier la télévision pour s’informer sur l’actualité. Elle devance notamment Internet (64%), la radio (48%) et la presse papier (30%).
A propos de la confiance qu’ils accordent aux différentes sources d’information pour diffuser de l’information sur Internet, les Français placent en tête leur entourage (79%) et les médias traditionnels (75%). Les réseaux sociaux se placent en bas du classement (12%).

Une large majorité des Français ont déjà été confrontés aux fake news

Près des 3/4 des Français pensent avoir déjà été confrontés aux fake news (73%, stable) dont 23% qui déclarent avoir déjà été induits en erreur par ces informations (+5 pts).
Et 1 Français sur 4 déclare avoir déjà relayé une fake news auprès de son entourage ou sur les réseaux sociaux (24%).
Par ailleurs, 27% des Français consultent des contenus de fact-checking sur Internet, et près de 8 Français sur 10 croisent leurs sources (78%) afin de vérifier les informations qu’ils consultent.

Selon les Français, ce sont surtout les professionnels de l’information qui doivent agir contre les fake news

Près de 9 Français sur 10 estiment que la diffusion des fake news est un problème important (86%) dont 38% qui considèrent même qu’il s’agit d’un problème majeur.
De plus, 8 Français sur 10 pensent qu’il est du rôle du citoyen de signaler les contenus faux sur Internet (82%).
En dehors de l’initiative personnelle des citoyens, une majorité de Français jugent qu’il est principalement du ressort des professionnels de l’information d’agir contre les fake news (50%).
robots
Image de la série "Real Humans" diffusée sur Arte.


Par Alexis Vernières, Vice President, Sales - Italy, France & Iberia chez Kofax France.

Parmi les centaines de processus qui font tourner les entreprises, beaucoup - y compris le reporting financier et le traitement des factures - sont basés sur des données structurées et impliquent une série de tâches manuelles, répétitives à partir de documents papier. Cela en fait des candidates idéales pour l'automatisation robotisée des processus (Robotic Process Automation, RPA), que les organisations utilisent pour mettre en place des flux de travail plus efficaces, plus précis et plus rapides.

Mais ces robots "passifs" ne suffisent pas pour aider les entreprises à faire face à la concurrence croissante, à lutter contre l'inertie du statu quo et à concrétiser leurs projets d'automatisation. Pour cela, ils ont besoin d'une main-d'œuvre numérique du futur, composée de "robots intelligents", c'est-à-dire un ensemble d'outils basé sur l'intelligence artificielle incluant des fonctionnalités de l'Automation Intelligente (AI) tels que : l'automatisation cognitive de documents, le machine learning et le traitement automatique du langage naturel.

À vrai dire, la capacité de maximiser et d'élargir la portée et le degré d'optimisation des processus redéfinit le fonctionnement des organisations. Cette capacité à évoluer est essentielle si les organisations souhaitent optimiser et connecter leurs domaines d'activité et leurs opérations. La RPA à grande échelle signifie l'application de la RPA à tous les processus de l'entreprise allant du plus simple au plus complexe (données non structurées, gestion du travail entre les robots RPA et les employés, etc).

Les robots "passifs" font partie de la routine

La RPA est le premier pas vers l'automatisation, et il est capable d'automatiser des tâches humaines simples basées sur des données structurées. Au sein de flux de travail structurés, les robots RPA sont capables de prendre des décisions simples et ils maitrisent l'usage de plusieurs systèmes capables de rechercher, agréger ou mettre à jour des informations structurées. Cela inclut la capacité d'automatiser les informations d'entreprise en collectant des données de diverses sources externes et en augmentant les rapports de prévisions internes de base, permettant une meilleure compréhension de la situation commerciale.

Les robots « passifs » gèrent ces tâches plus rapidement et sans erreur, ce qui permet aux collaborateurs de se concentrer sur le travail " intellectuel ", plutôt que d'exécuter des tâches banales et répétitives. Cependant, si travailler plus vite, plus efficacement et avec plus de précision est un progrès, il n'en demeure pas moins qu'une routine dans le travail est toujours présente.

Le véritable obstacle pour travailler « comme demain » est l'information non structurée, dont le volume devrait augmenter considérablement. Selon un sondage réalisé par AIIM auprès de leaders mondiaux, les répondants ont déclaré qu'ils prévoient une croissance massive des données au cours des cinq prochaines années - voire cinq fois plus au cours des deux prochaines années seulement - et que jusqu'à 62 % de ces données seront non structurées. Cela pose problème, d'autant plus que 70 % de ces cadres dirigeants affirment que les données non structurées sont leur talon d'Achille lorsqu'ils se lancent dans la mise en place du RPA.

Un autre obstacle auquel sont confrontées les entreprises est l'automatisation à grande échelle. Les solutions RPA ponctuelles ou les robots "passifs" ne permettront pas aux entreprises d'adapter l'automatisation aux différents cas d'utilisation.

Des robots intelligents qui travaillent « comme demain »

Cela signifie que les entreprises doivent impérativement trouver un moyen d'automatiser les processus impliquant des informations non structurées, telles que les documents, les registres, les e-mails et les messages texte. Selon un sondage Forbes Insight, seulement 13 % des entreprises ont entièrement automatisé le traitement de textes non structurés. Et même si 59 % d'entre elles procèdent à l'automatisation pour gérer l'extraction de mots-clés ou l'analyse de sentiments, il leur reste une importante marge de manœuvre.

Il faut donc un ensemble d'outils RPA qui peut identifier, classer, lire et gérer des documents semi-structurés (comme des factures par exemple) ou non structurés (comme des contrats, des e-mails ou des textes). Les entreprises ont également besoin de flexibilité pour automatiser les fonctions sur plusieurs systèmes d'entreprise, sans pour autant avoir à mobiliser leurs équipes et leurs ressources informatiques.

La nouvelle génération de RPA possède des capacités avancées qui permettent aux entreprises d'automatiser de nombreux processus, de capturer et d'inclure des données structurées et non structurées pour fournir une meilleure connaissance du marché. Cela permet aux entreprises d'atteindre des objectifs tels que l'utilisation des données pour améliorer leurs produits et services, l'intégration complète des données dans toutes les applications et les environnements de cloud computing, et l'optimisation des opérations et des processus qui, grâce à une automatisation poussée, incluent des données métier de plus en plus complexes.

Les " robots intelligents " recourent à l'intelligence artificielle (IA) pour donner du sens aux données non structurées et semi-structurées, en traitant l'information à l'aide d'un ensemble d'outils comme le machine learning, le traitement automatique du langage naturel et l'analyse de sentiments. Ces robots logiciels de nouvelle génération peuvent également tirer parti d'analyses et de techniques de collecte avancées qui permettent non seulement d'extraire des données riches et pertinentes dans les processus métier, mais aussi d'analyser, de rapporter et de fournir des métriques avancées pour affiner les processus métier et atteindre des objectifs stratégiques. De ce fait, ils sont capables de réaliser bien plus que des tâches courantes ou de prendre de simples décisions.

La main-d'œuvre numérique de demain

L'automatisation robotisée des processus nouvelle génération inclut : l'orchestration des processus, l'automatisation cognitive des documents, les analyses poussées et les technologies de mobilité et d'engagement offrant une solution complète d'automatisation intelligente. L'automatisation intelligente est la main-d'œuvre numérique qui tire parti de l'intelligence artificielle pour gérer une grande partie du travail cognitif courant, comme la lecture de documents physiques, l'analyse des textes pour en identifier la tonalité, ou encore la synchronisation avec d'autres informations. Lorsque cette main d'œuvre numérique est en phase avec le talent humain, ce dernier peut rajouter au processus du contexte, de l'initiative, une vision stratégique, de la créativité et de la perspicacité. Ainsi, les robots intelligents fournissent des informations commerciales qui favorisent la prise de décision, en ajoutant une valeur significative à l'organisation. Selon un rapport d'Accenture, cette association d'un employé et d'un agent/robot logiciel, alimentée par l'automatisation intelligente, peut augmenter le chiffre d'affaire de 38%.

Avec la RPA et l'AI, les entreprises sont en mesure d'automatiser des actions simples basées sur les rôles pour travailler sur des systèmes existants, tout en déployant des robots intelligents pour résoudre les problèmes de la prochaine génération. Cette main-d'œuvre numérique de l'avenir permet aux entreprises de se décharger d'une autre couche d'implication humaine dans la gestion des tâches d'une manière qui leur permet de travailler « comme demain ».
startup


Les Trophées de l'Economie Numérique sont de retour pour récompenser les projets porteurs d'innovation qui ont pour objectif d'apporter des solutions numériques. Organisé par la Mêlée avec la CCI Occitanie, la Région Occitanie, les métropoles de Tooulouse et Montpellier et l'incubateur Nubbo, cet événement incontournable agit depuis plus de 16 ans sur toute la région et souhaite ainsi valoriser tous les projets du territoire Occitanie.

Plusieurs catégories sont en lice


Territoire et citoyenneté
Récompense une initiative, un projet ou une stratégie en faveur du développement d'un territoire et/ou au service du citoyen, du lien social, de la solidarité... Cette initiative peut utiliser le numérique, agir en soutien du secteur ou correspondre à un nouvel usage

Transition numérique et performance
Récompense une structure ayant déployé un usage numérique améliorant ou pouvant améliorer la performance, la compétitivité, l'organisation interne d'une entreprise ou d'un secteur d'activité principalement économique.

Croissance, rayonnement et potentiel international
Récompense une entreprise numérique dont la croissance, l'innovation, la performance permettent un rayonnement rapide, voire un développement international

Transition énergétique et technologies vertes
Récompense un projet, une innovation numérique, tourné vers les problématiques de la croissance verte.

Start-up
Récompense une jeune pousse, un jeune projet, innovant et particulièrement prometteur.

Sport Connecté
Récompense une structure agissant en faveur du développement du sport. Cette initiative peut utiliser le numérique, agir en soutien du secteur ou correspondre à un nouvel usage.

Pour candidater, cliquez ici.
cnil


Par Antoine Chéron, avocat associé, www.acbm-avocats.com

La moindre opération sur une donnée à caractère personnel est soumise à l’ensemble de la règlementation composée du Règlement général sur la protection des données et de la Loi Informatique et Libertés. La CNIL s’assure du respect de cette règlementation au titre de sa mission de contrôle mais également de sa mission de sanction. Il ressort récemment de son bilan d’activité de l’année 2018 non seulement une augmentation des plaintes mais surtout une certaine sévérité de sa part.

Il est nécessaire de préciser que la CNIL possède plusieurs flèches à son arc. En effet face à un manquement concernant la règlementation des données personnelles, elle peut dans un premier temps soit prononcer un avertissement, soit mettre en demeure afin que le responsable de traitement se mette en conformité.

Puis dans un second temps, la CNIL peut prononcer des amendes administratives. En vertu de la loi, les amendes administratives ne peuvent excéder dix millions d’euros ou 2% du chiffre d’affaires annuel mondial total sauf les cas prévus par le RGPD.
Depuis l’entrée en vigueur du RGPD en mai 2018, les professionnels et les particuliers sont d’autant plus sensibilisés concernant la protection des données à caractère personnel. En effet, selon le rapport d’activité de l’année 2018 de la CNIL, les plaintes adressées à celle-ci ont considérablement augmentées et les demandes d’information ont affluées.
En 2018, la CNIL a reçu 11 077 plaintes, soit 32% de plus comparé à l’année 2017, ces plaintes portant principalement sur la diffusion des données sur Internet et concernant le secteur marketing/commerce notamment la prospection par SMS et la publicité par courrier électronique. Par conséquent, non seulement les professionnels ont pris conscience de leurs obligations mais surtout les particuliers ont exercé leurs droits.

Désormais avec la logique d’auto-certification où le responsable de traitement doit prendre toutes les mesures nécessaires pour être en conformité et être capable de le démontrer, l’activité répressive de la CNIL a été renforcée en faveur de la sécurité des données.
Effectivement, durant l’année 2018, la CNIL a effectué 310 contrôles ce qui s’est traduit par 49 mises en demeure et 11 sanctions prononcées par la formation restreinte de la CNIL dont 10 pécuniaires.
Les montants de ces sanctions administratives ont considérablement augmentés. En effet, en 2017, la CNIL avait prononcé une amende administrative à l’encontre de Facebook de 150 000 euros alors qu’elle a prononcé récemment une amende pécuniaire contre Google de 50 millions d’euros pour manque de transparence et informations insatisfaisantes.

La nouvelle présidente de la CNIL, Marie-Laure Denis, a affirmé que la CNIL compte bien être plus sévère à l’encontre des entreprises et des organisations. Elle énonce que « la CNIL a volontairement fait preuve de patience et de tolérance car le RGPD est un changement profond. Mais même s’il est entré en application depuis seulement un an, le règlement a été adopté en 2016, il y a trois ans. Je considère qu’il faut désormais faire preuve de davantage de fermeté ».  Marie-Laure Denis a même affirmé que le montant de l’amende concernant Google est « inédit ».
Par conséquent, les enjeux de 2019 sont clairs, les professionnels doivent se mettent en conformité et être attentifs sinon les amendes administratives de la CNIL peuvent affluer prônant le contrôle et la répression à la « tolérance »…

Par Michele Imperiali, Product Owner chez Mega International

L’année 2019 s’annonce déjà, et de loin, comme l’année durant laquelle la protection des données personnelles sera au centre de l’attention. Cette tendance était déjà visible en 2018 quand, fin mai, Google enregistrait un pic de recherches lié au « RGPD ». Le nombre de requêtes était même plus élevé que celles pour Beyoncé ou Kim Kardashian !



Presque un an après la mise en application du RGPD, les scandales au sujet de la protection des données sont au cœur de l’actualité. Par exemple, en France, Google a écopé d’une sanction financière de 50 millions d’euros infligée par la CNIL.

Facebook a quant à lui attiré l’attention suite à l’annonce d’une possible fusion des plateformes de messagerie Facebook Messenger, WhatsApp et Instagram.

La question se pose donc de savoir comment peut-on garder le contrôle sur nos données personnelles ? Les plus sceptiques diront qu’il faudra tôt ou tard abandonner le droit à la vie privée. Mais, dans le même temps, la CNIL a enregistré un nombre croissant de plaintes, ce qui démontre que les utilisateurs exercent de plus en plus leur droit au contrôle de leurs données personnelles.




Alors que l’information est au cœur de la stratégie des entreprises, ces dernières ont tout intérêt à décider rapidement quels sont leurs objectifs en termes de protection des données et quel message elles souhaitent envoyer à leurs clients pour se différencier et en retirer un réel avantage compétitif.

Une étude menée par l’institut Forrester a révélé que 2019 serait l’année des investissements dans les logiciels permettant de répondre aux enjeux liés à la protection des données. Cela permettra d’assurer aux entreprises un meilleur contrôle sur la collecte, le traitement et l’utilisation des données.

Cette tendance témoigne d’une prise de conscience de l’écosystème. Le marché n’est plus disposé à accepter le manque de transparence et l’emploi abusif des données personnelles des utilisateurs. Au regard des investissements considérables qu’ils ont effectués ces derniers mois, Facebook et Google en ont bien conscience. Mais la situation est assez ironique quand on se souvient de Mark Zuckerberg qui, dans une interview de 2010, annonçait que la vie privée était morte !

Depuis quelques années, il est devenu évident que les entreprises ne peuvent plus continuer à mettre de côté la question de la protection des données. Une telle attitude représenterait une énorme menace pour leur business. C’est pourquoi Facebook, dès l’annonce de la fusion des services de messagerie, s’est empressée d’assurer que celle-ci se ferait en respectant à la lettre le RGPD.

Ce qui est certain, c’est que les autorités européennes de surveillance garderont un œil attentif sur cette opération. Facebook ne peut plus se permettre de scandale tel que celui engendré par Cambridge Analytica. Pour les utilisateurs en revanche, il n’y a qu’une chose à faire : attendre de voir ce qui se passera !

facebook


Selon les Rendez-vous de l’innovation réalisé par Odoxa en partenariat avec Saegus, SAP, Stratégies, BFM-Business, 01 net et l’Usine nouvelle, sur les GAFAM, Microsoft et Google dominent le classement, Facebook bon dernier.

Les principaux enseignements


Microsoft (81%) et Google (80%), entreprises les plus populaires des GAFAM. Plus en retrait, Apple (67%) et Amazon (65%) atteignent une popularité très honorable. Seul Facebook, avec 51% de bonnes opinions, est à la peine.


Abonnements vidéo (31%) et musical (18%), services numériques les plus utilisés par les Français.
31% de nos concitoyens utilisent les abonnements de vidéo à la demande et 5% comptent les utiliser prochainement. Le streaming musical se hisse en deuxième position avec 18% d’utilisateurs et 4% qui envisagent de s’y abonner prochainement.


37% des gamers français pourraient souscrire à la plateforme de jeux vidéo de Google


69% des Français croient en l’émergence d’un géant du numérique européen.

odoxa

odoxa

odoxa



Jeff Bezos
Par Arnaud Gallut, Regional Sales Director, Ping Identity

Plus tôt cette année, Jeff Bezos, le PDG d’Amazon, a mobilisé l’attention des médias lorsque certains de ses messages personnels ont été dévoilés publiquement. Certains ont suggéré que la fuite provenait d’un de ces proches, et d’autres ont affirmé que la manœuvre avait des motivations politiques et qu’il s’agissait d’une sorte de vengeance personnelle. Bien que l’attention des médias se soit concentrée sur pourquoi Jeff Bezos a été ciblé et par qui, ce qui devrait plutôt nous préoccuper à la fois à titre personnel et en tant que professionnels de la sécurité des données, nous inquiéter le plus, est comment sécuriser nos données en toute confiance. 

34% des consommateurs américains ont déjà vu leurs informations personnelles compromises
2018 Consumer Cybersecurity Study, FirstData


Même si la plupart des médias se sont concentrés sur le type d’informations publiées, nous ne pouvons oblitérer le fait que l’attaque contre Jeff Bezos constitue bien un piratage de données. Heureusement pour lui et pour Amazon, le piratage ne s’est pas étendu aux données de l’entreprise. Mais cela aurait pu se produire. Et le fait que le terminal personnel de Jeff Bezos ait été piraté pose des questions telles que : si l’homme le plus riche du monde peut être piraté, quel est le degré de vulnérabilité de vos employés, de vos clients et de vos fournisseurs ?

Lorsque vous considérez le nombre de terminaux utilisés pour accéder aux ressources de votre entreprise, ainsi que les types de données auxquels ils accèdent, vous pouvez aussi vous interroger sur le degré de vulnérabilité de votre entreprise.

Si cela vous inquiète, vous êtes au bon endroit. Vous découvrirez plus loin dans cet article :

  • Pourquoi vous devez donner la priorité à la sécurité de vos données.
  • Les trois endroits où vos informations personnelles sont les plus vulnérables.
  • Les six mesures à prendre dès aujourd’hui pour sécuriser vos données.


Pourquoi la sécurisation de vos données doit être votre priorité

La menace représentée par les piratages de données et les cyber crimes est bien réelle. Quasiment pas une semaine ne passe sans qu’une nouvelle entreprise ne subisse une attaque, dont l’impact en termes de coûts et chiffre d’affaires est souvent élevé.

En fait, le coût moyen d’un piratage de données pour une organisation atteint 3,86 millions de dollars, d’après l’étude Cost of a Data Beach 2018 du Ponemon Institute. Un chiffre qu’il est difficile d’ignorer. Même si estimez être une cible de faible importance, un piratage peut avoir pour vous de graves conséquences, peut-être même plus que cela. Manquant de la base de clients fidèles et des ressources dont bénéficient les grandes entreprises, les PME sont souvent plus impactées par un piratage en termes de pertes de revenus et de clients perdus.

60% des PME indiquent qu’un employé ou un fournisseur négligeant est à l’origine d’un piratage.
2018 State of Cybersecurity in Small and Medium Size Businesses, Ponemon Institute

Il va sans dire que la sécurité des données devrait être un impératif stratégique pour toute entreprise, quelle que soit sa taille. Vous devez mettre en place des mesures de sécurité qui sont à la fois rigoureuses – pour protéger votre entreprise de manière adéquate – et transparentes – pour garantir une pleine adoption des utilisateurs. Dans ces conditions comment être sûr que vous faites tout le nécessaire pour sécuriser vos données ? Les bonnes pratiques en termes de sécurité des données commencent au niveau individuel. Alors commençons par comprendre à quel moment vos informations sont les plus vulnérables.

Quand vos données personnelles sont les plus vulnérables


Les données personnelles risquent d’être détournées ou volées dans trois principaux endroits :

1.    Dans un site de stockage dans le cloud
Nous stockons de plus en plus de données et de contenus auprès de fournisseurs de stockage dans le cloud tels Microsoft Azure, AWS et Google Drive. Le stockage dans le cloud présente plusieurs avantages, dont l’accessibilité, le partage et la sécurité. Mais même si la plupart des données stockées dans le cloud sont cryptées, cela ne veut pas forcément dire qu’elles sont en sécurité.

2.    Pendant la transmission
Vos données ne sont pas seulement en danger lorsqu’elles sont stockées et gérées, mais aussi lorsqu’elles sont en mouvement. Avez-vous déjà envoyé un message personnel ou un email contenant des informations sensibles, comme le code de votre porte de garage ou votre numéro de sécurité sociale ? Tout ce que vous envoyez par email, y compris les photos et les fichiers, revient à envoyer une carte postale. N’importe qui peut voir son contenu s’il le veut vraiment.

3.    Sur le terminal du destinataire
Alors que les deux premiers endroits cités sont sous votre contrôle, le troisième ne l’est pas. Mais cela ne veut pas dire que vous pouvez l’ignorer. Si vous envoyez des informations personnelles et sensibles à un tiers, vous devez avoir confiance en ses propres mesures de sécurité. Même si vous faites tout ce qu’il faut de votre côté, une fois que vos informations sont détenues par quelqu’un d’autre, vous êtes à la merci de l’efficacité ses politiques de sécurité.

Comment renforcer la sécurité de vos données

Vous avez maintenant conscience de tous les dangers qui guettent vos données personnelles, et leur sécurisation peut vous sembler être d’emblée une bataille perdue. Ne désespérez pas, car quelques mesures simples peuvent toutefois vous protéger contre un piratage.


  • Cryptez vos données avant de les transmettre
    Pour garantir une confidentialité totale, vos données doivent être cryptées au préalable avant d’être transmises à un fournisseur de stockage dans le cloud. Ces derniers cryptent les contenus, mais s’ils détiennent les clés de ce cryptage, ces dernières peuvent être volées ou détournées à votre insu. En tant que protection supplémentaire, le mieux est donc de crypter les contenus localement avant de les télécharger dans le cloud. Cela garantit que tout piratage ou fuite accidentelle chez le fournisseur de cloud n’exposera pas vos contenus. Les systèmes d’exploitation de Windows et d’Apple contiennent des outils faciles à utiliser permettant de crypter les données en gardant le contrôle des clés de cryptage.


  •  Cryptez les données lors des transmissions
    Utiliser un tunnel crypté comme un VPN sur un réseau wifi public peut aider à prévenir tout piratage durant la transmission des données. En reprenant l’analogie de la carte postale utilisée plus tôt, ceci revient à envoyer un courrier recommandé. Il existe un grand nombre de services VPN à usage grand public disponibles sur le marché, tels Witopia, TunnelBear et NordVPN.
  • Faites des sauvegardes locales
    Pour les informations vraiment sensibles qui doivent être stockées, une sauvegarde locale est le meilleur moyen de garantir la confidentialité. La plupart des disques de sauvegarde sont livrés  avec des outils de cryptage qui garantissent la confidentialité des informations qui sont sauvegardées.


  • Réévaluez les règles d’utilisation des données
    Passez en revue la gouvernance des données et les règles de partage et d’utilisation de l’application que vous utilisez pour créer vos contenus et du service cloud où ces contenus sont stockés. Inspectent-ils vos contenus pour vous envoyer des publicités ciblées ? Combien de métadonnées sur vos contenus partagent-ils avec leurs partenaires publicitaires ? Quel contrôle avez-vous sur les données qu’ils collectent ou que vous partagez ? Quels sont vos droits sur vos données une fois que vous les avez téléchargées sur le fournisseur de cloud ?
  • Evitez les applications gratuites de sources inconnues
    Vous devez comprendre que les applications gratuites ne le sont jamais vraiment. Si vous ne payez pas pour le service, il y a de fortes chances que celui-ci utilise d’une manière ou d’une autre vos données pour gagner de l’argent. Restez à l’écart des applications suspectes et optez uniquement pour des applications bien connues provenant de sources fiables comme l’App Store, Google Play, etc.
  • En cas de doute, supprimez vos données
    Lorsqu’une information ne peut être trouvée ou n’existe pas, elle ne peut être volée ni détournée. S’il existe des données que vous voulez vraiment garder secrètes et inaccessibles, leur suppression est la précaution de dernier recours.

Respecter les recommandations énoncées plus haut vous aidera à renforcer votre posture de sécurité. Mais ne vous arrêtez pas là. Assurez-vous que le destinataire avec lequel vous avez partagé vos contenus a mis en place les mêmes mesures de sécurité. Dans le cas contraire, n’hésitez pas à le former sur les meilleures pratiques de sécurité.

Au bout du compte, il est difficile de tout contrôler. Nous devons faire attention aux données que nous partageons, à la façon dont nous les partageons et avec qui. Mais quel que soit notre degré de prudence, une fois que nos informations sont partagées avec un autre individu ou une autre entité, les sécuriser et les garder confidentielles devient une responsabilité partagée. Et vous n’avez pas besoin d’être un professionnel de la sécurité des données – ou Jeff Bezos – pour être conscient des enjeux.



Dans le cadre du grand débat national des quantités de données textuelles ont été produites. L’analyse manuelle de ces dernières est une tâche impossible à réaliser par des humains. Il faut donc se tourner vers l’IA, capable d’aider à la réalisation de cette mission tout en laissant l’humain effectuer l’analyse.
Geotrend, start-up toulousaine, qui a vu le jour au Bizlab d’Airbus en 2017, s’est penchée sur le grand débat national et en propose une analyse. L’étude réalisée par la startup toulousaine présente quelques résultats obtenus suite à l’analyse des comptes rendus des réunions locales qui se sont tenues. Les équipes de Geotrend ont fait le choix de travailler sur ce type de contributions car il s’agit de contenus en textes bruts, non catégorisés, synthétisant une réflexion de plusieurs personnes.
"Nous avons utilisé notre IA spécialisée dans l’intelligence économique pour lire ces documents et identifier les relations entre ces sujets complexes afin de permettre au lecteur de naviguer facilement dans les résultats" précise Thomas Binant.



L’Intelligence Artificielle de Geotrend a mis en avant 3 grands sujets :

  1. La démocratie et la citoyenneté est le sujet qui revient le plus à 40%
  2. Suivi par la transition écologique à 32 %
  3. Les sujets sur la fiscalité et les dépenses publiques ainsi que l’organisation de l’état et des services publics sont tellement proches qu’ils ont été fusionné par l’IA.

Sur sa plateforme, Geotrend met à la disposition des citoyens, gratuitement, les résultats de son analyse du grand débat national. Facile d’accès et rapide, elle leur permettra de visualiser et comprendre de manière simple et concise, les comptes rendus et les enjeux.

Sur sa plateforme, Geotrend met à la disposition des citoyens, gratuitement, les résultats de son analyse du grand débat national. Facile d’accès et rapide, elle leur permettra de visualiser et comprendre de manière simple et concise, les comptes rendus et les enjeux. Pour accéder aux résultats, rendez-vous sur : https://debat.geotrend.fr


Geotrend né au Bizlab d'Airbus

Le projet Geotrend a vu le jour au Bizlab d’Airbus en 2017. Ses résultants  étant concluants, la startup toulousaine éponyme est née en 2018. Geotrend développe une plateforme digitale d’exploration de Market et de Competitive Intelligence permettant d’apporter une vision globale, rapide et interactive de n’importe  quel marché.
La solution mise en oeuvre par Geotrend, basée sur des algorithmes d’Intelligence  Artificielle (IA) définis en interne, sonde le web à partir de simples mots-clés, analyse  et restitue en temps réel, et en seulement quelques minutes, le contenu textuel de milliers  de pages disponibles sur Internet. Grâce à une technologie disruptive, les analyses  se réalisent sans aucune configuration et de manière très simple.
La plupart des solutions basées sur l’IA demande en effet une configuration pour analyser  un texte, comme définir du vocabulaire ou classifier des mots. Cette approche est certes  très efficace, mais elle est souvent biaisée par le choix de la configuration qui a été choisie.  Geotrend a travaillé à développer une technologie qui ne demande aucune configuration, ce qui lui permet de traiter rapidement n'importe quel sujet. Elle n'interprète  pas les résultats et laisse l'utilisateur naviguer par lui-­même et faire sa propre analyse.
"Nous nous positionnons comme LE partenaire des recherches d’informations  stratégiques des entreprises.     Aujourd’hui, noyés sous une multitude de données trouvées  sur Internet, les analystes et décideurs passent plus de temps à rechercher l’information  qu’à l’analyser. Notre mission est d’inverser drastiquement cette tendance, d’aider  et accompagner les entreprises en vue d’une prise de décision rapide et efficace",  souligne Thomas Binant, CEO et Co-­fondateur de Geotrend.
Geotrend est aujourd’hui accompagnée par Nubbo, l’incubateur de startups toulousain.


Acteur de l’innovation crée en 2015 à Montpellier, évolt lance sa solution cloud « Design Suite » à destination des grands comptes, incubateurs, consultants et grandes écoles, pour accompagner la conception et le développement de projets. La « Design Suite » favorise l’intelligence collective et accélère le développement de projets, produits et services innovants.
« Penser une projet, concevoir un persona, définir un parcours autour de l’expérience vécue par un utilisateur, créer un moodboard inspirant,... les possibilités sont nombreuses et surtout évolutives, dans ce nouvel outil intuitif et ergonomique. C’était notre volonté première; rendre accessible à tous le Design Thinking», explique Jonathan Scanzi Président fondateur évolt.

Design Suite propose plusieurs outils pour définir ses cibles grâce à un persona de qualité, concevoir un storyboard de manière visuelle pour matérialiser l’expérience utilisateur, collaborer autour d’un moodboard pour présenter ses idées en toute simplicité, définir un parcours client, ou encore organiser un brainstorming d’’équipe. Le tout rapidement et simplement.

Un partenariat avec French IoT


Créée par Jonathan Scanzi en 2015, évolt, spécialiste du Design Thinking offre un conseil opérationnel en Design pour les grands groupes (Royal Canin,..) et les Start Up (MaSmartHome,..). évolt vient de signer un partenariat avec French IoT à l’occasion du lancement de la 5ème promotion lancée au mois d’avril 2019. French IoT est le 1er programme d’innovation start-up - grands groupes pour accélérer le développement des services connectés.
airbus


L'Institut National de la Propriété Industrielle (INPI) a comptabilisé 771 demandes de brevets venant d'Occitanie, publiées en 2018, soit 5,9 % des demandes publiées en France.

"Le TOP 15 représente la diversité des typologies de déposants en région Occitanie, avec quatre grandes entreprises (Airbus, Continental, Safran et Horiba ABX SAS), une entreprise de taille intermédiaire (Liebherr-Aerospace Toulouse SAS), six PME et quatre établissements d’enseignement supérieur et de recherche", indique l'INPI.



3 entreprises dans le Top 10 national

Enfin, la région Occitanie accueille trois PME du TOP 10 des PME national : Sigfox, Distraimed et Fogale Nanotech.
impot


Faire sa déclaration de revenus par internet peut vous exposer, comme toute activité en ligne, à la malveillance de cybercriminels. Tel est l'avertissement de Proofpoint, spécialiste de la sécurité informatique.

Recrudescence des campagnes de malware et de phishing

«Les experts Proofpoint ont en effet observé une recrudescence des campagnes de malware et de phishing (hameçonnage) élaborées pour dérober les données fiscales des particuliers. Une augmentation du nombre de RAT (Remote Access Tool, outil de contrôle à distance), est observée depuis 2018. NetWire, un RAT multiplateforme, a été particulièrement utilisé dans certaines cyberattaques via des pièces jointes et des emails contenant des fichiers Microsoft Office piégés», indique la société.

Les cybercriminels adoptent également des techniques d'ingénierie sociale, c'est-à-dire qu'ils se font passer pour le service impots.gouv.fr. De tels agissements s'observent aussi aux États-Unis ou en Nouvelle-Zélande.

«En finalisant leurs déclarations de revenus cette année, il est essentiel que les particuliers traitent avec prudence les appels téléphoniques non sollicités, les emails, les sms ou messages diffusés via les réseaux sociaux. Leur déclaration doit se faire directement auprès des organismes fiscaux par des voies fiables», explique Kevin Epstein, vice-président de l'exploitation des menaces chez Proofpoint.

Proofpoint délivre trois conseils avant de remplir sa télédéclaration :

  1. avoir à l'esprit que le service des impôts ne demande jamais aux particuliers de partager leurs informations personnelles par email, par sms ou via les réseaux sociaux ; 
  2. les particuliers doivent être prudents à la réception d'un email qui prétend venir des impôts (ne pas cliquer sur des liens ou ouvrir des pièces jointes. Le suivi de la déclaration se fait auprès du bureau local des impôts en utilisant les coordonnées fournies sur le site officiel) ; 
  3. enfin, si quelqu'un appelle en prétendant appartenir au bureau des impôts, ne fournissez aucune information, raccrochez rapidement.
mobile


L'Afutt (Association Française des Utilisateurs de Télécommunications) vient de publier ce lundi 15 avril son 15e Observatoire des plaintes et insatisfactions dans le secteur des télécommunications (téléphonie, accès internet fixe et mobile).

Moins de plaintes en 2018

"L’année 2018 est marquée par un reflux du volume des plaintes dans le secteur, qui nous ramène sur les niveaux de 2015, après 2 années de hausse, en particulier celle de 2016", explique l'Afutt. "L’amélioration du traitement des plaintes chez SFR (groupe Altice) est pour une bonne part dans ce reflux même si l’opérateur demeure sur l’année plus générateur de plaintes que ses concurrents. À noter que la baisse dans le secteur du mobile est plus marquée que dans le secteur de l’internet fixe de sorte que le fixe repasse devant le mobile en volume", poursuit l'association qui précise que "seule une faible part de l’ensemble des plaintes que génère [le] secteur arrive jusqu’à l’Afutt."

Les pannes au centre des litiges

"L’interruption de service arrive en tête des problèmes rencontrés par les utilisateurs de l’internet fixe et les litiges de facturation sont en tête dans le secteur du mobile", a constaté l'Afutt. "Les abus du démarchage téléphonique et la fraude aux numéros surtaxés restent des pratiques inadmissibles qui génèrent beaucoup de mécontentements au point que le gouvernement envisage à nouveau de légiférer sur le premier point et que des alertes ont été lancées au cours de l’année 2008 par la DGCCRF sur le deuxième", précise l'association.

Le démarchage abusif dans le collimateur du Parlement

Il est vrai que le service Bloctel, liste d'opposition au démarchage téléphonique sur laquelle tout consommateur peut s'inscrire gratuitement afin de ne plus être démarché, est particulièrement perfectible depuis son lancement le 1er juin 2016. Un sondage publié le 20 juin 2018 par l'UFC-Que choisir révélait que 92% des Français trouvaient toujours les appels par démarchage commercial «trop fréquents».
Une proposition de loi de Pierre Cordier, député LR des Ardennes, a été adopté par le Sénat en février et prévoit de multiplier les sanctions par cinq à l'encontre des démarcheurs ne respectant pas la loi de mars 2014 ayant institué Bloctel.

Les délais de mise en service à l'index

Cette année l’Afutt complète son Observatoire par la publication d’une analyse portant sur les délais de mise en service, les délais de réparation et les taux de pannes signalées dans le secteur de la téléphonie et de l’accès internet fixe.
"Les graphiques sont pleins d’enseignements et montrent par exemple, toutes technologies confondues, que les délais d’installation avec rendez-vous sont élevés, de 5 à 6 semaines, que les taux de pannes au cours du premier mois après l’installation sont importants, autour de 15% en moyenne, et que les temps de réparation dépassent allègrement les 15 jours dans beaucoup de cas", estime l'association.
password


Par Arnaud Gallut, Directeur des Ventes Europe du sud, Ping Identity 

Le 4 mai prochain marquera la troisième édition du World Password Day, dont l’objectif est de mobiliser l’opinion publique sur la nécessité de disposer de mots de passe robustes. Le fait que les mots de passe sont aujourd’hui omniprésents dans la nouvelle économie numérique n’échappe à personne, et surtout pas aux cybers criminels, qui s’y attaquent en priorité, et savent d’une part qu’ils sont simples à usurper dans la grande majorité, et d’autre part qu’ils sont la porte d’entrée aux informations et aux ressources les plus précieuses. D’après le Data Breach Investigation Report 2017 de Verizon, 81% des cyber attaques réussies ont exploité des mots de passe insuffisamment robustes ou volés. La faible robustesse des mots de passe est de notoriété publique. Bien plus, d’après une récente enquête OVUM, 80% des utilisateurs conservent le même mot de passe pour différents comptes, et 46% des employés utilisent des mots de passe personnels pour leurs comptes professionnels. La raison est simple. Plus les mots de passe sont complexes et multiples, plus ils sont difficiles à mémoriser. Beaucoup d’organismes officiels, la CNIL en France par exemple, recommandent des bonnes pratiques pour limiter les risques, telles que des mots de passe d’au moins 12 caractères de 4 types différents, un mot de passe par compte, des mises à jour régulières, l’absence de tout lien entre le mot de passe et son propriétaire, ou encore l’utilisation d’un gestionnaire de mots de passe. Mais ces pratiques sont peu respectées car elles sont contraires aux attentes des utilisateurs, qui privilégient l’ergonomie et la simplicité d’accès.

Ceci étant dit, ne nous y trompons pas. Quelle que soit leur robustesse et les bonnes pratiques utilisées, les mots de passe n’offrent plus un niveau de sécurité suffisant pour protéger les données les plus sensibles. Dans l’immense majorité des cas, ils sont devenus simples à usurper, et n’importe quel cyber criminel sérieux, s’il y met les moyens, mettra moins d’une journée par y parvenir. Sans compter qu’il pourra se servir sur le ‘dark web’, où des milliards d’identifiants sont disponibles à un prix modique.

De nouveaux standards à la rescousse du mot de passe


Le W3C (World Wide Web Consortium) et la FIDO Alliance, à l’origine des standards les plus répandus d’Internet, ont récemment finalisé l’API WebAuthn, dont l’objectif avoué est de généraliser une authentification sans mot de passe (Passwordless). WebAuthn est disponible gratuitement et déjà supportée par tous les principaux navigateurs, ainsi que par Android et Windows 10. Il permet aux fournisseurs de services de remplacer le mot de passe par une validation de l’authentification de l’utilisateur sans transmettre de données sensibles en y procédant localement sur son poste de travail (tablette, périphérique ou smartphone). La validation de l’authentification s’effectue alors par des moyens tiers interfacés avec cette API, tels qu’une clé de sécurité USB ou une montre connectée par exemple. L’intérêt de cette API est de ne plus avoir de mot de passe à véhiculer sur les réseaux.

La biométrie, remède miracle ?


Beaucoup d’acteurs de l’industrie high tech prédisent la disparition totale des mots de passe comme méthode d’identification, et son remplacement notamment par des systèmes biométriques. Les systèmes de lecture d’empreintes digitales et de reconnaissance faciale se multiplient ainsi depuis plusieurs années, en particulier sur les terminaux mobiles. Toutefois, les solutions biométriques ne sont pas non plus immunisées contre les attaques. La technologie de lecture des empreintes digitales s’est certes grandement améliorée ces dernières années, mais n’est toujours pas infaillible. Elle peut notamment être prise en défaut par des solutions d’intelligence artificielle et de machine learning qui permettent de réaliser des empreintes ‘passe partout’. Même chose pour les solutions de reconnaissance faciale, dont certaines peuvent être trompées à l’aide d’une simple photo d’identité.

Authentification multifacteur et SSO : le duo gagnant


La biométrie utilisée seule a donc elle aussi ses faiblesses. Cela ne veut pas dire qu’elle est inutile, mais simplement qu’elle souffre des même défauts qu’un mot de passe en tant qu’authentification unique. Que ce soit en utilisant un visage imprimé en 3D, en créant de fausses empreintes, ou en craquant simplement un mot de passe de secours trop faible, il est beaucoup plus facile pour un attaquant de s’emparer d’un compte utilisateur qui n’est pas protégé par au moins deux facteurs d’authentification.

L’authentification multifacteur, associant par exemple biométrie, mot de passe et terminal identifié, est ainsi seule capable d’offrir un niveau maximum de sécurité car elle impose à l’attaquant de prendre le contrôle de non pas un mais plusieurs facteurs. La solution idéale aujourd’hui est de l’associer à des solutions d’authentification unique, ou SSO (Single Sign On) qui permet à un utilisateur d'accéder à de nombreuses applications sans avoir à multiplier les authentifications. Il lui de s’authentifier en début de session, et il peut ensuite accéder à de nombreuses applications sans être contraint de devoir s'identifier sur chacune d'entre elles. On obtient ainsi une solution qui associe une grande simplicité d’utilisation, notamment pour des applications grand public, et un haut niveau de sécurité.
opendata


L'ouverture des données publiques est un enjeu démocratique majeur pour nos sociétés et les pouvoirs publics doivent pouvoir s'emparer de ces questions. C'est dans cette optique que la Région  Occitanie et 16 organisations publiques et privées lancent l'association Occitanie Data jeudi 18 avril à Montpellier.

"L'intelligence artificielle et les données massives, qui sont désormais au cœur de la révolution du numérique, sont devenues en quelques années un enjeu stratégique pour la France et l'Europe.  Berceau de filières d'excellence reconnues mondialement, le territoire régional est d'ores et déjà un acteur reconnu du Big Data et de l'Intelligence Artificielle grâce à l'excellence de ses laboratoires de recherche, de ses formations supérieures à Montpellier comme à Toulouse, ainsi que de son tissu industriel", explique la Région, qui a donc décidé, avec des acteurs importants de la donnée, régionaux ou nationaux, de créer une structure innovante : Occitanie Data.

Communauté de chercheurs, d'administrations et d'entreprises

Présidée par Bertrand Monthubert, conseiller régional délégué à l'enseignement supérieur et à la recherche, Occitanie Data permettra d'animer et structurer une communauté importante de chercheurs, d'administrations, d'entreprises et d'entrepreneurs, en créant des synergies entre les acteurs publics et privés du territoire pour couvrir l'ensemble de la chaîne de valeur depuis la production des données jusqu'aux services les utilisant.

La structure proposera des actions, services et solutions de nature à répondre aux besoins identifiés auprès des acteurs. Elle s'articule par ailleurs avec le projet d'Institut Interdisciplinaire d'Intelligence Artificielle de Toulouse.

Economie de la donnée et intelligence artificielle

"Faire de la Région Occitanie un territoire de pointe en matière d'économie de la donnée et d'intelligence artificielle : voilà le défi que nous nous sommes donné avec 17 acteurs publics et privés et de nombreux partenaires afin de coordonner nos forces sur ces enjeux stratégiques, notamment en assurant la circulation des données dans un cadre de confiance. Occitanie Data sera le levier du développement d'une Intelligence Artificielle éthique, respectueuse de la population et de l'environnement, et du soutien aux initiatives des acteurs locaux, éléments indispensables au rayonnement de notre territoire. » a déclaré la présidente Carole Delga à quelques jours de l'évènement.

A noter que ce mouvement pour l'ouverture des données publiques touche de nombreuses collectivités partout en France. A Toulouse par exemple, a été mis en place le projet « Toulouse Métropole Data ». La Métropole toulousaine concourt par ailleurs au développement de l'Open Data au niveau national par sa participation active dans l'association Open Data France, dont le Toulousain Bertrand Serp est vice-président pour la délégation « Prospective et modernisation numérique de l’administration ».


Les membres fondateurs d'Occitanie Data 

Les membres fondateurs d'Occitanie Data sont Agropolis International, Airbus, ATOS, Caisse des Dépôts et Consignations, CNES, COMUE Languedoc-Roussillon Universités, ENEDIS, IGN, IRT Saint Exupéry, Météo France, ORANGE, Pôle Aerospace Valley, Qwant, Région Occitanie, Sopra Steria, Toulouse Métropole, Université fédérale Toulouse Midi-Pyrénées. Une centaine de partenaires ont exprimé leur intérêt dans la démarche et sont les invités de cette journée de lancement.


Par Thierry Besrest, Sales Data Center France de Rosenberger OSI

Véritables cerveaux de nos smart cities, les data centers sont devenus indispensables à nos existences rythmées par l’Internet. Depuis deux ans, ils sont le théâtre de profonds renouvellements, qui engagent notamment leur infrastructure de câblage.

Leur présence est discrète, et pourtant ils sont au cœur de nos vies numériques : depuis plusieurs années, les data centers jouent un rôle majeur dans le développement de l’Internet. Constituant la partie matérielle – et à ce titre, très concrète –  du numérique, ils se développent aux abords de nos villes et de nos métropoles, de nos villages et de nos entreprises. Regroupant tout à la fois des ordinateurs centraux, des serveurs, des baies de stockage, des équipements réseaux et télécommunications, ils sont loin d’être anodins. Les data centers sont les centres névralgiques de nos territoires, de nos services et de nos informations ; ils constituent les cerveaux de nos villes désormais smart.

De 10 à 400 Gigabit/s Ethernet

L’histoire de ces data centers a démarré il y a une trentaine d’années – une éternité au regard des progrès technologiques accomplis depuis. Nous sommes dans les années 1990 : la bulle Internet commence à se développer, et, avec elle, la nécessité de faire circuler l’information à la vitesse de cette nouvelle modernité qu’est le World Wide Web. Déployées au sein de chaque data center, les premières synapses de ces cerveaux technologiques ont la teneur du cuivre, avant que la fibre ne vienne offrir de nouvelles alternatives. Au fil des ans, les systèmes de câblage s’adaptent à l’essor exponentiel de nos data, véhiculant les données suivant le protocole Gigabit Ethernet puis 10 Gigabit Ethernet. Las ! Tout change à partir de 2017. Multiplication de nos besoins oblige : une nouvelle génération de serveurs apparaît, capable de gérer toujours plus d’informations simultanément. Particularité de ces machines : elles supportent désormais des débits de transmission non plus de 10 mais de 100 à 400 Gigabits par seconde (400 000 000 000 de 1001010010 en 1 seconde) via le protocole Ethernet. Une révolution est en marche : elle passe par une évolution majeure au sein des data centers, partout dans le monde.

Des process à respecter

Voici donc nos cerveaux technologiques transfigurés dans leur fonctionnement même. Les exigences sans cesse croissantes en termes de puissance et de débit de transmission que doivent respecter les data centers les obligent à transformer leur infrastructure de câblage. Il faut en quelque sorte déployer de nouvelles synapses, supportant des puissances de 100 à 400 Gigabit/s Ethernet. Le câblage mis en place passe ainsi de 2 à 32 fibres, voire à 64. Le prix à payer de ces connections renouvelées ne représente qu’une petite part « du cerveau » : 2% du budget total d’un data center. En revanche, l’intervention est décisive, y compris en termes « green ». Car, si ces nouveaux câbles permettent à de grands comptes tels que de grandes banques ou des compagnies aériennes de bénéficier de services plus rapides et plus fiables, ils répondent également aux nouvelles normes environnementales en vigueur – étant entendu qu’un data center, comme un cerveau humain, est hautement consommateur en dépenses énergétiques.

N’est pas chirurgien qui veut : ces opérations d’installation doivent respecter des normes spécifiques. Phase de test, phase de certification… Les process sont rigoureux et assurés par des techniciens spécialisés et spécifiquement formés. L’enjeu est de taille : une installation mal faite et c’est tout un écosystème de vies, d’activités, de produits et de services, qui se trouve paralysé en une fraction de seconde.

Ici se situe peut-être l’une des difficultés que nous rencontrons actuellement : si nous bénéficions avec ces nouveaux câbles d’outils techniquement performants, il convient d’être vigilant quant à la compétence des personnels en charge du renouvellement de nos « data synapses ». La stratégie n’est pas seulement dans la technologie : elle est aussi dans la justesse du geste humain qui l’accompagne.
change.org


Alors qu'Emmanuel Macron va s'exprimer ce lundi 15 avril à 20 heures à la télévision, la plateforme de pétitions en ligne sur internet Change.org dévoile son "Agenda des solutions" reprenant là une expression d'Edouard Philippe.

5 pétitions à plus d'un million de signatures

Change.org a joué un rôle important dans la montée en puissance du mouvement des Gilets jaunes, en hébergeant, notamment la pétition de Priscilla Ludosky "Pour une Baisse des Prix du Carburant à la Pompe", aujourd'hui signé par plus de 1,2 millions de personnes.
L'"Agenda des solutions" de Change.org reprend les solutions plébiscitées par les utilisateurs : "au total, 5 pétitions ont comptabilisé plus d’un million de signatures : Prise en compte des votes blancs, interdiction du glyphosate, transparence des dépenses des élus, loi contre l’évasion fiscale, et moratoire sur l’usage des armes dites “moins-létales” par les policiers lors des manifestations."

320 pétitions lancées pendant le Grand débat

Ce matin à 9h, Jean-Sébastien Nicolas, Johan Reboul, Christophe Grébert, Laurent Thines, 4 des 5 lanceurs de pétitions les plus populaires devaient être présents place de la Concorde à Paris pour présenter l’Agenda des solutions, "un agenda à taille humaine, à la hauteur de leurs attentes." Muni d’un mégaphone, et d’un objet symbolisant leur campagne, ils devaient prendre la parole chacun leur tour afin de faire entendre leurs revendications.
Change.org a été au coeur de ces derniers mois de Grand débat.  "Plus de 320 pétition ont été lancées", explique la branche française de la plateforme utilisée par plus de 265 millions de personnes à travers 196 pays, dont plus de 11 millions en France.

cloud



Avis d 'expert par Commvault

Les environnements multi-cloud peuvent favoriser l'agilité, mais seulement si la gestion et la protection des données font partie d’une même stratégie. Il s'agit d'une question cruciale pour de nombreuses organisations.

Aujourd'hui, la majorité des clients du Cloud en utilisent plus d'un et leur nombre pourrait augmenter encore plus dans les années à venir. Comment une structure informatique, même la plus agile, peut-elle faire face aux différents SLAs et politiques de protection des données et faire en sorte que son organisation puisse utiliser les données stockées dans ces clouds ?

Commvault a listé les 5 étapes clés pour rationaliser le processus de gestion des données multi-cloud.


  1. Consolider les outils.  Si l'entreprise utilise plusieurs produits pour gérer la sauvegarde, la restauration, la découverte et la reprise d'activités, il n'est pas possible d'avoir une structure informatique agile. Une plate-forme unique de gestion des données rationalise le traitement, la gestion et l'utilisation des données dans les différents clouds et les infrastructures sur site.
  2. Appliquer une vision unique pour les données. Avec un seul tableau de bord pour gérer les cycles de vie des données, les équipes informatiques peuvent être rapides, efficaces et peuvent respecter les SLAs, y compris à une grande échelle.
  3. Automatiser. Un produit de protection des données qui offre des options d'automatisation, d'orchestration, d'intelligence artificielle et de machine learning, peut libérer du temps pour les équipes informatiques. Cela va leur permettre de se concentrer sur des projets plus stratégiques.
  4. Travailler dans le cloud. Il est conseillé de choisir un produit qui a une intégration native avec les clouds. De cette façon, il est possible de travailler à partir d'une seule interface pour les tâches courantes de sauvegarde et de restauration et permet d'éviter de devoir basculer d'une interface à l'autre.
  5. Voir grand. Les volumes de données constituent le principal obstacle à l'adoption du Cloud Computing. Il est préférable d'opter pour une plate-forme de protection des données qui offre la possibilité de déplacer rapidement des charges de travail volumineuses vers le cloud. Il faut privilégier des solutions telles que AWS Snowball ou Azure Data Box et une plate-forme de gestion de données pouvant supporter des migrations de données à grande échelle.


Lorsqu’une organisation décide de mettre en place une stratégie de protection des données multi-cloud, elle doit consacrer le temps nécessaire à une planification en amont afin de gagner du temps, économiser les efforts et réduire le stress lié à la disponibilité des données. En utilisant les meilleures pratiques en matière de protection des données, il est possible de maximiser la flexibilité de l'environnement multi-cloud d'une entreprise.
data


Par Emmanuel Schalit, CEO de Dashlane

Vos données personnelles n'ont jamais été aussi précieuses maintenant qu’elles sont en ligne.

Aujourd'hui, nos vies numériques sont aussi essentielles que nos vies réelles. Les données personnelles que vous stockez sur vos comptes en ligne et l'empreinte que vous laissez à travers votre historique de recherche et de navigation sont partie intégrante de votre identité, et c'est à vous de la protéger.

Une explosion des menaces pour le respect de notre vie privée

En matière de vie numérique, l'année dernière a été hors normes, non seulement en raison de la quantité et de l’étendue des piratages et des atteintes à la protection des données, mais aussi par l'ampleur de la perte de confiance entre Internet et le monde qui en dépend. En quelques mois seulement, les trois plus grandes sociétés d’Internet que sont Facebook, Google et Amazon, ont toutes annoncé qu'elles avaient été piratées.

Indéniablement, nos données et informations sont de moins en moins sécurisées, les transactions en ligne sont loin d'être transparentes et la légitimité des actualités est désormais remise en question. Au lieu d’encourager le bien - permettant aux individus de se relier entre eux, de partager des connaissances et de grandes idées - Internet est devenu, dans certains cas, une source de frustration voire de peur.

Comment aider les consommateurs à se protéger contre ces risques ?

Internet n'appartient à personne, il appartient à tout le monde. Résoudre les problèmes que cela induit constitue un défi sans précédent. Les gouvernements peuvent influer positivement par le biais de la réglementation, comme dans le cas du RGPD. Cependant, nous savons également que la construction d'un meilleur monde numérique passe par l'autonomisation de chacun d'entre nous.

Nous utilisons un nombre croissant de comptes en ligne au quotidien, nombre qui double tous les cinq ans. La gestion des mots de passe de tous ces outils est devenue incroyablement complexe. La plupart d'entre nous réagissent à ce problème avec indifférence et ont tendance à utiliser le même mot de passe partout. Nous nous enfouissons la tête dans le sable en pensant que tout va bien ; jusqu'au jour où nous sommes piratés. Vous n'êtes peut-être pas en mesure de contrôler l'architecture de sécurité des services numériques que vous utilisez tous les jours et qui contiennent vos données, mais vous pouvez prendre des mesures concrètes pour vous assurer d'avoir le meilleur comportement pour protéger vos données personnelles sur ces comptes. Cette approche est la version numérique de la doctrine du "confinement".

Les bons réflexes pour sécuriser votre identité numérique

Nous pouvons tous prendre des mesures simples et fondamentales pour sécuriser nos comptes numériques.
Premièrement, créez un mot de passe unique pour chaque compte. Cela garantit que même si l’un de vos comptes est piraté, vos autres comptes seront quant à eux sécurisés. Certains piratages ne sont découverts ou divulgués que des années plus tard, comme ce fut le cas avec le piratage de Yahoo qui s'est produit il y a deux ans. Vous ne savez jamais à quel moment vos informations peuvent être vulnérables. Nous avons constaté qu’un utilisateur moyen a plus de 150 comptes, il est donc impossible de mémoriser tous ses mots de passe - les gestionnaires de mots de passe le feront très bien pour vous.

Assurez-vous que tous vos mots de passe sont forts. Le mot de passe idéal est un enchaînement unique et aléatoire de lettres et de chiffres. À nouveau, les gestionnaires de mots de passe peuvent facilement générer des mots de passe forts, et donc plus sécurisés, pour tous vos comptes.

Enfin, changez régulièrement vos mots de passe car les piratages passent souvent inaperçus pendant des mois, voire des années, de sorte que vous ne savez jamais quand votre compte a pu être exposé. L'utilisation d'outils appelés changeurs de mots de passe est très utile dans ce processus car ils peuvent changer instantanément vos mots de passe sur des centaines de sites en un seul clic. Il est ainsi extrêmement facile de s'assurer que vos comptes soient toujours protégés contre des menaces inconnues.

Nous savons que la construction d'un monde numérique meilleur passe par le fait donner aux gens, c’est à dire à nous tous, les moyens de reprendre le contrôle sur nos identités numériques. Ainsi nous pourrons garder la main sur nos données personnelles, qui nous appartiennent.

Ce n'est qu'à cette condition que nous pourrons vivre dans un monde numérique sûr et utiliser à nouveau Internet à bon escient, comme initialement destiné.
password


Par Hervé Liotaud, Regional Director Southern Europe chez SailPoint

Le dernier cas de piratage d’un milliard de données personnelles nous rappelle à quel point il est crucial de mieux sécuriser les mots de passe, et il est nécessaire de mieux les gérer. Des mesures d’autant plus indispensables que de plus en plus de vols de données personnelles ont des conséquences massives sur les entreprises.

Ce problème est lié à une habitude bien enracinée qui consiste à utiliser les mêmes mots de passe pour différents comptes utilisateur. Par exemple, 75 % des personnes interrogées dans le cadre de la récente étude SailPoint Market Pulse Survey ont confirmé utiliser les mêmes mots de passe pour plusieurs de leurs comptes (aussi bien professionnels que personnels). Il s’agit d’un facteur de risque inutile alors que nous constatons que d’anciens vols de mots de passe continuent de produire leurs effets, et que de nouvelles menaces telles que le « credential stuffing » permettent aux pirates de profiter de la négligence de certains utilisateurs qui ne respectent pas les bonnes pratiques en matière de mots de passe.

Bien sûr, il est impossible de protéger des données qui ont déjà été compromises, mais il existe bel et bien des mesures de sécurité très simples que les utilisateurs peuvent mettre en place afin de protéger leurs informations personnelles d’une nouvelle intrusion. A commencer par adopter systématiquement des mots de passe plus solides, avec au moins huit caractères, et comportant des majuscules et minuscules, et des caractères spéciaux. Ou de ne plus jamais utiliser le même mot de passe pour différents sites. Sans oublier de rester vigilants, en surveillant ses mouvements sur Internet, et en prenant garde à chaque demande d’identifiant d’accès ou de données personnelles.
supermarche


Comment en finir avec les files d'attente aux caisses des supermarchés, alors que selon un sondage OpinionWay, 40 % des Français trouvent le temps d'attente en caisse «trop long» dans les supermarchés, et 24 % vont jusqu'à renoncer à acheter pour cette raison ? Peut-être avec des magasins… sans caisses.

Le concept est arrivé à maturité avec le géant Amazon qui a ouvert sa supérette Amazon Go l'an dernier après deux ans de tests avec ses propres employés (lire page suivante). Avec ce nouveau type de magasins, le géant du net entend bien révolutionner les courses alimentaires comme il a révolutionné le marché du livre à ses débuts, puis l'ensemble du commerce en ligne en suivant. Surtout, ces magasins participent d'une nouvelle stratégie de Jeff Bezos, l'emblématique PDG de la société de Seattle : créer des boutiques physiques. Il a déjà ouvert une dizaine de librairies Amazon Books aux Etats-Unis et prévoit d'accélérer l'ouverture d'Amazon Go, estompant un peu plus la frontière entre cybercommerce et commerce traditionnel.

Les ambitions d'Amazon dans la distribution alimentaire – la société a récemment racheté Whole Foods Market, une chaîne de supermarchés «bio», pour 13,7 milliards de dollars – ont de quoi inquiéter les concurrents numériques d'Amazon comme Google (qui multiplie les partenariats avec des chaînes) et bien sûr les acteurs traditionnels de la grande distribution.

Les Français innovent aussi

Mais ces derniers n'ont pas dit leur dernier mot. D'une part, les commerces traditionnels misent sur le smartphygital, un concept permettant d'introduire dans les boutiques nombre d'activités numériques venues du cybercommerce (lire ci-dessous). Et d'autre part, les géants de la grande distribution tablent eux aussi sur des magasins automatiques comme ceux d'Amazon Go. Aux Etats-Unis, le géant de la distribution Walmart travaillerait ainsi en collaboration avec Microsoft.

En France, Carrefour doit tester auprès de ses employés du siège de Massy (Essonne) sa première supérette automatisée, sans caisses ni caissiers, qui fonctionnerait grâce à des caméras équipées d'un système de reconnaissance faciale mis au point par le géant chinois Tencent. Carrefour doit aussi expérimenter à Bruxelles une supérette entièrement automatisée : pas de rayons mais des écrans pour sélectionner ses produits dont la préparation sera robotisée. Ce magasin high-tech disposera aussi de casiers de retrait pour les commandes passées en ligne.

Le groupe Casino s'est lui aussi lancé dans des boutiques sans caisse. Pour l'heure, le groupe en est à la réflexion expérimentale avec son espace «Le 4», dans le quartier des Champs-Elysées.
D'autres acteurs plus modestes sont également en lice sur des projets plus petits mais non moins innovants. Comme le groupe Neovendis qui veut développer son concept Ximiti : un distributeur automatique de grande taille, accessibles 24 heures sur 24 et 7 jours sur 7, qui propose 800 références. Une borne permet aux clients de passer commande et de régler leurs achats, à moins qu'ils aient fait ces opérations auparavant depuis leur smartphone. Six magasins de ce type sont ouverts, une dizaine devrait rapidement voir le jour.

Bien évidemment cette course au magasin automatisé est mondiale, et les solutions se multiplient au Japon ou en Chine. Un engouement qui n'est pas près de s'arrêter : une étude Jupiner Research publiée l'an passé estimait que le marché des solutions de paiement sans caisse devrait passer de 253 millions de dollars en 2018 à 45 milliards en 2023.

Des livraisons par drone ou robot


Autre problème du commerce que le temps d'attente aux caisses (que peut éventuellement régler un magasin sans caissiers) : le délai de livraison. D'où l'idée qui fait son chemin de livraison s par drone ou par robot. Le gouvernement américain doit autoriser les «vols de routine» à très basse altitude, permettant cette livraison par drone que veulent mettre en œuvre Amazon, Google mais aussi Fedex, Uber ou CNN. Cet assouplissement de la réglementation, initialement prévu en 2016, a été retardé, notamment pour prendre en compte d'éventuelles menaces terroristes. La nouvelle réglementation pourrait entrer en vigueur en 2020.

Amazon – toujours lui – explore aussi une autre piste avec la livraison par robot. Il a conçu Scout, robot de la taille d'une «petite glacière». Depuis janvier à Seattle, six exemplaires circulent sur le trottoir à la vitesse d'un homme qui marche, évitant les obstacles. Le groupe décidera à partir de ce test grandeur nature de l'extension du système, qui permet de limiter les coûts de livraison et régler le casse-tête du «dernier kilomètre».

statista

Le «smart phygital», eldorado du petit commerce ?

Le salon Paris Retail Week, qui a réuni des centaines d'acteurs de la distribution en septembre dernier, a mis à l'honneur un nouveau concept : le «smart Phygital», phygital étant la contraction de physique et digital (numérique en bon français) et smart pour intelligent. Derrière le terme marketing anglo-saxon se trouve l'effacement des frontières entre les canaux d'achats physiques et en ligne. Une tendance en plein boom qui pourrait devenir un véritable eldorado pour les moyennes et grandes boutiques confrontées à la concurrence des grandes plateformes d'achats comme Amazon.

Le lèche-vitrines a donc encore de beaux jours devant lui

«Une enquête menée en 2018 par 421 Research pour Ayden auprès de 5 033 Européens (Royaume-Uni, Allemagne, Espagne, France et Pays nordiques), rend compte de l'importance de la vision Smart Phygital pour les acteurs de la distribution qui met en avant les attentes des consommateurs vis-à-vis de l'expérience d'achat autour de 3 axes : la personnalisation, la stratégie omnicanal et l'innovation digitale», explique Statista.

Le «smart phygital» acte aussi que les magasins physiques ont encore de beaux jours devant eux. «Avec une progression annuelle stable entre 12 % et 15 % depuis plus de 10 ans, l'e-commerce fait l'objet de toutes les attentions. Il faut dire qu'entre les promesses d'expérience utilisateur intelligente, de parcours client personnalisé et des offres promotionnelles imbattables, il ne manque pas d'atouts pour ringardiser l'expérience d'achat en magasin. Pour autant, la part des ventes du commerce en ligne sur l'ensemble du commerce de détail reste faible (9,7 %) et n'a progressé que de 1 point entre 2017 et 2018», explique Sébastien Verger, CTO chez Dell Technologies. «Si 33 % des consommateurs français débutent leur recherche sur Internet, ils sont 79 % à finaliser leur acte d'achat en boutique», rajoute une étude d'Ucopia, leader mondial de la gestion d'accès, de la monétisation et du marketing Wi-Fi. «Le lèche-vitrines a donc encore de beaux jours devant lui… à condition de savoir s'adapter à l'arrivée sur le marché d'une nouvelle génération de consommateurs : la génération Z», estime l'expert.

Retrouver dans la boutique des expériences numériques

«Dans la boutique, les clients attendent des services de haute qualité, tels que de meilleures informations sur les produits, aussi utiles que dans les boutiques en ligne. S'adresser aux clients par e-mail et marketing en ligne, avoir le wifi gratuit, des systèmes de divertissement et d'information en magasin, des promotions de prix plus fréquentes et l'utilisation de caisses enregistreuses mobiles sont d'autres moyens par lesquels le commerce de détail peut se positionner pour l'avenir», estime Sébastien Verger.


primenow

Quand la grande distribution s'allie aux géants du web

Après l'annonce d'une alliance entre Monoprix et Amazon, Carrefour s'est allié en juin dernier avec un autre géant d'internet : Google. Le partenariat stratégique s'articule autour de trois piliers : le déploiement de l'offre Carrefour sur une nouvelle interface du site de Google Shopping et sur l'Assistant Google en France, la création d'un Lab Carrefour-Google et l'accélération de la digitalisation du groupe Carrefour.

Nouvelle expérience de commande vocale

Si l'ouverture du Lab d'innovation en partenariat avec Google Cloud et la formation de plus d'un millier de collaborateurs de Carrefour à la culture numérique n'ont rien d'extraordinaire, en revanche le déploiement de l'offre commerciale avec l'assistant Google est l'illustration d'une importante bataille qui fait rage autour des assistants vocaux et des enceintes connectées.

Carrefour et Google veulent ainsi proposer une nouvelle expérience d'achat aux clients du roi des hypermarchés en France. «Les utilisateurs français pourront effectuer leurs courses – dont les achats alimentaires – que ce soit via l'enceinte connectée Google Home, ou via l'Assistant Google depuis leur téléphone portable, ou enfin sur le web via la nouvelle interface du site Google Shopping en France, et ainsi se faire livrer à domicile ou récupérer les marchandises en magasin», explique Carrefour. Dicter ses courses sera donc une nouvelle façon de consommer.

Auchan allié à Alibaba en Chine

Carrefour s'engage donc dans les commandes vocales de la même manière que le géant américain Wallmart, qui donne souvent le «la» en matière d'innovations dans la grande distribution. Auchan s'est également allié avec un géant du numérique. Sun Art, co-entreprise détenue par Auchan Retail et Ruentex s'est, en effet, alliée avec Alibaba, l'Amazon chinois. Cette alliance entre les trois acteurs doit participer à la construction «du commerce phygital alimentaire en Chine», et «permettre à l'ensemble des activités de Sun Art de bénéficier de l'écosystème digital d'Alibaba» selon le communiqué commun publié lors de l'annonce de l'opération en novembre dernier.

Monoprix en partenariat avec Amazon

Le groupe Monoprix a scellé de son côté une alliance de ses magasins Monoprix avec Amazon. Certains des produits de l'enseigne française (Monoprix Gourmet ou Monoprix Bio) doivent être commercialisés sur la plateforme du géant américain et proposés à ses clients Amazon Prime Now, qui comprend une livraison en moins de deux heures à Paris et proche banlieue. Aux Etats-Unis, Amazon Prime Now peut d'ailleurs fonctionner avec Alexa, l'assistant vocal d'Amazon qui est présent dans les enceintes Echo commercialisées depuis juin dernier en France.

AmazonGo

Amazon Go, supérette sans caisses

C'est un peu la fiction qui rejoint la réalité : des supérettes sans caisses ni caissiers. Et il fallait bien la capacité d'innovation et l'aisance financière d'un géant du web comme Amazon pour se lancer dans une telle aventure qui pourrait bouleverser la grande distribution, en premier lieu en supprimant des milliers d'emplois. La société de Jeff Bezos avait annoncé son concept d'Amazon Go le 5 décembre 2016 en inaugurant un magasin de 167 mètres carrés au rez-de-chaussée du nouveau siège d'Amazon à Seattle, dans l'Etat de Washington. Initialement réservé aux employés de la société, ce magasin a été ouvert, avec un an de retard, au grand public, le 22 janvier 2018. Comment fonctionne cette supérette ? Tout d'horizon.

AmazonGo

Un simple QR code pour entrer dans le magasin

Pour entrer dans le magasin, le client doit ouvrir son application Amazon Go sur son smartphone. Cette application est reliée à son compte Amazon. Le client doit sélectionner alors un moyen de paiement. L'application génère un QR Code qu'il suffit de scanner sur l'un des portiques à l'entrée du magasin (comme on le fait aux portiques des aéroports).

Une fois à l'intérieur du magasin, qui peut accueillir au maximum 90 personnes simultanément, le client remplit son panier avec les produits qu'il désire. Il est surveillé en permanence par une batterie de capteurs et une centaine de caméras qui observent tout ce qu'il fait. Le système est capable de faire la différence entre deux clients devant une même étagère, le premier mettant un yaourt dans son panier quand l'autre ne fait que regarder le rayon. Mieux, le système est capable de détecter quand un client choisit un produit et le remet en rayon… Amazon a pensé à tout : lors d'achats avec plusieurs membres de sa famille, chacun peut se connecter au compte principal sur un autre téléphone.

AmazonGo


La capacité d'analyse du parcours client est une mine d'informations pour Amazon qui peut ainsi connaître quels sont les produits achetés durant certains créneaux horaires, de savoir quand commander de nouvelles marchandises, quand les remettre en rayon, et par exemple comment les présenter pour déclencher un acte d'achat, etc.

On sait peu de choses sur les technologies déployées par Amazon, réunies sous l'intitulé «Just Walk Out» et qui n'utiliseraient ni la reconnaissance faciale, ni le suivi téléphonique. La société explique qu'il s'agit des mêmes technologies utilisées dans les voitures autonomes : vision par ordinateur, fusion de capteurs et apprentissage en profondeur (deep learning).



Les clients peuvent faire leurs courses sans croiser de présence humaine. Car dans le premier magasin Amazon Go, il n'y avait que deux vendeurs : l'un au rayon bières et vins pour vérifier la majorité légale des clients, et l'autre à l'entrée du magasin pour accueillir les clients.
Une fois les produits achetés, le client peut quitter le magasin en scannant à nouveau le QR code sur l'un des portiques. L'ensemble de son panier lui sera facturé sur son compte Amazon. Il peut également vérifier son ticket de caisse et le corriger le cas échéant.

Durant la période de test avec les employés d'Amazon, le concept a toutefois connu quelques déboires. Le système de caméras a notamment eu du mal à distinguer les personnes de même corpulence. Les enfants amenés dans le magasin provoquaient des difficultés en déplaçant les produits aux mauvais endroits. Pas de quoi doucher les ambitions de Jeff Bezos, qui a depuis ouvert d'autres magasins de ce type, notamment à New York. Et qui, surtout, a fait des émules chez ses concurrents de la grande distribution traditionnelle.