rgpd


Le Règlement Général sur la Protection des Données est entré en application il y a un an, le 25 mai 2018. Il y a quelques semaines, lors de la présentation du rapport d’activité 2018 de la CNIL, la nouvelle présidente de la Commission, Marie-Laure Denis, a annoncé « la fin d'une certaine forme de tolérance liée à la transition en matière de RGPD ». La CNIL s’est en effet volontairement montrée « tolérante » vis à vis des entreprises, afin de leur laisser le temps de finaliser leurs projets et de se mettre en conformité.
Qu’en est-il aujourd’hui ? Après un an, quels constats font les entreprises spécialisées sur de la protection des données et de la cybersécurité, du niveau de préparation et de conformité des entreprises françaises ?
Deux spécialistes des sociétés Zscaler et Varonis livrent leur point de vue.

«  La première année du RGPD a été marquée par un renforcement de la gestion des données »  

Par Rainer Rehm, Responsable Data Privacy EMEA de Zscaler

Durant cette première année d’existence, le RGPD a amené les entreprises à une meilleure gestion de leurs données. Elles ont été contraintes à adopter une approche proactive pour protéger et gérer ces dernières. Pour ce faire, il a été nécessaire de s'assurer d'avoir une vue d'ensemble des différents fichiers de données, souvent conservés dans des services distincts, et déterminer si les informations personnellement identifiables (IPI) avaient l’autorisation d’être utilisées.

Dans de nombreux cas, les entreprises ont réagi de manière excessive en supprimant des fichiers entiers de données qui ne répondaient pas à l'exigence du double consentement fixée par le RGPD, souvent parce qu’elle ne savait pas comment traiter correctement cette exigence. Alors que d’autres entreprises ont lancé des initiatives, de dernière minute, de collectes de consentement afin d’obtenir l’autorisation des utilisateurs pour stocker et traiter leurs données… Dans la plupart des cas, cela n’a pas eu l’effet escompté et elles ont dû finalement supprimer des données, réduisant considérablement leurs bases de données.

De plus, les entreprises ont dû mettre en place des technologies les aidant à mieux contrôler et protéger leurs actifs numériques ainsi à retirer des informations utiles pour mettre à jour son dispositif de sécurité, issues de sources diffuses, différents services communiquant ensemble, etc. Des processus sont désormais en place pour gérer plus efficacement ces données et nous constatons que la compréhension des entreprises vis à vis de leurs données est meilleure notamment sur le lieu de stockage des données et les personnes qui y ont accès. Cela était nécessaire pour respecter les nouvelles exigences en cas de perte de ces données. Le personnel a acquis une meilleure compréhension des objectifs et des mesures de protection. On peut s’attendre à ce que la collecte future de données soit fondée sur le concept de la protection des renseignements personnels dès la conception (security/privacy by-design) permettant ainsi de prévenir et signaler rapidement toute atteinte à des données.

Toutefois, si le RGPD a introduit une meilleure hygiène et gestion des données, il a également l’effet d’augmenter la complexité administrative... Pour s’assurer de la conformité des entreprises, de nombreux formulaires ont été créés permettant le suivi des processus mis en œuvre. Utilisés pour prouver la conformité de la gestion et du traitement des données, ces formulaires ont donné lieu à d'innombrables interactions et formalités administratives entre toutes les parties concernées. Jusqu'à présent, aucune normalisation n'a été mise en place afin de simplifier ce millefeuille. Cependant, les processus de certification en cours, fondés sur l'article 42 du RGPD, devront permettre aux entreprises de plus facilement démontrer leur conformité.

L'incertitude quant à savoir si les entreprises se conforment ou non - malgré ces efforts - subsistera donc, car le RGPD, qui en est à ses débuts, leur laisse une marge de manoeuvre. Les premières amendes infligées par la CNIL (en France) et l'OIC (au Royaume-Uni) à l'encontre de géants tels que Google et Facebook, démontrent que la confidentialité des données est désormais prise au sérieux, surtout si les entreprises ne respectent pas les règles de transparence. La CNIL l’a d’ailleurs clairement énoncé récemment : après le temps de la tolérance, la Commission va se montrer plus stricte envers les entreprises prises en faute.


« Les entreprises ne connaissent pas mieux leurs données qu’il y a un an » 


Par Julien Chamonal, Directeur des ventes France chez Varonis.

Les cybermenaces sont devenues omniprésentes – menace interne, vol de données, malwares/ransomwares, etc. – et pourtant nous constatons que les entreprises sont encore trop peu nombreuses à avoir mis en place des mesures adaptées pour protéger leurs données sensibles. Après un an d’application du RGPD en France, la CNIL vient d’annoncer que le temps de la tolérance touchait à sa fin et qu’elle allait se montrer beaucoup plus stricte vis-à-vis des entreprises. Il est pourtant encore difficile de se prononcer sur le taux de conformité des entreprises au règlement. Cela varie beaucoup selon les secteurs d’activité, selon les clients de l’entreprise, qu’ils soient consommateurs particuliers ou entreprises, et bien entendu cela dépend aussi de la sensibilité des informations personnelles recueillies et traitées.

Varonis, avec son rapport Data Risk, a essayé d’en savoir un peu plus, et malheureusement, les bons élèves sont extrêmement rares. Le niveau de prise de conscience des entreprises est alarmant. Les résultats sont clairs : les entreprises ne connaissent, ni ne protègent, pas mieux leurs données qu’il y a un an. Déjà alarmant en 2018, le rapport 2019 démontre que les entreprises sont encore plus nombreuses à exposer (laisser en accès libre en interne) leurs données sensibles (informations personnelles, données de santé, bancaires, identités, etc.). La majorité des entreprises ont avancé, voire ont terminé leurs chantiers RGPD sur le volet juridique mais les solutions techniques mises en place sont encore trop peu nombreuses. C’est pour cela que l’on voit encore régulièrement relatés dans la presse des cas de fuites de données.

Si les entreprises françaises et européennes en sont là, c’est aussi que les difficultés pour être en adéquation avec le RGPD sont multiples. La première est sûrement financière. Culturellement, les entreprises Françaises sont peu enclines à investir pour dans la conformité car elles ne le voient pas celle-ci comme un levier business. La deuxième difficulté est un déficit de compétence, peu de cursus permettent de former les nouveaux responsables des données. Enfin, en troisième position, les difficultés d’ordre techniques sont également présentes : sans technologie, comment savoir que tel ou tel fichier  contient une très forte concentration des données personnelles et est facilement accessible à n’importe qui ?

Pourtant ces entreprises réticentes ou peu volontaires s’exposent à des sanctions plus ou moins sévères. Ces sanctions peuvent venir de la CNIL ou d’une notification d’incident et les montants sont élevés : jusqu’à 4% de son chiffre d’affaire consolidé ou 20.000.000 d’euro. Au-delà de la sanction financière, un cas de fuite de données personnelles ou de détournement de la finalité d’un traitement peut avoir un impact important sur l'image de l’entreprise comme sur la confiance  que lui porte ses clients.

C’est le moment ou jamais de répondre aux prérequis du RGPD. De plus, les questions de protection de données évoluent aussi rapidement que le volume de celles-ci et les technologies y étant liées, autant dire : à toute vitesse. Il est certain que le règlement évoluera pour prendre en compte les tendances, les nouveaux usages et les nouvelles menaces. Et si certaines entreprises continuent aussi lentement leur mise en conformité, elles risquent de se retrouver dans des situations fortement compliquées, tant du point de vu financier que technique. Il est temps de s’attaquer aux risques et au développement de solutions techniques d’envergure.
Paris Cyber Week


Par Sébastien Garnault, fondateur de la Paris Cyber Week


A tous les fans de sensations fortes, bienvenue dans le monde des cyberattaques ! Au carrefour de Matrix, Minority report et du Bureau des Légendes, le cyber-espace est à la fois le lieu de tous les fantasmes et de tous les risques. Devenus plus lucratifs que la drogue et l'industrie du sexe, le cyberterrorisme et la cybercriminalité attisent toutes les convoitises, et encore plus les expertises. Pourtant, aujourd'hui, vous devenez un hacker pour 10 € sur le darkweb. Le risque ? Limité… mais très rentable. La menace dépasse désormais la simple criminalité « traditionnelle » qui, elle aussi, a mené sa transformation numérique.

Campagnes de déstabilisation en Occident, paralysie de centrales nucléaires, immobilisation de grandes entreprises ou des PME, les cyberattaques, dont certaines pourraient être le fait d'États, sont protéiformes et bouleversent nos référentiels juridiques. Les Etats d'abord, et notamment les gouvernements américain, chinois, russe, iranien, …. Nombreuses sont les affaires où le soupçon de cyberattaque pèse lourdement sur un Etat, parfois même allié. Nous ne pouvons pas, certes, imputer clairement l'origine des attaques. Leurs effets nous donnent toutefois de précieux indices sur les objectifs poursuivis, et donc sur le profit du crime. C'est tout le sens de la démarche occidentale de septembre dernier, portée par les Five Eyes, visant à publiquement attribuer l'origine d'attaques cybernétiques à la Russie. Passée inaperçue, cette déclaration est probablement la plus forte des cinq dernières années. Oui le cyber-espace est le théâtre d'opération militaire, oui les États détiennent des armes numériques. Oui elles les utilisent et s'engagent dans un conflit ouvert.

Cette entrée dans la guerre numérique, la France et les grandes puissances s'y préparent, depuis longtemps. L'annonce, en janvier dernier, par la ministre des Armées Florence Parly de l'existence de capacités offensives cyber en France, marque le départ d'une guerre invisible mais redoutable. Elle concrétise surtout la montée en puissance des capacités cyber françaises initiée dès 2009 et son accélération depuis 2016.

Sabotage, surveillance ou vols de données, le frottement des plaques cyber nous offre une tectonique hybride où se mêlent guerre économique, souveraineté et Puissance. Dès lors, renseignement et intelligence économique deviennent des outils indispensables pour se défendre. Cet espionnage, industriel notamment, vise ouvertement à compromettre la sécurité nationale de ses cibles. Pour preuve, l'attaque de la centrale nucléaire américaine du Kansas en 2017 ou, en 2010, Stuxnet, le ver informatique conçu par la NSA pour contaminer et détruire l'usine de centrifugeuses nucléaires de Natanz en Iran. Mondiales, sournoises, insaisissables, ces cyberattaques s'immiscent lentement et sans bruit dans les systèmes d'informations des entreprises. En quelques secondes, ces attaques virtuelles peuvent anéantir des centaines d'entreprises et paralyser un Etat.

TPE : le temps est à la prise de conscience


Le rapport au risque le plus favorable est celui qui cible les « petits ». Les collectivités, les TPE, les PME, et même les citoyens, sont autant de proies aisément attaquables qu'elles sont, encore mobilisées par leur transformation numérique, notamment en France. Le fameux « je suis trop petit, je n'intéresse personne », qui laisserait presque penser qu'un braqueur ne s'attaquerait qu'à la Banque de France, est le premier danger auquel nous faisons face. Le maillon faible de la chaine de sécurité numérique, c'est l'Humain. Manque de connaissance, de sensibilisation, de moyens, de compréhension, il existe tant de mauvaises raisons. La réalité, c'est que ce sont les premières cibles et que la plupart ne s'en relèvent pas. Or, dans notre monde hyper connecté, nous sommes bel et bien collectivement responsables de notre sécurité, et de celle de notre environnement.

Démocratiser la cybersécurité pour mieux intégrer le numérique au quotidien


En pleine transition, chacun se concentre sur la digitalisation de son activité, qu'elle soit publique ou privée. Pourtant, c'est bien la confiance de l'utilisateur ou de l'usager qui devrait être le cap de cette mutation : confiance dans les outils, confiance dans les acteurs, confiance dans les réseaux. Cette confiance, que tout le monde appelle de ses vœux, manque terriblement. Elle doit donc trouver un espace de co-construction prenant en compte les règles et leur pratique. Autrement dit, entre les Pouvoirs publics et la société doit s'établir un dialogue afin d'ajuster l'ensemble des curseurs afin que chacun connaisse les bons usages, les bonnes pratiques.

Cette brique indispensable de sécurité doit être adaptée aux usages et garantir la sécurité des biens et des personnes. Dès lors, il faut démocratiser le numérique et les conditions de son utilisation. En effet, bien que de plus en plus médiatisé, les décideurs des grandes entreprises, ETI et PME ne se préoccupent pas de la menace. A-t-on jamais vu un président-directeur général, un directeur marketing ou commercial, un responsable de la chaine de production, d'achat ou logistique se soucier de sa cyber sécurité ?  Pour ces décideurs, il s'agit d'un sujet d'experts qui doit être le moins couteux possible. Une stratégie dangereuse et inconsciente à l'heure de la digitalisation des entreprises. La question est vitale. La puissance de frappe est telle que la menace n'est plus du seul ressort des DSI et autres experts du numérique.


C'est dans ce contexte que nos sociétés intègrent le numérique à leur quotidien. Du citoyen au lycéen, en passant par l'élu ou le chef d'entreprise, le numérique est partout. L'existence même de nos organisations, en pleine transformation, est désormais ouvertement menacée. En ligne de fond, ce sont notre souveraineté et notre démocratie qui sont dans la balance. Il est donc temps de prendre ce sujet à bras le corps, la cybersécurité est l'affaire de tous !

Paris Cyber Week, c'est quoi ?

Événement européen dont l'objectif est de sortir la cybersécurité de son discours d'experts, réservé aux experts. Conscients que la France et l'Europe doivent agir, les pouvoirs publics se mobilisent, et notamment l'ANSSI (Agence nationale de la sécurité des systèmes d'information), le Pôle d'excellence Cyber ou encore les parlementaires français et européens. De même, les filières industrielles et le monde économique dit « traditionnel » s'engagent dans ce dialogue et soutiennent cet événement. Ils viendront débattre et échanger avec les décideurs et professionnels.
Paris Cyber Week : les 5 et 6 juin 2019, à la Chambre des Métiers et de l'Artisanat, 12, avenue Marceau, Paris 8e. Plus d'informations sur : paris-cyber-week.com

digital


Par David Chassan, Directeur de la communication d'Outscale

La France se digitalise. Le mot ‘transformation' est dans la bouche de tous les dirigeants, quel que soit leur secteur d'activité. Ainsi, de plus en plus d'entreprises sollicitent des compétences techniques et expertes dans le numérique. Des emplois qui ont de plus en plus de mal à être pourvus, faute de ressources. Au-delà d'un problème quantitatif se pose la question de la pérennité des formations. L'apparition permanente de nouvelles technologies s'accompagne en effet d'un renouvellement constant des métiers. Face à ces bouleversements, notre système éducatif peine à suivre. Les partenariats avec le secteur privé se multiplient donc, au risque parfois d'enfermer les étudiants dans des doctrines technologiques. L'État doit donc se saisir de ce sujet sans attendre !

Des formations déjà obsolètes à peine dispensées

Le besoin croissant des entreprises à maîtriser ce qui est devenu le nerf de la guerre, à savoir leurs informations numériques et toute la data qui en découle, crée une pénurie sans précédent sur le marché de l'emploi dans la Tech. Surtout, de nouvelles technologies apparaissent continuellement (Blockchain, Cloud, Machine Learning, IA, etc.), qui nécessitent de mettre en face les compétences adéquates. Ainsi, de nouveaux métiers qui n'existaient pas il y a encore 1 ou 3 ans se créent : Datalake Officer, ingénieur Cloud, Traffic Manager…

Si certains ne sont que des évolutions de fonctions déjà existantes, leurs missions ont considérablement changé, exigeant de nouveaux savoirs. Certes, les entreprises tentent d'identifier en interne des profils capables de migrer vers ces fonctions, mais la plupart d'entre eux ne disposent pas des bagages techniques suffisants pour être réellement opérationnels. Ces vagues technologiques successives rendent donc les compétences des collaborateurs et celles des futurs collaborateurs très rapidement obsolètes.

Un État conscient, mais dépassé

Il y a 2 ans, une initiative publique a été menée pour étayer ces nouveaux besoins. Les entrepreneurs de la French Tech ont soumis la proposition de créer un bac numérique dans le cadre de la loi Pacte. Si celle-ci n'a pas été retenue dans le projet final, on sent néanmoins une vraie prise de conscience de la part de l'État sur ce sujet. La récente réforme du secondaire intégrant un cursus autour des sciences de l'ingénieur, du numérique et des sciences informatiques en est une illustration. Mais il faut aller plus loin.

Les entreprises de la Tech ont un rôle à jouer dans ce mouvement. Elles doivent prendre leurs responsabilités et les devants pour ne pas laisser l'Éducation Nationale seule face à ce défi majeur qui les concerne directement.

Les entreprises face à leurs responsabilités

Ainsi, de plus en plus d'entreprises formalisent des partenariats avec de grandes écoles pour prodiguer des enseignements concrets, organiser des conférences ou des cours d'initiation aux technologies émergentes. L'idée est de compléter l'enseignement professoral par une expertise technique et métier plus opérationnelle.

Pour celles qui se lancent dans une telle démarche, cela représente un investissement en termes de ressources humaines, puisque leurs experts sont détachés plusieurs fois par mois dans ces écoles, mais également financier. Si elle peut être saluée, elle n'en présente pas moins un écueil de taille, sur lequel l'État doit rester très vigilant. Pour prendre tout son sens, cette démarche de participation active à la formation des futurs talents français doit s'inscrire dans une réelle dimension sociale et éducative. Or, la majorité des entreprises qui l'entreprend le fait dans l'optique de se faire connaître des étudiants. Ainsi, plutôt que de délivrer un enseignement agnostique, elles les forment à leurs propres méthodes et outils et, de fait, les enferment dans une doctrine technologique qui ne profite au final qu'à elles-mêmes.

Créer un triangle vertueux État/Éducation nationale/Entreprise

L'État doit considérer cette aide et la soutenir lorsque son seul but est d'améliorer les compétences des futurs collaborateurs sans les restreindre à une technologie propriétaire. Or, le temps administratif et celui de l'innovation sont aux antipodes. L'État doit donc se mettre en mode agile sur ce sujet. Pour commencer, il lui faut écouter ces acteurs qui souhaitent participer à la formation des talents. Il est temps de mettre en place un triangle vertueux État/Éducation Nationale/Entreprise. Les écoles sont demandeuses et s'inscrivent déjà dans cette dynamique. Mais, dans l'urgence, elles se laissent séduire par des entreprises peu scrupuleuses.

Un programme d'incitation fiscale pourrait être créé à l'image du CIR (Crédit Impôt Recherche), pour motiver les entreprises à recruter des personnes qualifiées dévolues à la création de cursus au sein des écoles et dont les enseignements soient encadrés par l'État. Il en va de la future compétitivité de la France sur la scène internationale !
amazon


Le secteur high-tech se mobilise pour couvrir les élections européennes, à l'image d'Amazon qui dote son assistant Alexa et ses enceintes connectées Echo de nouvelles fonctionnalités.
Pour la première fois les utilisateurs français pourront se tenir au courant des évolutions des Élections européennes en utilisant ainsi juste leur voix.

"En utilisant des informations provenant directement du Parlement européen, Alexa peut maintenant vous aider à obtenir des réponses à une série de questions sur les Élections européennes - tout ce que vous avez à faire est de demander. Vous voulez savoir comment fonctionne le vote ? Dites simplement "Alexa, qui vote pour le Parlement européen" et Alexa vous donnera les détails. Vous voulez savoir quand les bureaux de vote ouvrent dans un pays en particulier ? Il suffit de demander "Alexa, quand a lieu le vote en France" et Alexa vous répondra - avec les données disponibles pour chacun des États membres votants de l'Union européenne", explique Amazon.

Dernières données officielles


Pendant l'élection, Alexa sera également en mesure de livrer les dernières données officielles disponibles. Pour une mise à jour de la situation, il suffira de dire simplement "Alexa, comment se passent les élections ?" et Alexa donnera la dernière mise à jour pour tous les pays votants. Pour connaître le taux de participation actuel, il suffira de dire "Alexa, quel est le taux de participation en France" et Alexa répondra avec les dernières informations disponibles.

"Tout au long de l'élection, Alexa sera également en mesure de répondre à des questions, notamment sur la situation de certains partis, le nombre de sièges obtenus et la participation électorale finale", indique Amazon.

Toutes les données proviennent directement du flux officiel du Parlement européen, qui sera régulièrement mis à jour avec les dernières informations officielles.

Suivi des élections européennes d’Alexa – Exemples d’énoncés :

· Alexa, où en sont mes élections ?
· Alexa, comment se passent les élections ?
· Alexa, quand a lieu le vote ? [Pays par défaut de votre appareil]
· Alexa, quand aura lieu le vote aux Pays-Bas ? [Pour obtenir des informations sur un pays en particulier]
· Alexa, quelle est le taux de participation en France ?
· Alexa, quels sont les résultats des élections en Italie ?
· Alexa, combien de sièges a eu le [parti] ?
· Alexa, combien de sièges a obtenu le [parti] dans le [pays] ?
· Alexa, comment le [parti] se porte-t-il ?
· Alexa, quand l'Union européenne a-t-elle été fondée ?
· Alexa, quels sont les pays de l'Union européenne ?
· Alexa, qui vote pour le Parlement européen ? 
privacy


Le "Rendez-vous de l’innovation" réalisé par Odoxa en partenariat avec Saegus, SAP, Stratégies, BFM-Business, 01 net et l’Usine nouvelle sur les données personnelles, et publié ce jeudi 23 mai, montre que les Français se disent préoccupés par leur utilisation... mais ne se prémunissent pas toujours.

Les Français apprécient de moins en moins les publicités individualisées alors qu’ils les trouvent de plus en performantes

Avec l’avènement d’Internet et du Big data, le marketing a beaucoup évolué pour se tourner vers l’individualisation. En suivant les produits que nous achetons et consultons, les sites de e-commerce développent des algorithmes leur permettant de nous proposer des produits correspondant à nos goûts et à nos envies.
Pour les Français, ces algorithmes sont de plus en plus performants. En 2015, ils étaient 37% à juger que ces publicités étaient bien ciblées. Ils sont désormais 42% à le dire.
Mais dans le même temps, ils les apprécient de moins en moins. Alors qu’en 2015, 50% des Français affirmaient apprécier que les sites leurs proposent des produits qui correspondent à leur profil et à leurs goûts, ils sont aujourd’hui 9 points de moins (41%).
Quant aux opportunités professionnelles individualisées, elles n’ont pour le moment touché que 21% des Français.

76% des Français se disent préoccupés par la collecte de leurs données


S’ils apprécient de moins en moins se voir proposer des produits correspondant à leurs goûts, c’est parce que les Français se disent préoccupés par ces collectes. 76% d’entre eux le disent et ils sont même 29% à affirmer que cela les préoccupe beaucoup.
On lit parfois que les géants du numérique nous connaissent mieux que notre propre famille. En traquant nos envies et besoins, les sites internet récoltent effectivement de très grosses masses de données, une pratique qui dérange les Français. Ce sont aussi les potentielles fuites de données dont certaines sont particulièrement confidentielles, comme des données bancaires, qui inquiètent les Français.

RGPD : un Français sur deux accepte les conditions sans même les lire

Depuis un an, l’Union Européenne a mis en place le Règlement Général sur la Protection des Données personnelles (RGPD). Il oblige, entre autres, les sites Internet à informer leurs visiteurs sur le type de données récoltées mais aussi à obtenir leur consentement.
Dans les faits, la quasi-totalité des Français (83%) nous disent accepter les conditions, 16% seulement préférant se déconnecter du site.
Parmi ces 83%, 50% acceptent les conditions les yeux fermés, sans même les lire. A contrario, 33% acceptent les conditions après avoir les avoir lues.
S’ils se déclarent préoccupés, les Français ne se prémunissent donc pas toujours, même lorsqu’une information plus précise leur est fournie. C’est certes un paradoxe mais c’est ainsi.

57% des Français n’ont pas confiance en Google et Facebook pour mieux respecter les données personnelles


Conscients des inquiétudes de leurs utilisateurs en matière de protection et d’utilisation des données personnelles, les géants du numérique ont récemment annoncé des mesures et outils pour améliorer la « privacy ».
Les Français sont assez dubitatifs envers ces annonces. 57% d’entre eux nous disent ne pas faire confiance à Google et Facebook pour mieux protéger les données personnelles.
Il faut dire que les modèles de ces deux géants du numérique sont fondés sur l’utilisation des données personnelles, en permettant aux marques de mieux cibler leur clientèle. Les Français se demandent pourquoi ces géants chercheraient à se tirer une balle dans le pied et perçoivent ces annonces comme de la communication visant à améliorer l’image de marque de ces entreprises.
Et pourtant, quelles entreprises sont mieux placées pour assurer plus de « privacy » que celles qui en ont la clé ?

Plus de précision mais moins bonne expérience globale

Alors que 42% des Français estiment que les publicités sur les sites de e-commerce sont bien ciblées, ils sont moins nombreux qu’en 2015 à apprécier que les sites leur proposent des produits correspondant à leur profil ou à leurs goûts (41% en 2019 vs 50% en 2015). C’est le signe d’un effet de lassitude des Français vis-à-vis du « retargeting », cette technique qui, lorsque vous allez voir un appareil photo sur un site, va vous l’afficher pendant 15 jours dans toutes les publicités.
Les éditeurs ont beaucoup investi pour améliorer Intelligence Artificielle, analytique et prédictibilité. Aujourd’hui, l’infrastructure est prête, il est désormais possible d’améliorer la précision en croisant plus de données. Bientôt, dès lors que l’on aura acheté l’appareil photo, la publicité ne s’affichera plus. Tous les commerces ont bien compris que l’expérience utilisateur est clé. C’est la tendance majeure qui se dessine et qui va changer la façon dont les entreprises interagissent avec les clients mais aussi leur collaborateurs. Nous sommes entrés dans l’économie de l’expérience.

Personnalisation et anonymisation

76% des Français se disent préoccupés par l’utilisation des données collectées par les sites web ou d’e-commerce. Le fait de ne pas savoir ce que les entreprises font de leurs données est probablement ce qui fait peur aux Français. Même si la technologie continue de progresser, il faut bien préciser que ce sont les algorithmes qui analysent les comportements des consommateurs. Le consommateur et ses données restent anonymes. On ne peut les récupérer individuellement. La technologie n’a qu’un objectif : proposer la meilleure offre au meilleur moment. Par ailleurs, « privacy » et sécurité font partie intégrante du développement d’applications et de plateformes. Avec RGPD, il y a un cadre législatif qui protège les données personnelles et qui pourra être amélioré dans le temps.

RGPD illisible pour le consommateur

Tous les éditeurs intègrent RGPD dans le développement de leurs applications et de leurs plateformes. Le problème c’est que 50% des Français ne lisent pas les mentions légales car elles sont rédigées de façon incompréhensible : longue et avec un jargon juridique. Toute condition légale devrait être rédigée avec un panel d’utilisateurs pour une meilleure expérience utilisateur.``

Sécurité et Privacy, une question de culture d’entreprise

Lorsque sécurité et « privacy » font partie de leur culture d’entreprise, les marques résistent mieux aux crises. Des marques, comme Apple, qui se sont positionnées très tôt sur les sujets de la sécurité et des données personnelles sont de fait moins soumises aux critiques. Les consommateurs perçoivent très bien les entreprises ayant une politique tournée vers la sécurité et le respect de la vie privée, cela explique les résultats. 43% des Français font confiance à Google et Facebook suite à leurs récentes annonces alors qu’ils étaient 80% à avoir une opinion plutôt positive de Google et seulement 51% pour Facebook.


Partenaire du Digital Society Forum depuis 2015 (une plateforme collaborative ouverte, initiée par Orange pour réfléchir et échanger sur les enjeux du numérique sur notre vie), BVA vient de mener une nouvelle enquête, consacrée au lien entre numérique et environnement.


Numérique et environnement : un lien complexe pour les Français


  • Moins d’un Français sur trois se sent bien informé concernant l’impact du numérique sur l’environnement (27%)
  • Un impact du numérique jugé plus négatif (40%) que positif (21%) sur l’environnement, tandis que 30% déclarent ne pas savoir
  • Un sentiment majoritaire que le développement des équipements numériques (73%) et des objets connectés (63%) a un impact important sur l’environnement
  • En revanche, les Français sont moins conscients des effets potentiellement importants de la consommation de contenu vidéo (49%) et de l’envoi d’e-mails (48%) sur l’environnement


Des pratiques éco-responsables dans le domaine du numérique amenées à se développer ?


Une majorité de Français déclare recycler ses appareils électroniques plutôt que de les jeter (68%) ou paramètre ses appareils en mode économie d’énergie (60%)
Mais une minorité limite le visionnage de vidéo ou de la télévision sur Internet (38%), éteint sa box (30%) ou contrôle son usage des outils numériques (23%)

Des attentes fortes à l’égard des grands acteurs du numérique

Les grands acteurs du numérique (62%) sont ceux qui doivent le plus s’impliquer dans la transition écologique à travers le numérique, devant les grands opérateurs télécom (56%), les citoyens (54%) et le Gouvernement et les organisations publiques qui lui sont liées (52%)

Les mesures prioritaires à mettre en place selon les Français :


  • Développer l’information et la sensibilisation : sensibiliser le grand public sur l’impact de leurs habitudes numériques sur l’environnement (51%) et mobiliser les acteurs du numérique pour qu’ils sensibilisent les consommateurs à une utilisation « éco-responsable » de leurs produits (50%)
  • Innover : en développant l’utilisation de composants recyclés dans la frabication des outils numériques (58%), en développant des outils « intelligents » comme une box qui s’éteint toute seule (55%) ou en augmentant le nombre d’acteurs spécialisés dans la réparation et le reconditionnement des outils numériques (52%)
startup



Par David Peronnin, dirigeant de ClubFunding


Avec un tissu de plus de 10.000 startups, la France semble un terreau fertile pour tous les jeunes entrepreneurs. A l’encontre des idées reçues, il s’agit de préserver et de renforcer cet écosystème, vrai moteur économique. Le dynamisme français n’en ressortira que grandi.

En mars dernier, Doctolib faisait son entrée dans le club très fermé des licornes tricolores, aux côtés de noms désormais bien ancrés dans notre quotidien à l’instar de Blablacar ou encore de Deezer. Toutes valorisées à plus d’un milliard de dollars, ces entreprises furent un temps des jeunes pousses portées par des équipes enthousiastes de quelques personnes. Lancé en 2013 et comptant aujourd’hui pas moins de 750 salariés, le spécialiste de la prise de rendez-vous médicaux sur Internet a ainsi connu une croissance fulgurante entre les frontières hexagonales. Une parfaite illustration du paradigme entrepreneurial souhaité par le Président Emmanuel Macron : « une startup nation est une nation où chacun peut se dire qu’il pourra créer une startup. Je veux que la France en soit une », expliquait-il le 13 avril 2017 à l’occasion du grand salon dédié à l’innovation VivaTech. Cette formule a depuis été largement décriée pour sa rhétorique supposée illusoire et ses accents marketing : les startups ne refléteraient pas la réalité du paysage des entreprises en France et ne seraient qu’une goutte d’eau dans le dynamisme de l’économie tricolore. Pourtant, la réalité est toute autre.

Un vivier d’emplois pour les talents de demain

Bercées dès leur création par les nouvelles technologies, les startups sont bien souvent pointées du doigt pour leur impact supposé néfaste sur l’emploi. Dans l’industrie financière, celles s’appuyant sur l’intelligence artificielle sont parfois accusées d’emporter avec elles une partie de l’emploi du secteur. Pourtant, les « chatbots » et les algorithmes offrent surtout davantage d’instantanéité et de fluidité dans la relation client, et d’automatisation de tâches parfois complexes, comme l'analyse de grandes quantités de données. A charge alors aux conseillers bancaires de réattribuer leur temps vers des missions de conseil à plus forte valeur ajoutée pour leurs clients. Car là se trouve l’objectif : loin de détruire les emplois, les jeunes pousses fournissent clés de lecture et outils pour redéfinir et réinventer des métiers dans un monde où la personnalisation est devenu maître-mot.

Allons-même plus loin : les startups sont elles-mêmes un formidable vivier d’emplois, en recherche constante de talents. En 2017, les jeunes entreprises innovantes de moins de sept ans totalisaient près de 12 % des créations nettes d'emplois en France[1], sachant qu’en moyenne une start-up à forte croissance crée jusqu'à 70 emplois par an. Loin d’être une bulle, l’écosystème de l’innovation fait ainsi foi de chiffres loin d’être négligeables. Majoritairement parisiennes, les startups font de l’Île-de-France, en particulier, un bassin d'emploi important. Une autre étude, publiée par le collectif La Boussole et le Boston Consulting Group, anticipe même la création de 400.000 postes sur les cinq prochaines années ! Moyennant bien entendu un accompagnement par des structures qualifiées comme Le Village by CA, Numa ou encore Réseau Entreprendre Paris.

Un soutien fort au financement de l’économie réelle


Loin de s’arrêter au dynamisme de l’emploi, les startups font également fonctionner les valves du financement de l’économie. Un certain nombre d’entre elles se sont positionnées sur ce créneau du financement, qu’il soit au service de ménages, de projets ou d’entreprises. KissKissBankBank, pionnier du crowdfunding français et rentré dans le giron de La Banque Postale, permet ainsi depuis 2009 de collecter des fonds auprès de « la foule » pour réaliser des projets variés dans l'art, la culture, l'écologie ou encore le sport. D’autres acteurs affichent la volonté d’ouvrir les vannes du crédit aux particuliers, à l’instar de Younited Credit, spécialisé dans le prêt à la consommation. Financer les projets et imprévus du quotidien, comme un mariage ou la réparation d’une voiture, contribue à générer alors de la croissance, notamment locale. Enfin, d’autres startups œuvrent quant à elles à faciliter le financement des entreprises, qu’elles soient TPE, PME ou même ETI. Un effort soutenu par le gouvernement qui s’efforce de mettre en place un environnement avantageux, notamment fiscal.

Un dernier point enfin. Malgré leur développement parfois exponentiel, même les startups à plus forte croissance restent sur le sol national, loin de négliger leur « empreinte fiscale ». En d’autres termes, elles ne fuient pas le montant de prélèvements obligatoires à payer en France (impôt sur les sociétés, cotisations sociales, taxes foncières, cotisation sur la valeur ajoutée, etc.), alors que ce dernier pèse parfois lourdement dans le développement d’une jeune entreprise. Une image qui va bien à l’encontre de celle renvoyée par les fameux GAFA - Google, Apple, Amazon, Facebook et consorts. Qu’elles soient en phase de création ou d’internationalisation, les startups tricolores contribuent, à leur échelle, à l’effort national et par là, à la croissance hexagonale.



Par Jean-Pascal Ancelin, Vice-Président Europe du Nord, MicroStrategy

Il existe de nombreuses formes d'intelligence. Le calcul du QI valorise principalement l'intelligence logico-mathématique, mais il existe également l'intelligence spatiale, l'intelligence interpersonnelle ou encore l'intelligence rythmique. Qu'en est-il du traitement visuel hyper rapide ? C'est une compétence que détiennent par exemple les chimpanzés, développée pour favoriser la survie en milieu hostile et que nous avons perdue, au profit du langage. Si la technologie nous rendait cette capacité, serait-ce une révolution dans la prise de décision contextualisée et l'analytique ? Sans aucun doute.

Peut-on encore capter l'information utile ?
Le monde change. Et accélère sans commune mesure. Chacun d'entre nous ressent la puissance de l'accélération. 44 ZB de data produites sont annoncés en 2020. 44 Zettabits, soit un peu plus de 11 milliards d'années de visionnage vidéo. Pour prendre la mesure de la vitesse de l'univers numérique, il faut se souvenir que l'Observatoire mondial de la donnée estimait la masse de données stockées en ligne à 4,4 ZB en 2014. La virgule s'est donc déplacée d'un cran en l'espace de 6 ans et c'est un autre monde que nous découvrons.

Aujourd'hui, 80 % des organisations dans le monde ont adopté une stratégie cloud first et les investissements réalisés en intelligence artificielle ont progressé de 300 % en 2017. Cette très haute technologie nous permet désormais de prendre d'excellentes décisions sur des sujets stratégiques, nourries de données précises et certifiées, en quelques jours, parfois en quelques heures seulement. Nous prenons également des dizaines de décisions opérationnelles chaque jour, en quelques minutes seulement, depuis nos applications métiers mobiles, à portée de main.

Mais saurons-nous suivre la cadence pour autant ?

L'intelligence visuelle hyper-rapide


Savons-nous par exemple prendre une décision en quelques secondes ? Nous pouvons faire des choix personnels en quelques secondes. Mais qu'en est-il des décisions business, de celles qui exigent de l'information pour être prises en toute sécurité ? L'expérience menée il y a quelques années par l'Institut de recherche sur le primate à l'Université de Kyoto a montré à quel point le chimpanzé est capable de performances intellectuelles que nous autres êtres humains sommes loin d'atteindre.

Le primatologue Tetsuro Matsuzawa a choisi de soumettre à des hominidés une suite de chiffres, placés de manière aléatoire sur un écran et affichés un (très) court instant. L'objectif pour le chimpanzé était de retenir l'emplacement de chaque chiffre et de cliquer dans l'ordre croissant sur chaque emplacement dissimulé. Il y parvient avec une aisance peu commune.

Ce que Ayumu le chimpanzé réalise est certainement exceptionnel et sa mémoire est prodigieuse. Il n'a besoin que de deux dixièmes de secondes pour mémoriser chaque emplacement, sans hésitation aucune. Ses congénères ont présenté la même aptitude.

Généralement, nous ne disposons que de quelques secondes pour nous informer. C'est le cas par exemple quand nous sommes au téléphone avec un client, quand nous réagissons à une publication, quand une question est posée en réunion. Nous savons que l'information existe, qu'elle est disponible quelque part dans le système de l'entreprise mais le temps pour la consulter nous manque et l'occasion d'y accéder est passée.

La vraie intelligence analytique


La capacité de prendre de bonnes décisions très rapidement nous vient de notre instinct de survie. C'est une forme d'intelligence que les chimpanzés ont conservée et que nous n'exploitons pas quand nous ne sommes pas en danger immédiat. C'est pourtant une qualité dont nous pourrions avoir grand besoin en cette époque d'extrême vitesse. A défaut d'en faire naturellement preuve à tout instant, il est désormais possible de l'injecter dans nos entreprises.

Il existe d'autres façons de concevoir l'intelligence en entreprise. Recevoir la réponse sans poser la question, faire en sorte que la bonne information parvienne à la bonne personne exactement quand celle-ci en a besoin, sans exiger d'elle la manipulation fastidieuse de ses outils d'analyse et de reporting, donner ce « super pouvoir » à tous les collaborateurs de l'entreprise, cela relève désormais du possible.
5G


Par Nick Ben, Ingénieur Marketing Produit - Keysight Technologies, Inc


L'innovation technologique modifie la manière dont la société interagit avec le monde qui l'entoure et la vitesse à laquelle elle s'accomplit.

Il n'y a pas si longtemps, une lettre manuscrite prenait des semaines pour pour arriver à tante Abby. Ensuite, le courrier électronique est arrivé et a fondamentalement changé notre façon de communiquer, en permettant aux messages d'être livrés en quelques secondes plutôt qu'en quelques jours ou semaines.
L'innovation dans les moteurs mécaniques a permis à l'industrie automobile de s'imposer, en remplaçant les voitures hippomobiles et en aidant les personnes et les marchandises à se rendre d'un point A à un point B en une fraction du temps qu'il fallait autrefois.

Bien que la 5G New Radio (NR) soit en partie née de la demande des consommateurs, elle est principalement attribuée aux innovateurs qui repoussent les limites de la technologie et de la vitesse. Les consommateurs ont un besoin croissant et insatiable de bande passante et de vitesse, mais une grande partie de ce besoin est stimulée par l'innovation technologique.

Aussi prometteuse que puisse paraître, la mise en œuvre de la technologie 5G NR comporte ses propres défis.


5G Nouvelle Radio


La demande des consommateurs pour plus de bande passante, des vitesses de transfert de données plus élevées et une meilleure connectivité pousse les ingénieurs à innover au-delà des technologies cellulaires, en utilisant la 5G NR pour répondre à ces demandes avec un réseau de communication fiable. Avec la 5G NR, vous devrez utiliser les technologies nouvelles et existantes pour atteindre des débits de données extrêmes tout en introduisant simultanément de nouveaux défis de tests : des tests à des fréquences d'ondes millimétriques, une large bande passante des canaux et des configurations multi-antennes complexes.

Les appareils mobiles et les stations de base 5G NR implémenteront des conceptions d'ondes inférieures à 6 GHz et millimétriques (mmWave) qui nécessitent l'optimisation et la validation des performances du faisceau 3D avec de nouvelles configurations de test OTA (Over-the-Air) plus complexes avec des largeurs de bande de canaux et des exigences de test MIMO multicanaux. Cette complexité augmente le nombre d'instruments nécessaires et les incertitudes de mesure dans les systèmes OTA mmWave, ce qui rend plus difficile la réalisation de mesures précises et reproductibles.

Voyons les choses en face, même avec l'incertitude d'une nouvelle norme radio 5G en évolution, la 5G a des applications intéressantes dans une variété d'industries.

Pour l'automobile, le temps de réponse des véhicules autonomes en cas d'urgence est beaucoup plus rapide que le temps de réponse humain.  Dans le domaine du divertissement et de la diffusion multimédia en continu sur les téléphones mobiles et les PC, la durée moyenne de téléchargement d'un film peut passer de 7 minutes à 6 secondes.   Enfin, dans le domaine de l'IdO, la 5G promet d'accroître la sécurité et la santé en permettant aux appareils IoT de bénéficier des vitesses de transfert de données élevées dans la maison intelligente.
Cependant, pour y arriver, vous devrez d'abord franchir 3 obstacles difficiles lors des tests 5G.


Les 3 Défis clés



  1. Complexité de la configuration du système de test
    Les tests 5G nécessiteront généralement des configurations de tests plus complexes pour caractériser les nouvelles conceptions cellulaires. Les premières applications 5G fonctionneront à des fréquences inférieures à 6 GHz et à des fréquences d'ondes mmWave comprises entre 28 GHz et 39 GHz. La 5G nécessitera également des largeurs de bande de modulation plus élevées (jusqu'à 2 GHz) pour prendre en charge les débits de données de pointe. Etant donné que les applications 5G fonctionnent à des fréquences d'ondes mmWave, les configurations effectuées précédemment ont été remplacés par des configurations de test en direct avec des antennes réseau à commande de phase. Ces antennes se connectent directement à votre circuit intégré RF (RFIC). Ils offrent un gain élevé et des capacités de direction du faisceau qui permettent une plus grande fiabilité aux fréquences d'ondes mmWave.
  2. Augmentation de la perte de trajectoire du système
    Puisque le signal désiré se propage maintenant dans l'air au lieu d'un câble physique, il y a une certaine perte de chemin du système. L'affaiblissement sur le trajet du système est élevé et le rapport signal/bruit (SNR) est faible. Un faible rapport signal-bruit provoque des mesures de l'émetteur avec une faible amplitude du vecteur d'erreur (EVM) et un rapport de puissance du canal adjacent (ACPR). Cela signifie que les mesures ne montrent pas les performances réelles d'un appareil et réduisent simultanément la sensibilité du récepteur. Dans le monde actuel de l'OTA, le concept de test d'antenne rayonnée est bien connu. Cependant, avec le passage de la 4G à la 5G, les tests OTA impliqueront également des tests de performances paramétriques et fonctionnels RF à des fréquences d'ondes millimétriques. Ces tests vont des essais EVM et ACLR (adjacent channel leakage ratio) aux tests de modem et de débit de données.
  3. Cycles longs de développement de produits
    Enfin, la norme 5G NR présente un autre grand défi en matière de tests, à savoir le nombre croissant de tests à effectuer, ce qui peut allonger les cycles de développement des produits. Cela s'explique en partie par le fait qu'il est parfois difficile de passer des tests à deux canaux brouilleurs à des tests MIMO et de formation de faisceaux sur deux canaux.  Les ingénieurs doivent également garder à l'esprit qu'avec la nouvelle norme, il y a plus d'éléments et de scénarios de test qui doivent être validés.
  4. De plus, il est fastidieux d’attendre un fournisseur pour obtenir les derniers signaux conformes à la norme 5G NR pour votre application pour une norme en évolution. Ces défis ne sont pas seulement une source de tracas, mais vous éloignent du temps de développement des produits de base qui peut vous ralentir dans la course à la 5G.

La solution


Il est connu que la 5G NR nécessite une largeur de bande de modulation plus large (2 GHz) et fonctionne aux fréquences mmWave. Par exemple, pour tester un récepteur, un générateur de signal fiable qui répond à ces qualifications minimales est nécessaire. Pour la variété de tests 5G requis, avoir plusieurs instruments n'est pas la meilleure solution. Un instrument qui effectue tous vos tests dans une seule boîte réduira non seulement la durée de configuration de vos tests, mais contribue également à répondre plus rapidement aux normes 5G 3GPP.

Bien que le fonctionnement à des fréquences d'ondes millimétriques présente des avantages, l'un des inconvénients majeurs est l'affaiblissement sur le trajet du système. La compensation de l'affaiblissement excessif du système à des fréquences d'ondes mm nécessite un générateur de signaux à puissance de sortie élevée. Un générateur de signal doit également avoir une section de sortie linéaire, moins de distorsion et un faible bruit de phase à des niveaux de puissance élevés. Ils sont essentiels pour effectuer des mesures précises à des fréquences d'ondes mmWave et s'assurer que des erreurs ne proviennent pas du générateur de signal. Pour compenser l'excès d'affaiblissement de trajet, augmentez la puissance de sortie du générateur de signaux et utilisez un analyseur de signaux très sensible pour compenser cette perte.
Le temps de développement du produit peut être ralenti par l'absence d'un générateur de signal fiable permettant de passer rapidement d'un test indépendant de canal d'interférence à un test MIMO à deux canaux et à un test de formation de faisceau, et par la nécessité de se tenir à jour de manière indépendante en créant des signaux conformes au 5G NR. Les sources de signaux avec deux canaux doubles intégrés peuvent permettre une multitude de configurations de test de conformité 3GPP. Un logiciel qui possède des signaux conformes à la norme 5G NR permet de se concentrer uniquement sur le développement de produits et non sur la création méticuleuse de nouveaux signaux conformes.

La technologie 5G NR est révolutionnaire. Cela aura un effet domino sur les autres changements technologiques, car le réseau cellulaire offre plus de bande passante, des vitesses de transfert de données plus élevées et une meilleure connectivité. Les opportunités que la 5G apportera sont illimitées et nécessiteront les bons outils pour surmonter ces défis de test :
·       La complexité de la configuration du système de test,
·       L'augmentation de l'affaiblissement sur le trajet du système, et
·       De longs cycles de développement de produits.
Les bons outils vous aideront non seulement à garder une longueur d'avance dans la course à la 5G, mais ils vous donneront également une plus grande confiance dans les performances de l'appareil - plus rapidement.
ia


Par Hugo Bompard, cofondateur et Directeur Scientifique de Nalo


Malgré des principes anciens et un premier effet de mode dans les années 1990-2000, c’est seulement depuis quelques années que l’intelligence artificielle explose dans tous les secteurs de l’économie grâce au big data et à l’augmentation des capacités informatiques. Et la finance ne fait pas exception à cette lame de fond.

L'intelligence artificielle a très tôt fait son apparition dans le secteur financier. Rien d’étonnant à cela, puisque cet univers de données chiffrées et normées constitue une matière  facilement exploitable par un algorithme. Pour autant, la révolution n’en est encore qu’à ses débuts.

Finance de marché : l’« IA » s’attaque aux données non structurées


L’intelligence artificielle est apparue depuis déjà plus de 10 ans en finance de marché avec le développement des algorithmes d’investissement quantitatif. Ces méthodes d’investissement, capables de gérer des ordres d'achat et de vente de manière automatisée, ont notamment fait parler d’elles au travers du trading à haute fréquence. De nos jours, l’exploitation des données chiffrées « classiques » (données comptables, tendances boursières) est néanmoins arrivée au maximum de ses capacités. En conséquence, l’« IA » s’attaque à un nouveau domaine : l’exploitation de données non chiffrées et non structurées.

Ainsi, les algorithmes les plus poussés peuvent désormais analyser automatiquement des blogs spécialisés sur un marché donné, par exemple sur le marché pétrolier. Le but : en extraire des informations de première main n’ayant pas été reprises dans les grands médias et n’étant pas encore intégrées dans les cours. De même, certains algorithmes d'investissement quantitatif peuvent analyser les pages d'offres d'emplois de chaque entreprise pour identifier, avant l'annonce des résultats trimestriels, une éventuelle accélération ou décélération de l'activité de ces entreprises. Sans parler, bien sûr, des algorithmes permettant de déterminer l'e-réputation d'une entreprise à travers les messages véhiculés sur les réseaux sociaux, pouvant donner de précieuses indications sur la capacité d'une entreprise à séduire ses clients.

Conseil financier : des algorithmes meilleurs que les humains


L'intelligence artificielle émerge également depuis une période plus récente dans un nouveau domaine : celui du conseil financier. Cette tendance, qui se développe à grands pas, aura pour les particuliers des applications beaucoup plus tangibles que les méthodes d’investissement quantitatif.

Une première application de l'intelligence artificielle au domaine du conseil financier est celle des « chatbots ». Ces outils, de plus en plus répandus, sont utilisés pour dialoguer automatiquement avec les particuliers, en leur apportant des réponses simples au sujet de la gestion de leur épargne. Ils permettent notamment de fluidifier la relation des clients vis-à-vis de leur banque, en obtenant des réponses immédiates à leurs questions à toute heure de la journée.

La seconde application de l'intelligence artificielle au conseil financier est liée aux « robo-advisors ». En plein développement, ils permettent de proposer aux particuliers des placements adaptés à leurs objectifs financiers et à leur environnement patrimonial. Contrairement à un conseiller bancaire, qui aura intérêt à vendre les produits d'épargne de son propre établissement, ou à un conseiller en gestion de patrimoine, qui mêlera à ses conseils sa propre sensibilité au risque, le robo-advisor présente l'avantage de proposer des recommandations sans biais, qu’ils soient émotionnels ou financiers.

Le but : diriger l’humain vers des tâches à forte valeur ajoutée


L’intelligence artificielle permet en somme d’automatiser un ensemble de tâches parfois complexes, comme l'analyse de grandes quantités de données, tout en sachant délivrer des solutions propres à chacun. La gestion systématisée d’une allocation d’actifs diversifiée ou du passage d’ordres permet un gain de temps précieux aux professionnels de la finance qui peuvent ainsi se concentrer sur des tâches à plus forte valeur ajoutée. Dans le domaine du conseil, ceux-ci peuvent notamment être davantage disponibles auprès de leurs clients pour les aider à se projeter, imaginer leurs projets et ainsi mieux définir leurs objectifs financiers. Dans ce domaine, un algorithme ne remplacera jamais l’humain.

Enfin, le développement de l’« IA » dans le domaine financier va de pair avec certaines innovations semblables dans le domaine du droit. Depuis peu, les « legaltechs » permettent par exemple d’établir et de suivre de manière automatique des contrats personnalisés en fonction des spécificités de chaque client. Des outils semblables pourront à l'avenir être adoptés en finance, par exemple pour traiter des problématiques patrimoniales : rédaction d'actes notariés et traitement des successions. Les applications de l’intelligence artificielle n’en sont donc qu’à leurs débuts !
vivatech


C'est LE salon sur le numérique qu'il ne faudra pas rater la semaine prochaine à Paris : VivaTech. Le Rendez-Vous Mondial des Startups et Leaders pour célébrer l'Innovation va  rassembler quelque 9000 Investisseurs, 125 Pays., 1 900 Journalistes et plus de 100000 personnes attendues.

La région Occitanie sera présente en force sur ce salon. Elle sera accompagnée de 3 grands groupe (ENEDIS, RAKUTEN et HBF) qui chacun accueillera 6 start-up. Parmi lesquelles  :

Startup « IoT & SmartHome » 

Parrainées par le Groupe HBF, qui présentera sur place sa toute nouvelle gamme d’objets connectés Otio https://www.otio.com/

FeelObject 



Virtuoz est un plan tactile et interactif qui permet aux personnes malvoyantes et non-voyantes de se déplacer en autonomie. FeelObject veut donner la possibilité aux malvoyants et non-voyants de profiter d’une expérience touristique depuis leur arrivée jusqu’à leur départ, que ce soit en France ou à l’étranger.


Ecojoko



Ecojoko est une solution simple et abordable permettant de contrôler en direct sa consommation électrique et recevoir des conseils sur son smartphone pour être énergétiquement plus malin grâce à une intelligence artificielle au service de l’intelligence humaine.

Linkio 

Linkio permet de rendre une maison connectée via des modules qui contrôlent chaque appareil électroménager à partir d’un téléphone. Avec la technologie Bluetooth Low Energy Mesh, le consommateur peur créer et contrôler son propre environnement.

Sunchain 

Sunchain propose une solution basée sur une technologie blockchain & IoT pour la gestion de l’autoconsommation collective. Les données de consommation et de production d’électricité sont cryptées, signées et enregistrées directement à partir des compteurs communicants. Pour le compte des Personnes Morales Organisatrices de l’autoconsommation collective, Sunchain réalise une répartition de l’énergie dynamique, sécurisée et certifiée.

Startup Thématique « Loisirs et Tourisme »

DataCup

Datacup propose l’accès, dans des zones dépourvues d’internet, à des milliers de ressources éducatives et culturelles, accessibles à partir de smartphones, tablettes et même téléviseurs. Déployable dans tout lieu public, DataCup offre un accès à des ressources libres de droits, du domaine public ou en Creative Commons consultables et téléchargeables.
Datacup a déjà des clients, notamment des ONG en Afrique. DataCup résiste aux conditions extérieures…et aux fortes chaleurs.


Awadac



Awadac offre une solution digitale pour la restauration et l’hôtellerie grâce à une interface permettant aux clients de commander des produits et services directement depuis leur table. Awadac propose aux professionnels de gagner du temps avec la relation client, améliorer son expérience et faciliter le travail des serveurs en salle, tout en performant.

Coursicab

Coursicab est une plate-forme technologique qui offre la possibilité aux commerçants et e-commerçants de se connecter à des chauffeurs de taxi pour la livraison urbaine de colis, en moins de 60 minutes, 24h/24 et 7j/7.

Mycarspot

Mycarspot est spécialisée dans l’optimisation du parking des entreprises et offre une solution digitale et collaborative pour faire gagner du temps aux collaborateurs d’entreprise.

Start-up « Energie & Mobilité » parrainées par ENEDIS

TwinswHeels

TwinswHeels est un robot autonome qui s’adapte à différents métiers, peut aider une personne âgée à faire ses courses ou faciliter les déplacements dans un entrepôt. Il peut se déplacer à côté d’un opérateur, se piloter à distance ou être 100% autonome. Il peut répondre aux attentes de la smart city et de l’industrie 4.0.

HMT

La jeune pousse Human Mechanical Technologies (HMT) a reçu le prix du concours de start-up d'Enedis pour ses exosquelettes destinés à prévenir et diminuer les troubles musculo-squelettiques en milieu professionnel. La société de Tarbes doit démarrer sa phase d'industrialisation en février pour répondre aux commandes de ses huit premiers clients.

Virdys

Virdys a développé une suite logicielle globale de digitalisation 3D dédiée à la formation, à l’entraînement et à la communication immersive au sens large. Le résultat est directement visualisable sur multi-supports (2D/VR/AR/MX).

Start-up« Digital Content Publishing » parrainées par Rakuten Aquafadas et Tech Mahindra


Numevent

Numevent est une solution de création et gestion d’événements professionnels via application Web et Mobile. L’application permet aux membres d’un événement d’interagir grâce à un système d’invitation, de vote, d’enquêtes jusqu’aux statistiques post-événement. Plus de 12 fonctionnalités agiles avec une interface de gestion facile et agréable.

Novelab

Novelab crée des expériences et installations interactives et immersives dans le domaine de la réalité virtuelle (Exemple ici). Ils combinent une technologie haut de gamme avec des histoires de grande qualité.

Argo

Argo propose la solution SnapPress, une plate-forme universelle où l’on peut diffuser du contenu en réalité augmentée. Argo s’oriente également vers la réalité augmentée sur PDF grâce à une nouvelle technologie, pour dynamiser les fichiers et créer une connexion directe entre l’utilisateur et l’entreprise.


A l'occasion de sa grande conférence "Google I/O" qui s'est déroulée à San Francisco, Google a annoncé plusieurs nouveautés matérielles : des smartphones moins chers et, surtourt, un Google Hub.

Le Google Nest Hub est un écran intelligent avec l’assistant Google intégré, qui propose aux utilisateurs tous les avantages de l'enceinte connectée Google Home avec en plus un écran de 7 pouces pour obtenir de l’aide en un coup d’oeil à la maison. Comme pour l'enceinte, il est possible rien qu’à la voix de consulter les derniers événements et rappels de son compte Google, contrôler ses appareils connectés compatibles (lumières, thermostat, etc.), poser des questions, visualiser les photos de son compte Google Photos, etc.



La présence de l'écran ajoute un nouveau niveau d'utilisation et devrait faire du Google Nest Hub un parfait compagnon dans une cuisine, pour suivre une recette par exemple ou un programme télévisé. D'ailleurs, pour ce lancement en France, Google s’est associé à différents partenaires pour offrir aux utilisateurs des contenus de qualités. Parmi les partenaires ont trouve myCanal pour regardes des films ou les chaînes du groupe Canal +, plusieurs sites et chapines d'infos (LCI, Franceinfo, Euronews, France24), des sites de cuisine (750g, Chef Simon, Cuisine Actuelle et Femme Actuelle) et d'auters partenaires (Sephora, Maître Gribouille).

Le Google Nest Hub sera disponible en deux coloris (Galet et Charbon) au prix de 129€ dés 28 mai à la FNAC Darty, chez Boulanger, Carrefour, Leclerc, C-Discount, Leroy Merlin, Castorama, Auchan et sur le GStore, la boutique en ligne de Google, GStore. Il est d'ores et déjà disponible en précommande. Google proposera également 3 mois offerts à YouTube Music Premium pour tout achat d’un Google Nest Hub.

Amazon Echo Show

Si les enceintes connectées ont le vent en poupe et se livrent une concurrence acharnée, les enceintes avec écran, plus chères, commencent à apparaître. Amazon a enrichi sa gamme Echo avec Echo Spot (129,99€), une enceinte ronde avec un petit écran et Echo Show (229,99€), qui comprend un écran HD de 10 pouces. Les deux fonctionnent avec l'assistant vocal Alexa et font marcher les skills, des applications dédiées. Des partenariats ont également été noués avec plusieurs acteurs (Deezer, Marmiton, TéléLoisirs, etc.).

Lenovo
Le Lenovo Smart Display


Enfin, outre les deux géants du net Google et Amazon, des constructeurs tiers se sont lancé dans l'aventure comme Lenovo qui propose le Smart Display (239,99€) qui dispose d'un écran de 10,1 pouces et peut se positionner horizontalement ou verticalement.
sciences


A l'heure des fake news qui inondent les réseaux sociaux voire certaines émissions de télévision en remettant en cause le réchauffement climatique ou l'importance des vaccins, voilà une initiative intéressante : Exploreur.
Avec les 31 universités écoles et organismes de recherche de Toulouse, l’Université fédérale Toulouse Midi-Pyrénées lancera mardi 14 mai prochain Exploreur, une démarche collective de diffusion de la culture scientifique, pour contrer les fake-news et répondre aux envies des curieux de sciences.

7000 chercheurs mobilisés

"Pont entre la science et la société, Exploreur invite les 7000 chercheurs et 143 laboratoires de recherche de l’académie, producteurs de connaissances scientifiques tout aussi riches que diverses, à partager avec le public leur travail et leur passion pour la recherche. Fruit d’une dynamique collective, Exploreur permet d’accéder à une programmation conçue pour nourrir la curiosité, partager la démarche scientifique et dévoiler les dernières avancées scientifiques et technologiques", expliquent les fondateurs de cette plateforme inédite.
Parmi les actions d'Exploreur figurera notamment un nouveau site web afin de donner aux citoyens des clés pour mieux comprendre les enjeux soulevés par les avancées scientifiques.

Table ronde sur la diversité

Le lancement d'Explorer se fera sous la houlette de Philippe Raimbault, président de l’Université fédérale Toulouse Midi-Pyrénées, en  présence de Catherine Jeandel, océanographe au laboratoire d’études en géophysique et océanographie spatiales (LEGOS) et sera suivi à 18 heures d'une table ronde autour de la thématique Diversités en présence de plusieurs chercheurs : Sébastien Brosse, chercheur en biologie au laboratoire Évolution et diversité biologique, Frédéric Vella, chercheur en informatique à l’Institut de recherche en informatique de Toulouse et Jean-Luc Probst, chercheur en écologie au laboratoire Écologie fonctionnelle et environnement.


Par Rainer W. Kaese, Senior Manager Business Development Storage Products, Toshiba Electronics Europe

Que vous vous promeniez dans une ville lambda ou que vous passiez du temps au restaurant, il y aura toujours des gens pour prendre des photos et des vidéos d’amis, d’eux-mêmes ou de leurs repas. Activité autrefois liée au coût de développement d'un film, la photographie et la vidéographie sont maintenant à la portée de presque tout le monde. Mais qu’advient-il de toutes ces photos ? Prenons-nous le temps de supprimer des vidéos dont nous ne voulons plus?

Dans la mesure où le 31 mars a été désigné Journée mondiale de la sauvegarde, Toshiba a décidé de consulter Facebook pour savoir si nous sécurisions nos données et si nous prenions le temps de nettoyer nos smartphones, ordinateurs portables et ordinateurs de bureau.

Est-il vraiment facile de sauvegarder nos données?


Beaucoup d’entre nous aurons, ou connaîtrons quelqu'un qui a eu, une histoire concernant une perte de données. Nous avons soit supprimé la seule copie d'un fichier sensible, soit la disparition d'un ordinateur portable ou d'un téléphone a également entraîné la perte de nos données. Quand on les interroge après une catastrophe, il semble toujours que nos malheureux amis aient eu l'intention de mettre en place une sorte de régime de sauvegarde mais, pour diverses raisons, ne s'en sont pas souciés à temps. Heureusement, selon notre enquête, cela est en train de changer. Parmi les 1 600 personnes interrogées, 73% déclarent que la sauvegarde de fichiers à partir de périphériques intelligents et de PC est facile, tandis que 27% la trouvent toujours compliquée.



Cela s'explique en partie par le fait que les systèmes d'exploitation pour smartphones, tablettes et ordinateurs sont fournis avec une gamme de services de sauvegarde et de synchronisation. Sur les PC, la suppression d’un fichier ne le supprime plus immédiatement du disque dur. Au lieu de cela, il est déplacé vers une corbeille, permettant ainsi de récupérer des fichiers supprimés par inadvertance si nécessaire. Les appareils Android conservent une copie des photos et des vidéos dans la bibliothèque Google Photos, tandis que les utilisateurs Apple disposent des mêmes fonctionnalités via la bibliothèque iCloud Photo. Une fois téléchargées sur le cloud, les photos et vidéos de l’utilisateur peuvent être synchronisées avec d’autres périphériques, tels que des tablettes, ainsi qu’avec des services liés à un navigateur spécifique.


Le nettoyage de printemps s'étend-il à nos vies numériques ?


On pense que le nettoyage de printemps a pour origine la tradition du « Réveil de la maison » du Nouvel An persan, mais il pourrait également être lié à la pratique juive ancienne consistant à nettoyer la maison avant Pâque. Peu importe, la saison du printemps, avec la vie qui fleurit tout autour de nous, semble être un bon moment pour éliminer les déchets indésirables. Mais pensons-nous également notre courier numérique  indésirable ?

Selon nos répondants, la réponse est affirmative : 87% d'entre eux déclare avoir supprimé des photos et des vidéos non désirées de leurs appareils numériques au cours des douze derniers mois. Malgré la quantité de stockage disponible sur les smartphones d’aujourd’hui, la capacité maximale est finalement déjà atteinte, nous laissant ainsi le choix entre conserver des photos ou des vidéos ou supprimer les applications les moins souvent utilisées. Même les solutions de stockage cloud ne fournissent gratuitement qu'une quantité limitée de stockage. Nous sommes donc obligés de choisir entre le nettoyage ou le stockage supplémentaire.


Optimisons-nous notre espace de stockage disponible ?


La mémoire disponible a toujours été une primordiale depuis l'invention du PC et de nombreux outils ont été développés pour l’optimiser. Celles-ci vont de la compression de fichiers sur des disques durs à des solutions pour augmenter la quantité de mémoire disponible. Les participants à notre enquête ont déclaré que seulement 44% d’entre eux utilisaient une sorte d’application pour optimiser le stockage sur leurs appareils numériques. L'une des raisons est peut-être la connotation négative liée à l'optimisation du stockage; en  fin de journée, il faudra se résoudre à supprimer un fichier  pour libérer de l'espace.

Certains smartphones et tablettes émettent déjà des recommandations de temps en temps lorsque le stockage est limité, suggérant des applications peu utilisées pouvant être supprimées pour libérer de l'espace. Sinon, sans une application pour vous aider, il vous faudra beaucoup de temps pour trouver un moyen de libérer du stockage. La plupart des appareils proposent dans leurs paramètres une méthode indiquant quelles applications encombrent le stockage. Il s'agit généralement d'applications de messagerie et de médias sociaux qui conservent des copies locales d'images, de vidéos et de textes. Ici, il vaut la peine de faire appel à des applications qui gérent les demandes de stockage et fournissent un avertissement à l’avance avant que les problèmes ne surviennent.

Pour les utilisateurs de PC et d’ordinateurs portables, il existe également toute une gamme d’outils utiles. Pour les utilisateurs Windows, WinDirStat fournit une vue visuelle simple des fichiers qui consomment le plus d’espace. Les types de fichiers communs codés par couleur pour les images et les vidéos facilitent l’évaluation. Il existe également des versions disponibles pour les utilisateurs Linux et iOS. Pour ceux qui travaillent et modifient de grandes quantités de photos, les fichiers en double peuvent devenir un problème avec le temps. Les appareils reflex mono-objectif grand format devenant de plus en plus abordables, chaque photo peut atteindre des dizaines de mégaoctets. Les applications de recherche de fichiers en double aident à localiser les images avec le même contenu, de sorte que vous ne puissiez en conserver qu'une seule.


Mais sauvergardons-nous actuellement nos fichiers?


Bien que plus du quart de nos répondants aient affirmé qu'il était difficile de sauvegarder ses données les données numériques, près de neuf sur dix sauvegardent tout de même leurs fichiers. C’est une bonne nouvelle et nous éviterons une peine irremediable lorsque les appareils numériques, sur lesquels nous comptons tant, nous font défaut à un moment critique.


Pour les 9% qui n’ont pas développé d’approche liée à la sauvegarde de fichiers, la solution ne pourrait être plus simple. Masses de stockage portable, sous la forme de disques durs externes USB. Depuis l’avènement de l’USB 3.0, le transfert de données vers de tels périphériques est devenu extrêmement rapide et les disques d’aujourd’hui offrent une capacité de téraoctets non néglogeable dans des boîtiers élégants et minces, sans nécessiter une alimentation séparée. Connectez simplement le disque externe à votre ordinateur portable et copiez vos précieux fichiers comme vous le feriez sur un disque ou un dossier interne. Cependant, certains disques, tels que la gamme Toshiba Canvio, sont également fournis avec des outils de sauvegarde qui simplifient considérablement la vie (figure 2). Le logiciel de sauvegarde Toshiba Storage, fourni avec les disques Canvio, peut être configuré pour sauvegarder automatiquement des fichiers individuels ou des dossiers entiers à un moment de la journée qui convient à l'utilisateur.
password



Par Arnaud Gallut, Directeur des Ventes Europe du sud, Ping Identity.

Le 2 mai prochain marquera la troisième édition du World Password Day, dont l’objectif est de mobiliser l’opinion publique sur la nécessité de disposer de mots de passe robustes. Le fait que les mots de passe sont aujourd’hui omniprésents dans la nouvelle économie numérique n’échappe à personne, et surtout pas aux cybers criminels, qui s’y attaquent en priorité, et savent d’une part qu’ils sont simples à usurper dans la grande majorité, et d’autre part qu’ils sont la porte d’entrée aux informations et aux ressources les plus précieuses. D’après le Data Breach Investigation Report 2017 de Verizon, 81% des cyber attaques réussies ont exploité des mots de passe insuffisamment robustes ou volés. La faible robustesse des mots de passe est de notoriété publique. Bien plus, d’après une récente enquête OVUM, 80% des utilisateurs conservent le même mot de passe pour différents comptes, et 46% des employés utilisent des mots de passe personnels pour leurs comptes professionnels. La raison est simple. Plus les mots de passe sont complexes et multiples, plus ils sont difficiles à mémoriser. Beaucoup d’organismes officiels, la CNIL en France par exemple, recommandent des bonnes pratiques pour limiter les risques, telles que des mots de passe d’au moins 12 caractères de 4 types différents, un mot de passe par compte, des mises à jour régulières, l’absence de tout lien entre le mot de passe et son propriétaire, ou encore l’utilisation d’un gestionnaire de mots de passe. Mais ces pratiques sont peu respectées car elles sont contraires aux attentes des utilisateurs, qui privilégient l’ergonomie et la simplicité d’accès.

Ceci étant dit, ne nous y trompons pas. Quelle que soit leur robustesse et les bonnes pratiques utilisées, les mots de passe n’offrent plus un niveau de sécurité suffisant pour protéger les données les plus sensibles. Dans l’immense majorité des cas, ils sont devenus simples à usurper, et n’importe quel cyber criminel sérieux, s’il y met les moyens, mettra moins d’une journée par y parvenir. Sans compter qu’il pourra se servir sur le ‘dark web’, où des milliards d’identifiants sont disponibles à un prix modique.

De nouveaux standards à la rescousse du mot de passe


Le W3C (World Wide Web Consortium) et la FIDO Alliance, à l’origine des standards les plus répandus d’Internet, ont récemment finalisé l’API WebAuthn, dont l’objectif avoué est de généraliser une authentification sans mot de passe (Passwordless). WebAuthn est disponible gratuitement et déjà supportée par tous les principaux navigateurs, ainsi que par Android et Windows 10. Il permet aux fournisseurs de services de remplacer le mot de passe par une validation de l’authentification de l’utilisateur sans transmettre de données sensibles en y procédant localement sur son poste de travail (tablette, périphérique ou smartphone). La validation de l’authentification s’effectue alors par des moyens tiers interfacés avec cette API, tels qu’une clé de sécurité USB ou une montre connectée par exemple. L’intérêt de cette API est de ne plus avoir de mot de passe à véhiculer sur les réseaux.

La biométrie, remède miracle ?


Beaucoup d’acteurs de l’industrie high tech prédisent la disparition totale des mots de passe comme méthode d’identification, et son remplacement notamment par des systèmes biométriques. Les systèmes de lecture d’empreintes digitales et de reconnaissance faciale se multiplient ainsi depuis plusieurs années, en particulier sur les terminaux mobiles. Toutefois, les solutions biométriques ne sont pas non plus immunisées contre les attaques. La technologie de lecture des empreintes digitales s’est certes grandement améliorée ces dernières années, mais n’est toujours pas infaillible. Elle peut notamment être prise en défaut par des solutions d’intelligence artificielle et de machine learning qui permettent de réaliser des empreintes ‘passe partout’. Même chose pour les solutions de reconnaissance faciale, dont certaines peuvent être trompées à l’aide d’une simple photo d’identité.

Authentification multifacteur et SSO : le duo gagnant


La biométrie utilisée seule a donc elle aussi ses faiblesses. Cela ne veut pas dire qu’elle est inutile, mais simplement qu’elle souffre des même défauts qu’un mot de passe en tant qu’authentification unique. Que ce soit en utilisant un visage imprimé en 3D, en créant de fausses empreintes, ou en craquant simplement un mot de passe de secours trop faible, il est beaucoup plus facile pour un attaquant de s’emparer d’un compte utilisateur qui n’est pas protégé par au moins deux facteurs d’authentification.

L’authentification multifacteur, associant par exemple biométrie, mot de passe et terminal identifié, est ainsi seule capable d’offrir un niveau maximum de sécurité car elle impose à l’attaquant de prendre le contrôle de non pas un mais plusieurs facteurs. La solution idéale aujourd’hui est de l’associer à des solutions d’authentification unique, ou SSO (Single Sign On) qui permet à un utilisateur d'accéder à de nombreuses applications sans avoir à multiplier les authentifications. Il lui de s’authentifier en début de session, et il peut ensuite accéder à de nombreuses applications sans être contraint de devoir s'identifier sur chacune d'entre elles. On obtient ainsi une solution qui associe une grande simplicité d’utilisation, notamment pour des applications grand public, et un haut niveau de sécurité.