Accéder au contenu principal

Fête de la science 2023 : plus de 600 animations en Occitanie

  Après les journées européennes du patrimoine, la fête de la science figure en bonne place dans l’agenda des Français. Cette année la 32e édition de cette manifestation populaire lancée en 1991 par Hubert Curien, se tient partout en France du 6 au 16 octobre et notamment en Occitanie où, du pic du Midi au CNES, du Cirad de Montpellier à l’oncopole ou à Météo-France, les lieux de sciences ne manquent pas. Dans notre région, plus de 600 animations gratuites seront mises en place par 500 porteurs de projets sous la houlette d’Instant Science. En partenariat avec la Région Occitanie, l’association orchestre les 13 coordinations départementales qui organisent les animations, tables rondes, conférences, ateliers découverte, visites de laboratoires et rencontres avec des chercheurs pour le grand public et les scolaires. « En 2022, près de 64 000 visiteurs dont près de 29 000 scolaires et plus de 35 000 visiteurs grand public ont répondu présents en Occitanie » se félicite Johan Langot, dir

Big Data : les 10 tendances de l'année 2017


Par Thierry D'Hers, Vice President, Product Development, Tableau Software

Cette année, de plus en plus d'entreprises ont commencé à stocker, traiter et exploiter leurs données, quelles qu'elles soient. En 2017, les systèmes qui prennent en charge de grandes quantités de données, structurées et non structurées, vont continuer à se développer. Les plateformes permettront normalement aux personnes s'occupant des données d'assurer la gouvernance et la sécurité du Big Data, en donnant également aux utilisateurs finaux les moyens d'analyser ces données. Une fois arrivées à maturité, elles s'intégreront sans difficulté aux systèmes et aux normes informatiques des entreprises. Voici nos prédictions dans ce domaine pour l'année à venir.


1. Le Big Data devient accessible et instantané.
Il est évidemment possible de mettre en œuvre du machine learning et de réaliser des analyses de sentiments sur Hadoop, mais la première question posée généralement par les utilisateurs est : Quelle est la performance du SQL interactif ? SQL, après tout, reste le moyen dont dispose l'utilisateur métier pour utiliser les données dans Hadoop à des fins d'analyses exploratoires plus rapides ou de tableaux de bords de pilotage ré utilisables. En 2017, les possibilités pour accélérer Hadoop vont se multiplier. Ce changement a déjà commencé, comme en témoigne l'adoption de bases de données hautes performances comme Exasol ou MemSQL, de technologie de stockage comme Kudu, ou encore d'autres produits permettant l'activation d'exécution de requêtes plus rapides.

2. Le Big Data n'est plus limité à Hadoop.
Ces dernières années, nous avons vu plusieurs technologies se développer avec l'arrivée du Big Data pour couvrir le besoin de faire des analyses sur Hadoop. Mais pour les entreprises avec des environnements complexes et hétérogènes, les réponses à leurs questions sont réparties dans de multiples sources allant du simple fichier aux entrepôts de données dans le Cloud, de données structurées stockées dans Hadoop ou dans d'autres systèmes. En 2017, les clients demanderont à analyser toutes leurs données. Les plateformes agnostiques au niveau des données comme au niveau des sources de données se développeront, tandis que celles conçues spécifiquement pour Hadoop ne pourront pas être déployées pour tous les cas d'utilisation et tomberont dans l'oubli. La fin de Platf oraconstitue un premier signe de cette tendance.

3. L'exploitation des lacs de données devient un avantage pour les entreprises.
Un lac de données est similaire à un réservoir artificiel. Il est nécessaire de construire un barrage à l'extrémité du lac (créer un cluster), puis le laisser se remplir d'eau (de données). Ensuite, seulement, on pourra utiliser les données à diverses fins, comme l'analyse prédictive, le Machine Learning, la cybersécurité, etc. Jusqu'à présent, le remplissage du lac constituait une fin en soi. Ce ne sera plus le cas en 2017. Pour obtenir plus rapidement des réponses, les entreprises voudront utiliser leur lac d'une manière plus agile et reproductible. En 2017, cela évoluera au fur et à mesure de l'adoption d'Hadoop dans les entreprises.

4. Les architectures matures permettent l'abandon des frameworks globaux.
Hadoop est devenu une technologie multi usage pour faire de l'analyse ad hoc. Elle est même utilisée pour du reporting opérationnel journalier (d'habitude géré via des entrepôts de données).  En 2017, les entreprises tiendront compte de cette diversité de besoins en favorisant l'architecture adaptée à chaque cas d'usage. Elles étudieront une multitude de facteurs, tels que les profils utilisateurs, les questions, les volumes, la fréquence d'accès et plus, avant de s'engager sur une stratégie de données. Et ces stratégies elles-mêmes combineront les meilleurs outils de préparation de données en self-service, le Core Hadoop, et les plateformes d'analyse utilisées directement par les utilisateurs finaux, pour que ceux-ci puissent les reconfigurer en fonction de l'évolution de leurs besoins.

5.  C'est la variété qui entraîne les investissements dans le Big Data.
Gartner définit le Big Data en utilisant les 3 V : gros Volume, grande Vélocité, grande Variété des données. Bien que ces trois V évoluent, c'est la Variété qui s'impose comme le principal moteur des investissements dans le Big Data. Cette tendance va s'accentuer, puisque les entreprises cherchent à y intégrer davantage de sources et se concentrent sur le long terme. Des fichiers JSON sans schéma prédéfini aux types imbriqués dans d'autres bases de données (relationnelles et NoSQL) en passant par les données non plates (Avro, Parquet, XML), les formats de données se multiplient et les connecteurs natifs deviennent indispensables. En 2017, les plateformes d'analyse seront évaluées en fonction de leur capacité à fournir une connexion directe vers ces sources disparate s.

6. Spark et le Machine Learning rendent le Big Data évident.
Dans un sondage mené auprès de Data Architect, de responsables informatiques et d'analystes, près de 70% des répondants ont privilégié Apache Spark par rapport à MapReduce, qui est orienté batch et ne se prête ni aux applications interactives ni au traitement de flux en temps réel. Ces grandes capacités de traitement sur des environnements Big Data ont fait évolué ces plateformes vers des utilisations de calculs intensifs pour du Machine Learning, de l'IA, et des algorithmes de graphe. Microsoft Azure ML tout particulièrement a décollé grâce à sa facilité de mise en œuvre et son intégration avec les plateformes Microsoft existantes. L'ouverture du ML au plus grand nombre conduira à la création de plus de modèles et d'applications qui généreront des peta-octets de données. Tous les regards seront alors tournés vers les éditeurs de logiciels en mode self-service pour voir comment ils vont pouvoir rendre ces données accessibles aux utilisateurs.

7. La convergence du Cloud, du Big Data et de l'IoT permet de nouvelles opportunités pour l'analyse en self-service.
Il semble, qu'en 2017, tous les objets seront équipés de capteurs qui renverront des informations vers le « vaisseau mère ». Les données provenant de l'IoT sont souvent hétérogènes et stockées dans de multiples systèmes relationnels ou non, de cluster Hadoop à des bases de données NoSQL. Alors que les innovations en matière de stockage et de services intégrés ont accéléré le processus de capture de l'information, accéder et comprendre la donnée elle-même reste le dernier défi. La conséquence est que la demande augmente de plus en plus pour les outils analytiques qui se connectent nativement et combinent des grandes variétés de sources de données hébergées dans le Cloud.

8. La préparation des données en self-service se généralise à mesure que l'utilisateur final commence à travailler sur des environnements Big Data.
La montée en puissance des plateformes analytiques self-service a amélioré l'accessibilité de Hadoop aux utilisateurs métier. Mais ceux-ci veulent encore réduire le temps et la complexité de la préparation des données pour l'analyse. Les outils de préparation de données self-service agiles permettent non seulement aux données Hadoop d'être préparées à la source mais aussi de les rendre accessibles sous forme d'instantanés pour une exploration plus rapide et plus facile. Nous avons vu une multitude d'innovations dans cet écosystème, faite par des sociétés spécialisées dans la préparation de données pour des environnements Big Data réalisée par l'utilisateur final, comme Alteryx, Trifacta et Paxata. Ces outils réduisent les barrières à l'entrée pour ceux qui n'ont pas encore adopté Hadoop et continueront à gagner du terrain en 2017.

9. Le Big Data se développe : Hadoop vient s'ajouter au standard de l'entreprise.
Nous constatons une tendance grandissante au fait que Hadoop devient une partie centrale du paysage IT de l'entreprise. Et en 2017, nous verrons encore plus d'investissements dans les composants de sécurité et de gouvernance qui entourent les systèmes de l'entreprise. Apache Sentry fournit un système d'autorisations très fines d'accès à la donnée, basé sur les rôles et les métadonnées stockées dans un cluster Hadoop. Apache Atlas permet aux organisations d'appliquer une classification uniforme des données sur l'ensemble de leur écosystème. Apache Ranger fournit une administration centralisée de gestion de la sécurité pour Hadoop. Ces capacités passent maintenant au premier plan des technologies Big Data émergeantes, éliminant ainsi une autre barrière à l'adoption en Entrerpise.

10. L'augmentation des catalogues de métadonnées aide tout le monde à trouver les données primordiales pour l'analyse.
Pendant longtemps, les sociétés ont jeté leurs données parce qu'elles en avaient trop à traiter. Avec Hadoop, elles peuvent traiter beaucoup plus de données, mais la donnée n'est généralement pas organisée de façon à être trouvée rapidement. Les catalogues de métadonnées peuvent aider les utilisateurs à découvrir et comprendre les données pertinentes grâce aux outils d'analyse self-service. Cela aide à la fois les consommateurs de données et les administrateurs de données à réduire le temps qu'il faut pour faire confiance, trouver et requêter avec précision les données. En 2017, nous verrons une plus grande sensibilisation et une plus grande demande pour la découverte en mode self-service, qui deviendra une extension naturelle à l'analyse self-service.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Midi-Pyrénées l’eldorado des start-up

Le mouvement était diffus, parfois désorganisé, en tout cas en ordre dispersé et avec une visibilité et une lisibilité insuffisantes. Nombreux sont ceux pourtant qui, depuis plusieurs années maintenant, ont pressenti le développement d’une économie numérique innovante et ambitieuse dans la région. Mais cette année 2014 pourrait bien être la bonne et consacrer Toulouse et sa région comme un eldorado pour les start-up. S’il fallait une preuve de ce décollage, deux actualités récentes viennent de l’apporter. La première est l’arrivée à la tête du conseil de surveillance de la start-up toulousaine Sigfox , spécialisée dans le secteur en plein boom de l’internet des objets, d’Anne Lauvergeon, l’ancien sherpa du Président Mitterrand. Que l’ex-patronne du géant Areva qui aurait pu prétendre à la direction de grandes entreprises bien installées, choisisse de soutenir l’entreprise prometteuse de Ludovic Le Moan , en dit long sur le changement d’état d’esprit des élites économiques du pay

La fin des cookies tiers ne répond pas au besoin de contrôle des internautes sur leurs données

Pour le moment, la plupart des solutions alternatives aux cookies privilégient l’objectif commercial aux dépens des attentes des internautes. Piqsels , CC BY-SA Par  Carlos Raúl Sánchez Sánchez , Montpellier Business School – UGEI ; Audrey Portes , Montpellier Business School – UGEI et Steffie Gallin , Montpellier Business School – UGEI Les révélations du Wall Street Journal contenues dans les « Facebook Files » , publiés en septembre dernier, ont une nouvelle fois montré que les utilisateurs s’exposaient à des risques liés à la divulgation des informations personnelles. Les réseaux sociaux ne sont pas les seuls en cause : les nombreux data breach (incidents de sécurité en termes de données confidentielles) rendus publics, illustrent régulièrement la vulnérabilité des individus face à une navigation quotidienne sur les moteurs de recherche, sites de e-commerce et autres ayant recours à des « cookies tiers » , ces fichiers de données envoyés par

ChatGPT et cybersécurité : quels risques pour les entreprises ?

Analyse de Proofpoint Les plateformes de génération de texte tel que ChatGPT permettent de créer du contenu de qualité, instantanément, gratuitement, et sur n’importe quel sujet. Comme le confirme le lancement de Bard par Google, nous sommes désormais entrés dans une course à l’IA, ou chaque géant du web cherche à posséder la meilleure solution possible. Si l’avancée technologique est majeure, le risque notamment pour la cybersécurité des entreprises est indéniable. Comment lutter contre des campagnes de phishing de plus en plus ciblées et sophistiquées, maintenant alimentées par des technologies capables de parfaire encore plus la forme et la teneur d’un email malveillant ? En quelques mots, ChatGPT offre une ingénierie sociale très performante, mais une automatisation encore limitée. Concernant la détection de la menace par rançongiciels, comme l’explique Loïc Guézo, Directeur de la stratégie Cybersécurité chez Proofpoint, « Bien que les chatbots puissent générer du texte pour le cor

Les quatre évolutions de la cybercriminalité en 2023

Par Mathieu Mondino, Presales Manager chez OpenText Cybersecurity Une nouvelle année apporte son lot d’opportunités que les cybercriminels sont prêts à saisir. L'année dernière, l'activité cybercriminelle a connu une évolution majeure, les cybercriminels s'efforcent de tirer parti des tensions géopolitiques et des difficultés économiques dues à l'inflation et à la récession. En 2023, l'incertitude économique continue de peser lourdement sur les entreprises, en particulier sur les petites et moyennes entreprises qui ne disposent pas toujours des budgets et des ressources nécessaires pour se prémunir des attaques. Si l'on ajoute à cela les pressions macroéconomiques, une cybersécurité efficace et abordable semblera presque impossible pour de nombreuses PME. Les acteurs malveillants continuent à faire évoluer leurs tactiques en cherchant à exploiter de nouveaux vecteurs d’attaques. En 2022, le phishing est resté la menace dominante à laquelle sont confrontés partic

Décryptage de l'attaque par ransomware du Centre Hospitalier de Versailles

  Par Cassie Leroux, Directrice Produit chez Mailinblack Après l’hôpital de Corbeilles Essonnes, c’est au tour de l'établissement hospitalier de Versailles, situé au Chesnay-Rocquencourt (Yvelines), d’être visé depuis samedi soir par une cyberattaque. Comment s’est-elle déroulée, quelles conséquences pour ses patients, et aurait-elle pû être évitée ? Décryptage de Cassie Leroux, Directrice Produit chez Mailinblack. Que savons-nous de cette attaque ? Cette cyberattaque vise l’ensemble de l'établissement, dont l'hôpital André-Mignot, la maison de retraite Despagne et l'hôpital Richaud à Versailles. L’hôpital continue de fonctionner, mais au ralenti ce lundi, ce qui perturbe sérieusement son activité. Le parquet de Paris a ouvert une enquête préliminaire pour tentative d'extorsion.  Cette cyberattaque est de type Ransomware, un logiciel malveillant qui bloque l’accès à aux outils informatiques et aux données en les chiffrant. Dans ce type d’attaque, le hacker demande g