La cybersécurité est devenue une préoccupation majeure pour les organisations du monde entier. Avec une projection alarmante indiquant une augmentation de 300 % des dommages causés par les cyberattaques d'ici 2025, il est impératif pour les entreprises de renforcer leur posture de cyber-résilience. Face à cette réalité, elles doivent adopter une approche proactive pour anticiper et mieux détecter et répondre aux menaces numériques émergentes.
C’est dans ce contexte que Christophe Gaultier, Directeur chez OpenText Cybersecurity s’exprime sur les éléments clés propres à aider les organisations dans le renforcement de leur cyber-résilience.
Pourquoi est-il essentiel pour les organisations de se concentrer sur le renforcement de leur cyber-résilience ?
Les cyberattaques sont en augmentation et les dommages financiers prévus atteignent des niveaux alarmants ; renforcer la cyber-résilience est devenu crucial pour toutes les organisations. En investissant dans des programmes comme le Cyber Resilience Program (CRP) d'OpenText, les entreprises peuvent anticiper, détecter et répondre rapidement aux menaces numériques, minimisant ainsi les risques et les perturbations potentielles. Pour les organisations il s’agit de construire une défense robuste contre les cybermenaces et d’assurer la continuité des opérations dans un environnement numérique de plus en plus hostile.
Quels sont les meilleures pratiques à mettre en œuvre pour renforcer la cybersécurité des entreprises et accroître la résilience face aux menaces numériques ?
Les organisations peuvent renforcer leur posture de cybersécurité et accroître leur résilience face aux menaces numériques en suivant plusieurs conseils pratiques. Tout d'abord, il est essentiel de mener une évaluation approfondie des risques, en identifiant les vulnérabilités potentielles dans les systèmes et en évaluant les impacts potentiels des menaces. Ensuite, il est recommandé de mettre en place des mesures de prévention robustes, telles que l'utilisation de logiciels de sécurité actualisés, la sensibilisation et la formation des équipes, ainsi que la mise en œuvre de politiques de sécurité strictes.
En parallèle, il faut développer les capacités de détection avancées pour repérer rapidement les activités suspectes ou les intrusions potentielles. Enfin, il est important de disposer d'un plan de réponses aux incidents, clair et bien documenté, permettant de réagir efficacement en cas d'attaque ou de violation de sécurité.
Les attaques dans le secteur de la santé se multiplient : comment OpenText renforce la cyber-résilience après une violation de données de ces OIV ?
À la suite d’une violation de données d’une organisation de services de santé, Il convient de réaliser une évaluation approfondie de la sécurité, identifiant les problèmes et les domaines à risque. Ensuite, et en partenariat avec l'organisation, une feuille de route stratégique est développée afin d’améliorer la posture de cybersécurité, notamment avec des exercices de simulation réguliers pour renforcer la préparation et la réactivité face aux menaces. Grâce à cette approche proactive, l'organisation peut accroître sa résilience numérique et se préparer plus efficacement aux risques futurs.
Tribune libre de Cullen Childress, SVP Product chez SolarWinds
Même si elle n’en est qu’à ses débuts, l’intelligence artificielle (IA) affecte déjà de manière irrévocable le secteur informatique et la manière dont les collaborateurs travaillent au sein des équipes. Pourtant, les professionnels des technologies sont tiraillés entre deux directions opposées. D’une part, ces professionnels estiment qu’ils doivent agir de toute urgence pour implémenter des solutions alimentées par l’IA afin de bénéficier d’une productivité et d’une efficacité accrues. Pourtant, en même temps, ils hésitent en craignant les éventuelles conséquences imprévues de l’IA et les risques que présente l’implémentation hâtive d’outils risquant de ne pas avoir fait leurs preuves.
Tous les professionnels des technologies ont du mal à confirmer qu’ils intègrent des solutions d’IA aux processus de manière trop agressive ou qu’ils suivent exactement le rythme de l’innovation. Les forces inverses qui animent l’IA peuvent épuiser ceux qui l’adoptent. En étant trop prudents, ils risquent d’être devancés par leurs concurrents qui adoptent l’IA avec plus d’audace. En s’engageant trop rapidement, vos équipes risquent d’avoir des difficultés à implémenter de nouveaux outils d’IA qui, dans certains cas, sont loin d’avoir fait leurs preuves.
Les entreprises modernes souhaitent avant tout maximiser la productivité, les performances, le potentiel de croissance et l’interconnectivité. Alors que les sociétés de logiciels intègrent de plus en plus de fonctionnalités d’IA dans leurs produits et que les écosystèmes numériques évoluent à une vitesse fulgurante, les professionnels des technologies ont encore beaucoup de difficultés à comprendre comment les solutions disponibles sur le marché peuvent les aider à résoudre les défis qu’ils doivent relever.
Avec des ressources limitées, peu de temps et des charges de travail qui s’accumulent en raison de la complexité accrue des environnements, les équipes informatiques ont adopté des outils d’IA pour bénéficier d’une aide critique. L’IA peut prédéfinir des processus, automatiser les flux de travail répétitifs, définir des rappels, filtrer et baliser des projets pour aider les membres d’une équipe à se concentrer sur d’autres aspects importants de l’activité. Les fonctionnalités de gestion des services informatiques (ITSM) alimentées par l’IA peuvent faciliter le dépannage et la résolution guidée des incidents. L’AIOps contribue déjà grandement à faciliter la gestion proactive des services numériques et à ouvrir la voie aux opérations autonomes qui nécessiteront une intervention humaine minimale, voire aucune.
Le secteur informatique commence également à comprendre dans quelle mesure les avantages que présentent les avancées dans le traitement du langage naturel peuvent aider les équipes de DevOps, SecOps et CloudOps.
Alors que l’IA prouve déjà sa grande efficacité dans le domaine informatique, son adoption a pris du temps, tout comme celle des autres technologies émergentes. Les équipes informatiques qui ont intégré l’IA, et qui en sont satisfaites, servent d’exemples à celles qui souhaitent comprendre comment trouver un équilibre pour ce qui est de la rapidité d’implémentation de solutions d’IA afin d’exécuter des tâches dont les humains assuraient jusqu’alors la gestion. Pour s’assurer qu’une entreprise peut tirer partir de l’IA afin de se développer, il est nécessaire de tenir compte de quatre points.
Analyser les besoins et comprendre les défis à surmonter :Une voiture ne s’achète habituellement pas à la hâte. On se renseigne plutôt sur les divers modèles disponibles sur le marché en tenant compte de nos besoins en termes de déplacements. Les entreprises doivent adopter la même approche lorsqu’elles se demandent comment déployer une solution d’IA. Les clients de SolarWinds ont constaté que les équipes informatiques peuvent diminuer d’environ 23 heures le temps de travail hebdomadaire consacré aux tâches de gestion des services informatiques. Toutefois, il est nécessaire de faire preuve d’un esprit critique pour déterminer quels processus se prêtent le mieux à l’IA. Pour pouvoir décider où l’IA sera la plus utile, on procède d’abord à un audit de l’entreprise pour savoir où cette productivité accrue aura le plus d’impact. L’IA peut contribuer à réaliser des économies et à générer rapidement un retour sur investissement si l’on l’exploite correctement et la déploie là où le besoin est le plus fort. En comprenant les défis, les entreprises se donnent davantage les moyens de déterminer où et comment l’IA aura le plus d’impact.
Savoir que l’IA ne peut pas remplacer une équipe. Mais si elle est bien implémentée, elle peut en faire partie intégrante : Si l’on envisage d’adopter l’IA, il est impératif de privilégier une implémentation éthique. Cela signifie que les outils doivent être intégrés dans votre équipe, plutôt que d’en remplacer des membres. Nos équipes d’humains constitueront toujours le noyau d’une entreprise florissante. L’IA ne remplace pas le raisonnement critique des humains. Nous ne pouvons pas abandonner la créativité qui alimente les équipes d’humains efficaces. L’IA devrait plutôt être un outil qui l’enrichit.
Suivre de près l’évolution de l’IA : L’IA se développe davantage chaque jour. Les équipes doivent rester informées des derniers développements. Elles peuvent tout simplement suivre quelques reporters fiables ou s’abonner à des bulletins d’informations annonçant les mises à jour et les nouvelles solutions proposées par les fournisseurs. Il est impératif de rester au courant des derniers développements pour s’assurer que les équipes exploitent au mieux les technologies d’IA qu’elles déploient.
Ne pas craindre de changer de plan d’action une fois mis en œuvre : Chaque entreprise se doit de suivre l’évolution des tendances du secteur et des besoins des clients. Elle doit absolument continuer à évoluer et à se développer au fur et à mesure que ces besoins changent. Alors qu’une entreprise se prépare à utiliser l’IA pour passer au niveau supérieur, il est crucial de veiller à ce que ses bases soient solides pour que pouvoir s’y adapter rapidement.
Même si le terme IA est sans doute le mot à la mode le plus populaire à l’heure actuelle dans le secteur des technologies, il n’en reste pas moins que cette technologie est encore relativement récente. Pour démarrer avec l’IA, comme avec toute nouvelle technologie, il est important de tenir compte d’un des principes directeurs de l’ITIL (Information Technology Infrastructure Library), à savoir : Commencez là où vous êtes. Faire un inventaire des solutions et des outils. Rester en contact régulier avec ses équipes. Leur communiquer les derniers développements concernant l’IA et les outils d’automatisation pour que les implémentations soient moins déroutantes et qu’elles s’y habituent plus facilement. Autrement dit : ne pas retarder l’innovation, mais ne pas y dépenser non plus la totalité du budget alloué à la technologie avant d’en avoir planifié l’utilisation.
Quel que soit pour nous tous le degré d’attrait actuel de l’IA, le processus d’adoption est une question d’endurance, à savoir le maintien de l’élan sur le long terme, en évitant l’épuisement.
Le congrès mondial de la téléphonie mobile (Mobile World Congress) s’ouvre ce lundi à Barcelone dans un contexte très particulier pour les fabricants de smartphones. Après plusieurs années où chaque nouveau modèle comportait de sérieuses innovations et améliorations, notamment sur la partie photo, les smartphones peinent à se renouveler.
Les consommateurs l’ont bien compris et, crise inflationniste aidant, conservent plus longtemps leur appareil. Ainsi, les livraisons mondiales de smartphones ont diminué d’environ 3 % en 2023, pour s’établir à 1,17 milliard d’unités expédiées selon les analystes d’IDC. « Bien qu’il s’agisse du volume annuel le plus bas depuis une décennie, dû en grande partie aux défis macroéconomiques […], la croissance observée au second semestre a cimenté la reprise attendue pour 2024 », rajoutent-ils toutefois.
Ce sont les smartphones haut de gamme qui tirent davantage leur épingle du jeu. De quoi satisfaire Apple qui a mis fin avec son iPhone à douze ans de règne de son concurrent Samsung sur le marché mondial des smartphones. Mieux, en plus d’occuper la première place annuelle du marché pour la première fois, Apple est également le seul acteur du top 4 à afficher une croissance des ventes (+4 % contre -14 % pour Samsung).
Mais ce dernier n’a pas dit son dernier mot et avec son dernier modèle S24 mise sur l’intelligence artificielle. L’IA sera d’ailleurs la vedette du salon. « Parallèlement au thème plus traditionnel de la connectivité, l’IA et l’IA générative occuperont le devant de la scène. Avec la présence du président de Microsoft et du directeur général de DeepMind de Google, l’IA ne sera pas seulement au cœur de la conférence, elle fera également partie du discours de la plupart des fournisseurs pour optimiser les expériences de télécommunication, du matériel au logiciel en passant par les réseaux », explique Thomas Husson, analyste principal de Forrester VP, qui s’attend « à ce que de nombreuses marques chinoises de smartphones telles que Xiaomi, Honor et One Plus communiquent fortement » sur le sujet.
Connexion satellite en zones rurales
« Le Mobile World Congress reste avant tout un salon [professionnel] et l’accent sera mis sur l’innovation en matière de batteries, sur les réseaux 5G avancés et 6G, sur la convergence cloud-réseau et sur les nouveaux cas d’utilisation industrielle alimentés par l’IA et les jumeaux numériques. La nouveauté de cette année sera l’accent mis sur la connectivité par satellite dans les zones rurales et éloignées, grâce à Starlink et aux constellations croissantes de satellites en orbite basse » , estime l’expert.
Enfin, les questions environnementales occuperont une place de choix. « Avec Barcelone qui souffre de restrictions d’eau dues à la sécheresse, il ne fait aucun doute que la durabilité environnementale fera également partie des conversations commerciales. La réalité commerciale est que le numérique représente déjà environ 4 % des émissions mondiales de gaz à effet de serre (GES) et qu’il est en passe de doubler d’ici à 2025. Les opérateurs de télécommunications et leurs partenaires ont un rôle essentiel à jouer dans la réduction des déchets numériques et dans l’offre de nouvelles solutions GreenTech », indique Thomas Husson.
Lunettes et bagues connectées
Au-delà de ces sujets déterminants pour le secteur des télécoms, le salon offrira comme chaque année son lot de curiosités et d’innovations futuristes. Alors qu’Apple – toujours absent du salon – a dévoilé son casque de réalité virtuelle Apple Vision, plusieurs constructeurs et opérateurs proposeront des lunettes légères et connectées qui affichent des informations en transparence sur les verres.
Smartphones pliants, bagues connectées seront de la partie et même… des voitures. Le géant chinois Xiaomi, qui veut devenir l’un des cinq premiers constructeurs de voitures électriques, pourrait présenter son modèle SU7.
Les réseaux sociaux – et notamment Twitter, devenu X depuis son rachat par le milliardaire Elon Musk – sont souvent pointés du doigt pour leur manque de modération des contenus qu’ils hébergent, notamment lorsqu’il s’agit de propos insultants, de cyberharcèlement ou de fake news. Une situation d’autant plus préoccupante en période électorale. Pour se prémunir de tout problème, Meta, maison mère de Facebook, a annoncé vendredi 9 février que ses algorithmes utilisés par Threads et Instagram allaient cesser, par défaut, de mettre en avant des « contenus politiques ».
134 millions d'Européens sur TikTok
Mais d’autres réseaux sociaux ont décidé de prendre le contre-pied et de s’investir pour apporter des informations fiables à leurs utilisateurs. C’est le cas de TikTok, le réseau favori des jeunes. « Plus de 134 millions de personnes à travers l’Europe se rendent sur TikTok chaque mois, et une grande partie d’entre elles voteront lors des prochaines élections européennes. Le mois prochain, nous mettrons en ligne, directement sur l’application, une page dédiée aux élections », a annoncé le 4 février Kevin Morgan, responsable de la sécurité et de l’intégrité pour la zone Europe, Moyen-Orient, Afrique de TikTok.
« Ce Centre dédié aux élections, sera disponible en langue locale et accessible aux utilisateurs TikTok de chacun des 27 États membres de l’UE afin qu’ils puissent facilement distinguer les faits de la fiction. En collaboration avec les commissions électorales locales et les organisations de la société civile, ces Centres d’information dédiés aux élections permettront à notre communauté de trouver des informations fiables et officielles », poursuit le responsable, qui précise que 6 000 personnes chez TikTok sont dédiées à la modération de contenu dans les langues de l’UE.
TikTok assure par exemple qu’au cours du troisième trimestre 2023, 99 % du contenu supprimé pour désinformation électorale et civique l’a été fait avant d’être signalé. Le réseau social explique par ailleurs travailler à la vérification des faits et être particulièrement attentif aux opérations d’influence pendant les élections et aux contenus générés par intelligence artificielle. « Nous n’autorisons pas les contenus manipulés pouvant être trompeurs, y compris les CGIA (contenus générés par l’intelligence artificielle) de personnalités publiques si elles les représentent en train d’endosser un point de vue politique », indique TikTok.
30 % des eurodéputés sont sur TikTok
Quant aux élections européennes, TikTok met en avant les comptes certifiés des institutions et des politiciens – 30 % des eurodéputés sont sur TikTok – et toutes les vidéos liées aux élections européennes seront étiquetées pour orienter les utilisateurs vers le Centre dédié aux élections.
Cette bonne volonté est visiblement vue d’un bon œil au Parlement européen. Ainsi même si l’application de TikTok est bannie des smartphones des personnels de l’institution et que TikTok fait désormais l'objet d'une enquête de l'UE pour infraction sur le nouveau règlement sur les services numériques (DSA), le Parlement utilisera le réseau social pour y communiquer sur les élections européennes.
En tout cas l’engagement de TikTok contre la désinformation répondra peut-être à l’inquiétude croissante des citoyens. Une enquête d’opinion conduite par Ipsos pour l’Unesco auprès de 8 000 personnes dans 16 pays où se tiennent des élections en 2024, indiquait en novembre dernier que « 85 % des citoyens sont inquiets de l’impact de la désinformation en ligne, alors que les médias sociaux sont devenus pour une large majorité d’entre eux la première source d’information. »
(Article publié dans La Dépêche du Dimanche du 25 février 2024)
Ionos, société d’hébergement Web, dresse dix tendances qui vont marquer 2024 en matière d'intelligence artificielle
L'IA est l'un des développements technologiques les plus importants du 21e siècle. Depuis la publication de ChatGPT l'année dernière, cette technologie est devenue de plus en plus présente dans la vie quotidienne des gens. Selon une enquête de l'association professionnelle BitKom, plus de la moitié des entreprises interrogées (56 %) estiment que l'IA est "la plus grande révolution technologique depuis le smartphone". Cependant, le développement de l'IA est loin d'être terminé. Au contraire, il ne fait que s'accélérer et les défis qui l'accompagnent ne cessent de croître. Selon le rapport, les dix tendances suivantes en matière d'IA auront un impact décisif sur la vie professionnelle quotidienne et l'informatique en 2024 :
Les invites de l'IA commandent les apps de manière intuitive :
Les apps ne seront plus au centre des opérations en tant qu'interfaces utilisateur, mais plutôt l'IA. À l'avenir, cela pourrait signifier que les nouveaux appareils n'auront plus besoin d'écran, mais seront contrôlés exclusivement par la voix. Les techniciens d'Apple ont même déjà trouvé des solutions pour faire fonctionner l'IA directement sur l'iPhone, rendant ainsi l'appareil plus intelligent. Un changement de paradigme est actuellement en cours dans l'interaction entre les humains et l'IA, améliorant la façon dont les gens travaillent, communiquent et interagissent avec la technologie. Toutefois, pour contrôler efficacement le téléphone par la voix, l'utilisateur doit acquérir certaines compétences.
La démocratisation intensive de l'intelligence artificielle :
La démocratisation de l'intelligence artificielle progresse. Jusqu'à présent, le préjugé dominant était que l'IA était trop complexe, en particulier pour les petites entreprises. Toutefois, grâce à des outils, il devient de plus en plus facile de se lancer dans une transformation soutenue par l'IA. Toutefois, les entreprises doivent acquérir les connaissances nécessaires et y consacrer le temps requis.
L'IA favorise le coaching et la formation individuels :
Le développement continu des employés est crucial pour que les entreprises restent compétitives. L'IA peut leur apporter un soutien complet. Par exemple, grâce à une formation basée sur l'analyse émotionnelle, une technologie d'IA qui reconnaît les modèles de discours, les entreprises augmentent déjà leurs indicateurs clés de performance (ICP) dans les domaines à forte intensité de communication tels que le marketing, les ventes et le service. À l'avenir, cependant, les situations de négociation avec des partenaires commerciaux ou des clients difficiles pourront également être entraînées avec l'IA sur des sujets spécifiques - en temps réel, par exemple via un navigateur ou un téléphone. Ce type d'utilisation reste toutefois dans les limites légales et est également susceptible de provoquer un malaise psychologique.
L'IA va enfin permettre de mieux utiliser les données :
L'IA permettra enfin de mieux utiliser les données. En 2024, il sera théoriquement possible à quiconque d'analyser des ensembles de données de toute taille et de toute portée, sans effort et en quelques secondes.
Les cyberattaques alimentées par l'IA nécessiteront une étroite collaboration entre les personnes concernées :
Les systèmes informatiques des organisations de toutes sortes étant de plus en plus menacés par les tentatives de désinformation et de compromission générées par l'IA, les fournisseurs de technologies et les gouvernements collaboreront d'autant plus étroitement en 2024. Cela permettra de trouver des solutions contre les menaces basées sur l'IA telles que les deepfakes, les social bots IA ou les enregistrements vocaux clonés.
Loi européenne sur l'IA : L'IA devient conforme :
À l'avenir, l'utilisation de l'IA en Europe sera réglementée par la loi européenne sur l'IA. Elle vise à garantir que les systèmes d'IA et les données et informations utilisées sont sûrs et respectent les droits fondamentaux et les valeurs de l'Union européenne. Les entreprises allemandes devraient donc également se préparer à ce que la conformité à l'IA devienne obligatoire. Toutefois, rien n'est encore acquis. La loi est encore à l'état de projet.
L'intelligence artificielle dans la cybersécurité - une arme à double tranchant :
Bien que l'IA renforce la cyberdéfense et offre une protection proactive contre l'évolution des menaces, elle comporte également des risques. En effet, les cybercriminels utilisent la même technologie pour rendre leurs attaques encore plus sophistiquées. Malgré la tendance à l'IA, le paysage des menaces ne changera pas fondamentalement dans un avenir proche. Tout comme les cybercriminels, les responsables de la sécurité informatique utiliseront des outils d'IA générative identiques ou plus avancés pour améliorer la sécurité des logiciels et des réseaux.
Les stratégies d'IA remplaceront les essais et les erreurs :
L'époque où l'on "essayait joyeusement" différentes solutions d'IA appartiendra au passé. Les entreprises doivent donc envisager une stratégie d'IA transparente et assortie de règles claires. Les plateformes d'IA basées sur le cloud et les passerelles d'IA deviennent donc de plus en plus importantes pour gérer et contrôler l'utilisation de l'IA. Cela inclut également les solutions d'IA pour une approche client optimisée et personnalisée.
Les modèles d'IA sont reliés entre eux :
Les modèles d'IA multimodaux qui combinent la parole, les images, le texte et les vidéos remplaceront les modèles pour les applications individuelles. Cela signifie que des images ou des vidéos peuvent être créées dans les plus brefs délais. Les vidéos éducatives complètes en sont un exemple. Toutefois, cela va de plus en plus mettre à l'épreuve - voire surcharger - les compétences médiatiques des utilisateurs.
Des logiciels populaires tels que MS Office, Google Workspace et les programmes de messagerie électronique se dotent d'assistants intégrés et capables d'auto-apprentissage :
Les assistants tels que Microsoft Copilot ou Google Duet feront rapidement partie des logiciels payants - et le sont déjà dans de nombreux cas. Ils offrent aux utilisateurs la possibilité d'utiliser progressivement les fonctions de l'IA. En outre, ces assistants enregistrent les habitudes de l'utilisateur et personnalisent l'application. Toutefois, les informations précieuses et personnalisées seront traitées par l'IA. Pour ce faire, les entreprises transféreront les données et les métadonnées vers des nuages situés en dehors de l'Allemagne et les stockeront sur des serveurs situés en dehors de l'Europe, au moins temporairement.
Les entreprises doivent s'adapter à ces tendances et à d'autres afin de ne pas être distancées dans les différents domaines de la numérisation. Dans le cas contraire, cela pourrait également entraîner des désavantages économiques. L'IA établit de nouvelles normes auxquelles les petites et moyennes entreprises devront faire face, car elles ne disposent pas des mêmes ressources que les grandes entreprises. Il est donc essentiel qu'elles concluent des partenariats avec des spécialistes qui peuvent les aider à répondre à ces nouvelles normes.
À la fin du mois de novembre 2023, les autorités israéliennes indiquaient que, dans les 35 premiers jours du conflit à Gaza, elles avaient frappé plus de 15 000 cibles – soit trois fois plus qu’au cours des 51 jours qu’avait duré l’opération « Bordure protectrice », en 2014.
Quelques jours plus tard, le magazine d’investigation israélien +972 dévoilait une enquête révélant les raisons de ce rythme effréné : un programme informatique dopé à l’intelligence artificielle (IA) surnommé Habsora – l’Évangile en français – et fonctionnant comme une « usine à cibles », 24 heures sur 24.
D’après l’article, ce système capable de traiter des masses de données très hétérogènes et issues de différentes branches du renseignement serait utilisé par Tsahal pour identifier les cibles potentielles de la campagne de bombardements, mais aussi pour estimer à l’avance le nombre de victimes civiles.
Un recours massif à l’intelligence artificielle
En Israël, le recours à ce type de technologies n’est pas nouveau : Tsahal a, en effet, érigé la supériorité technologique face à ses adversaires en objectif clé, notamment dans le cadre de son plan de modernisation, mis en œuvre en 2019 et baptisé « Momentum ». En 2021, déjà, l’opération « Gardien des Murs » avait été qualifiée par l’armée israélienne de « première guerre de l’intelligence artificielle ».
Ainsi que l’expliquait il y a quelques mois l’ancien chef d’état-major Aviv Kochavi, le programme Habsora avait été utilisé pour générer une centaine de cibles par jour, dont la moitié avaient effectivement été engagées. Il rappelait, à titre de comparaison, que jusqu’alors une cinquantaine de cibles étaient identifiées chaque année dans les territoires palestiniens.
Comme l’exposait en juin 2022 la chercheuse Liran Antebi dans les colonnes de la revue Vortex, l’État hébreu s’appuie sur au moins quatre logiciels dans ses opérations contre le Hamas : Alchemist, Gospel (Habsora), Depth of Wisdom et Fire Factory.
Si le fonctionnement précis de ces systèmes, vraisemblablement conçus par la célèbre unité 8 200, est difficile à établir, il semble qu’Alchemist facilite les ripostes en cas d’attaque visant le territoire israélien ; que Depth of Wisdom cartographie les sols et les sous-sols de la bande de Gaza (pour repérer les tunnels du Hamas) ; qu’Habsora définit les cibles les plus pertinentes ; tandis que Fire Factory génère en temps réel des plans de frappe par avions et par drones, en fonction du type de cible. C’est grâce à ces technologies de pointe que l’armée israélienne est désormais capable de frapper plusieurs centaines de cibles par jour.
Ces logiciels permettent d’automatiser la constitution des « dossiers d’objectifs » préalables aux missions aériennes. Ces dossiers comportent des cartes et des images satellite de localisation des cibles ; ils précisent également les types de munitions à privilégier, ainsi que les points d’impact potentiels et les conséquences probables des frappes.
En croisant ces données, les programmes suggèrent automatiquement des cibles, sur le modèle des signature strikes américaines qui agrègent les caractéristiques communes d’individus impliqués dans des actes terroristes pour en dégager des « schémas » ou « patterns of life ». La CIA a ainsi ciblé des individus dont l’identité n’était pas formellement confirmée, mais dont un ensemble de données (localisation, équipement, âge, sexe, etc.) permettait de les associer à des combattants d’organisations terroristes.
Une « usine à assassinats de masse »
L’auteur de l’enquête de +972, Yuval Abraham, expose dans une interview au média américain Democracy Now que ces programmes informatiques ont été développés pour la Target Division de Tsahal, afin de remédier à la pénurie de cibles dont avaient pâti les forces israéliennes lors de leurs opérations précédentes à Gaza. L’armée de l’air s’était en effet trouvée plusieurs fois à court d’objectifs, alors que demeurait une forte pression politique pour continuer la guerre.
Le journaliste israélien alerte toutefois sur la « politique du chiffre » dont découle cette capacité à identifier des centaines d’objectifs chaque jour. Il relate ainsi que les militaires auprès desquels il a enquêté estiment être « jugés sur la quantité de cibles qu’ils arrivent à désigner, pas sur leur qualité », dans le but de créer un effet de choc au sein de la population gazaouie.
Cette multiplication des frappes occasionne cependant un nombre colossal de victimes, majoritairement civiles.
Le bilan depuis le 7 octobre a ainsi dépassé les 27 000 morts à Gaza, dont les deux tiers ne sont pas des combattants, d’après les chiffres avancés par les autorités israéliennes. Le recours à des techniques d’intelligence artificielle autorise donc Tsahal à intensifier ses frappes, mais ne permet pas pour autant de limiter les « dommages collatéraux », ce qui peut sembler paradoxal.
Une « riposte disproportionnée » ?
L’emploi de l’IA dans un nombre croissant de systèmes d’armes est présenté comme porteur d’une plus grande mesure dans le recours à la force, car permettant davantage de précision dans les frappes. Le cas d’Habsora démontre au contraire que ces technologies peuvent aussi être employées pour intensifier les campagnes aériennes en augmentant la cadence des frappes – causant donc plus de dommages humains et matériels parmi les civils. La retenue dans l’usage de la force ne dépend donc pas d’instruments techniques, mais bien d’une volonté politique.
Dans le cadre de l’opération « Glaives de fer », qui a débuté le 11 octobre 2023, deux objectifs militaires ont été fixés à l’armée israélienne : l’éradication du Hamas d’une part, et la libération des près de 240 otages détenus dans Gaza depuis le 7 octobre d’autre part.
Ces objectifs ont toutefois été vivement critiqués en Israël. D’abord parce que, comme l’a pointé le journaliste d’Haaretz Amos Harel, ils sont en partie contradictoires, les otages étant susceptibles de périr lors de bombardements ou lors d’échanges de tirs entre les geôliers et Tsahal ; la mort tragique d’otages abattus par l’armée israélienne alors qu’ils avaient réussi à s’échapper en est un exemple cruel.
Ils semblent en outre difficilement réalisables sur le plan tactique. Le Hamas est une organisation biface : si sa branche armée s’est rendue coupable d’actions terroristes de masse, il n’en reste pas moins perçu par une partie du peuple palestinien comme un parti capable d’organiser une résistance. Son éradication militaire ne serait donc pas synonyme de sa défaite politique ou idéologique.
Le gouvernement israélien est donc confronté à un dilemme : comment cibler le Hamas de façon adéquate tout en sauvant les otages ? Depuis la seconde Intifada (2000-2005), Tsahal a oscillé entre deux approches de l’emploi de la force. La première, extrêmement précise, se traduit par des campagnes de « prévention ciblée » visant à éliminer les hauts responsables ennemis – du Hamas, mais aussi du Hezbollah ou de l’Iran. Cette approche apporte des succès tactiques : elle permet de réduire le niveau de menace pesant sur Israël en ralentissant le rythme des attaques, en privant les organisations ciblées de compétences essentielles, et en compliquant les communications entre les chefs, contraints de se cacher.
La seconde approche consiste au contraire à riposter de manière disproportionnée, afin de dissuader l’action armée. Cette option se décline en de multiples théorisations, dont la plus célèbre est « la doctrine Dahiya », du nom d’un quartier de Beyrouth rasé par l’aviation israélienne en 2006.
Gadi Eisenkot, ancien chef d’état-major israélien – et qui fait désormais partie du cabinet de guerre – avait ainsi déclaré dans une interview à Haaretz en 2008 :
« Ce qui est arrivé à Dahiya à Beyrouth en 2006 arrivera à tous les villages qui servent de base à des tirs contre Israël. Nous ferons un usage de la force disproportionné et y causerons de grands dommages et destructions. Ce n’est pas une suggestion mais un plan qui a été approuvé. »
La destruction des maisons des familles de Palestiniens accusés de terrorisme s’inscrit également dans cette idée d’utilisation de la force à des fins dissuasives et dans une logique de responsabilité collective, qui vise à rendre insupportable aux Palestiniens les conséquences de toute action armée.
L’opération « Glaive de fer » conjugue donc ces deux approches, ainsi que leurs travers. D’une part, la perception du Hamas par l’état-major de Tsahal semble réduite aux quatre dirigeants responsables de la branche militaire : Yahya Sinouar et son frère Mohammed Sinouar, Abu Ubaida et Mohammed Deif. Incapable de les localiser et de les éliminer, l’armée israélienne offre une image de défaite, en dépit de l’intense campagne militaire en cours. Des tracts ont ainsi été largués dans Gaza promettant une récompense à tous les Gazaouis détenant des informations sur ces quatre hommes.
Le cabinet de guerre semble quant à lui pencher pour la riposte disproportionnée, afin de restaurer le régime de dissuasion qui s’est écroulé le 7 octobre. Cette stratégie est néanmoins contraire à l’un des principes cardinaux du droit international humanitaire (DIH) : l’obligation pour les armées de distinguer entre civils et combattants.
Certes, le DIH admet que des civils meurent au cours de frappes, mais seulement si l’objectif militaire anticipé est décisif, et si toutes les précautions ont été prises pour éviter ces morts.
D’après les informations recueillies par +972, le programme Habsora permet de connaître précisément le nombre de civils susceptibles d’être tués lors d’une frappe. Le calcul de proportionnalité de Tsahal a donc manifestement évolué : Yuval Abraham rapporte ainsi qu’alors que jusqu’au 7 octobre une dizaine de victimes collatérales étaient tolérées pour éliminer un membre exécutif du Hamas, plus d’une centaine de morts civiles seraient désormais acceptées pour en neutraliser un membre subalterne.
Cette évolution explique la destruction d’immeubles entiers pour abattre une unique cible répertoriée, comme en témoigne la frappe sur le camp de réfugiés de Jabaliya, le 31 octobre 2023, qui visait un seul des dirigeants de l’attaque du 7 octobre et qui a fait 126 morts, selon le collectif Airwars.
Ces exemples tendent à montrer que le recours à des technologies avancées ne conduit pas à l’avènement d’une guerre plus « propre » : les algorithmes ne sont ici pas utilisés pour limiter les dommages collatéraux, mais pour cibler plus massivement, avec un ratio particulièrement élevé de victimes civiles, et ce en connaissance de cause.
Le piège de la guerre asymétrique
L’analyse de la campagne militaire de l’armée israélienne conduit enfin à s’interroger sur son efficacité stratégique. Alors que les plus hauts responsables militaires de l’attaque du 7 octobre sont encore en vie, terrés dans les tunnels de Gaza, l’offensive militaire est de plus en plus critiquée à l’international, en raison du grand nombre de civils tués. La Cour internationale de justice, saisie par l’Afrique du Sud, a ainsi constaté un risque de génocide à Gaza, fragilisant le soutien occidental à l’État hébreu.
Or ce soutien est vital pour Israël, qui bénéficie d’une aide militaire américaine de 3,8 milliards de dollars par an. Certains de ses équipements militaires clés sont achetés aux États-Unis, dont une cinquantaine d’avions F35. Sur le plan opérationnel, l’envoi de deux porte-avions américains en Méditerranée immédiatement après le 7 octobre a été décisif pour dissuader l’Iran de profiter du chaos dans lequel Israël était plongé pour attaquer. Dans un tel contexte, un abandon du soutien américain aurait des conséquences majeures sur la politique de défense israélienne.
Sur le plan local, les morts et blessés civils nourrissent le ressentiment des Gazaouis envers Israël, ce qui a pour effet de les pousser dans les bras du Hamas plutôt que de les en détourner. Un enfant de Gaza ayant vécu les guerres de 2014, de 2021, puis de 2023 sera sans doute plus susceptible d’être séduit par la rhétorique guerrière du Hamas que de devenir un partenaire stable avec lequel construire une paix durable dans la région.
Dans un sondage réalisé le 14 novembre par le Arab World for Research and Development auprès des Palestiniens de Gaza et de Cisjordanie, 76 % des personnes interrogées déclaraient ainsi qu’elles avaient une vision positive du Hamas ; en septembre, 27 % seulement des personnes interrogées dans ces deux territoires estimaient que le Hamas était « celui qui méritait le plus de représenter le peuple palestinien ».
Comment, alors, expliquer le choix d’Israël de recourir à une intense campagne de bombardements, avec l’aide d’Habsora ? L’État hébreu semble avoir été pris dans le « piège de la guerre asymétrique » : l’effroi et la colère des Israéliens à la suite des massacres du 7 octobre ont incité le gouvernement Nétanyahou à mettre en œuvre une réponse politique forte, dont la pertinence militaire pose aujourd’hui question.
En l’absence d’une solution politique, Israël risque de s’épuiser dans une guerre sans issue. Le 7 octobre a déjà montré les limites du « tout technologique », lorsque le mur réputé infranchissable entre Israël et les territoires palestiniens a été déjoué par des membres armés du Hamas. Le ciblage intensif permis par Habsora peut donner une nouvelle fois au peuple israélien l’illusion d’une victoire sur le Hamas, alors que les leaders militaires de ce dernier n’ont pas été éliminés et que le grand nombre de victimes civiles risque d’aliéner à Israël l’appui de ses soutiens internationaux.
Laure de Roucy-Rochegonde, Chercheuse au Centre des études de sécurité de l'Institut français des relations internationales (Ifri), chercheuse associée au Centre de recherches internationales (Ceri, Sciences Po/CNRS), Sciences Po et Amélie Férey, Chercheuse et responsable du Laboratoire de recherche sur la Défense, Sciences Po
Le phénomène des sciences participatives n’est pas nouveau, mais il a pris de l’ampleur au cours des de la dernière décennie. D’ailleurs avez-vous peut-être vous-même contribué en observant les oiseaux depuis votre balcon ou votre jardin pendant le confinement de 2020, ou en utilisant votre smartphone pour identifier une plante ou un insecte lors d’une promenade en forêt. Ce faisant, vous avez partagé vos observations avec les scientifiques qui les utilisent pour décrire la biodiversité et comprendre son évolution. Mais comment savoir à quel point vous les avez aidés ? Dans la recherche en écologie, cette démarche a un réel impact sur les publications scientifiques, surtout sur des thématiques qui font le lien entre société et environnement.
Les sciences participatives se définissent comme la production de connaissances scientifiques à laquelle sont associées des personnes dont ce n’est pas la profession, qui participent de manière active, délibérée et souvent bénévole. Les sciences participatives sont bien développées dans le domaine de la santé, des sciences humaines, et même en astronomie. C’est toutefois dans le domaine des sciences de l’environnement et de l’écologie que cette démarche d’ouverture de la pratique de la recherche aux acteurs non professionnels est la plus répandue.
Pourquoi, ou pour quoi participer ?
Pour les scientifiques en écologie, la participation des acteurs non professionnels à la recherche donne accès à des données qui seraient inaccessibles par ailleurs, ou à un rythme trop lent, incompatible avec le besoin de connaissances scientifiques face à l’urgence écologique. Les plates-formes Pl@ntNet et iNaturalist s’appuient sur des photos prises par les curieux de nature, identifiées par un algorithme et validées par la communauté des utilisateurs. Elles permettent un recensement de la biodiversité à très grande échelle et sur le temps long.
Le lien entre l’utilité pour la recherche et l’utilité pour l’environnement doit se comprendre, très schématiquement, en suivant cette séquence : les observations fournissent des données, qui sont analysées, pour aboutir à la publication d’un article scientifique, qui permet de mettre en place des mesures concrètes pour l’environnement.
C’est évidemment très caricatural. Trop, parce qu’en amont de cette séquence, une somme de connaissances et des constructions théoriques orientent les scientifiques dans la manière de poser les questions de recherche et de définir les stratégies d’analyse des données permettant d’y répondre. Il est également évident, mais il faut le rappeler, que les applications des résultats de la recherche en termes de stratégie de gestion de l’environnement ne s’appuient pas sur un, mais sur un ensemble d’articles scientifiques.
D’où une question simple : les démarches de sciences participatives contribuent-elles à la production et à l’évolution des connaissances scientifiques dans le domaine de l’écologie ? Autrement dit : « Suis-je vraiment utile si je participe » ?
À noter au passage que cette question est légitime des deux côtés de la participation, pour les volontaires comme pour les scientifiques. L’acquisition de certaines données peut en effet requérir de solides connaissances naturalistes ou la manipulation de capteurs complexes ou onéreux. Dans de tels cas, on peut s’interroger sur la pertinence ou la précision des observations réalisées par des personnes qui ne sont pas spécifiquement formées.
Cela nous amène donc à une seconde question : produit-on les mêmes connaissances lorsque la recherche est menée par des professionnels uniquement, ou au travers de la participation de volontaires dont le degré d’expertise est variable ?
À quoi ma participation sert-elle vraiment ?
Nous avons cherché à répondre à ces deux questions dans un article publié en accès ouvert dans la revue Ecology and Evolution. Nous avons utilisé une approche bibliométrique pour évaluer l’impact des sciences participatives sur l’évolution de l’écologie comme discipline scientifique.
Nous avons interrogé la base de données Web of Science, une référence au niveau international, pour retrouver tous les articles faisant mention des sciences participatives et publiés sur la période 2011-2022. Nous avons identifié plus de 3000 articles à propos des sciences participatives en écologie. Cela représentait moins de 1 % du nombre total d’articles en écologie publiés sur cette période, mais ce nombre était en constante augmentation.
D’un strict point de vue quantitatif, la réponse est sans appel : la science participative se publie. Une étude récente montre non seulement que c’est le cas, mais que les articles qui s’appuient sur elles sont également cités par les chercheuses et les chercheurs. Les articles scientifiques étant à la base de la diffusion des savoirs, c’est une première indication que les sciences participatives, et donc la participation des volontaires, contribue bien à l’avancement des connaissances en écologie. Qu’en est-il dans le détail ?
Figure 1. Évolution du nombre d'articles sur les sciences participatives en écologie entre 2011 et 2022. L'axe horizontal représente l'année de publication. L'axe vertical indique le pourcentage d'articles en écologie s'appuyant sur les sciences participatives. Le nombre absolu d'articles de sciences participatives publiés chaque année est indiqué à l'intérieur de la figure.Bastien Castagneyrol et Baptiste Bedessem, Fourni par l'auteur
Pour faire simple, appelons SP le corpus d’articles s’appuyant sur les sciences participatives. Nous l’avons comparé à un corpus témoin, assemblé en tirant au hasard un même nombre d’articles parmi ceux publiés en écologie sur la période 2011-2022. Nous avons extrait les mots clés utilisés par les auteurs et autrices des articles de ces deux corpus pour les comparer. Cette approche nous a permis de déterminer si les mêmes thématiques sont abordées dans les articles qui s’appuient sur les sciences participatives (le corpus SP) et les articles disons conventionnels (le corpus témoin).
Nous avons constaté une certaine similitude dans les mots clés les plus fréquemment utilisés dans les deux corpus. Au cours des deux dernières années, la biodiversité (les mots clés biodiversity, conservation) et le changement climatique (climate change) étaient au cœur des recherches en écologie, quelle que soit l’approche employée (participative ou non) par les écologues pour aborder ces sujets. Il y a toutefois des subtilités dans le détail.
En examinant de plus près les différences dans l’utilisation des mots clés les plus fréquents dans chaque corpus (comment les mots clés sont associés entre eux), une différence majeure apparaît entre les articles du corpus SP et ceux du corpus témoin. Les mots clés liés aux processus écologiques (prédation, compétition, dispersion…) ou évolutifs (plasticité phénotypique, adaptation) étaient plus fréquents dans le corpus témoin, voire seulement présents dans celui-ci. Au contraire les mots clés liés aux interactions entre les êtres humains et leur environnement (socio-écosystèmes, services écosystémiques, services culturels, écologie urbaine) étaient plus fréquents, ou présents uniquement dans le corpus SP.
Figure 2. Principaux mots clés décrivant les articles du corpus SP et du corpus témoin.Bastien Castagneyrol et Baptiste Bedessem, Fourni par l'auteur
Les associations de mots clés dans le corpus SP sont également révélatrices de la manière dont les thématiques « biodiversité » et « changement climatique » sont abordées dans les sciences participatives. Ces thèmes étaient associés à des mots clés suggérant une approche descriptive de la biodiversité, par exemple surveillance (monitoring), répartition des espèces (species distribution), ou modèle de répartition des espèces (species distribution model).
Il semble donc que lorsque les scientifiques ont recours aux démarches de sciences participatives, ce soit avant tout pour décrire l’état de la biodiversité, la manière dont elle est impactée par les changements globaux (notamment le changement climatique et l’urbanisation), et les conséquences que cela peut avoir sur le fonctionnement des socio-écosystèmes (l’ensemble formé par l’écosystème et les activités humaines qui s’y déroulent). Les associations de mots clés du corpus témoin faisaient quant à elle plutôt référence aux mécanismes régissant les interactions entre espèces. On peut expliquer cette différence par le fait que les personnes contribuant à la science participative sont plus à même de s’investir dans des projets qui les touchent directement que dans des projets plus théoriques.
Les sciences participatives en écologie contribuent bien, de manière significative, à la production de connaissances nouvelles qui s’insèrent dans les grandes questions qui traversent l’écologie. Il y a là de quoi rassurer les personnes qui donnent de leur temps et de leur énergie en participant volontairement à ces programmes : oui, elles sont utiles. Il y a également de quoi rassurer les écologues : les sciences participatives ne sont pas en marge de la recherche traditionnelle en écologie, elles s’inscrivent parfaitement dans la boîte à outils dont les scientifiques disposent pour décrire et comprendre le monde dans lequel nous vivons.
Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du ministère de l’Enseignement supérieur et de la Recherche.
BlackLine, qui propose des solutions cloud de gestion et d’automatisation des fonctions comptables et finance, vient de publier une étude sur l'intelligence artificielle et les directions financières des entreprises.
Le baromètre annuel mené par Censuwide pour le compte de BlackLine, a été réalisé auprès de 1339 cadres dirigeants et professionnels de la finance dans le monde dont 152 en France.
Voici les principaux résultats.
Les directions financières face à l'intelligence artificielle
À l’heure où les entreprises ont pris acte des changements structurels engendrés par les crises consécutives de la pandémie et de la guerre ainsi que par la reprise de l’inflation, la priorité des directeurs financiers demeure de veiller à la gestion des coûts. Un objectif qui passe aussi par la poursuite de la transformation digitale de leur fonction.
Cette cinquième édition de l’étude met justement en exergue la perception des directeurs financiers quant au pouvoir des technologies pour les aider à faire face à l’imprévisible. Et ce sont l’IA et l’IA générative, pour respectivement 64% et 69% d’entre eux, qui remportent les suffrages, devant le cloud (63%), la blockchain (56%) et les cryptomonnaies (54%).
Parmi les avantages de l’IA pour les départements finance et comptable, sont évoqués une meilleure analyse (35%), ainsi qu’une amélioration des capacités de prévision (35%) grâce à la capacité de traitement du volume des données financières, une amélioration des capacités d’audit par l’analyse de données (33%) mais aussi une meilleure identification des modèles et la détection des fraudes potentielles (31%). 32% des directeurs financiers et comptables estiment également que l’IA favorisera l’évolution du métier de comptable tandis que 31% d’entre eux pensent qu’elle permettra une meilleure identification des lacunes en matière de conformité. Enfin, 30% des sondés déclarent que l’IA favorisera plus d’efficacité en automatisant les tâches répétitives et 24% d’entre eux qu’elle réduira les erreurs et améliorera la prise de décision.
Les freins au déploiement de l'IA dans les entreprises
Cependant, si les directions financières plébiscitent l’IA et lui reconnaissent des avantages certains pour favoriser la résilience de l’entreprise et l’évolution de leur métier, elles sont néanmoins moins enthousiastes quant à sa mise en œuvre dans l’entreprise.
En cause, le manque de confiance qu’elles éprouvent quant à la fiabilité des données financières.
Plus de la moitié d’entre elles (51%) indiquent ne pas avoir une totale confiance en l’exactitude de leurs données financières. Selon elles, ce manque de confiance est dû principalement à des process de calcul et de traitement des données trop complexes (26%), au manque de contrôle et de vérification automatisés du volume de données (24%) mais aussi à l’incertitude quant aux compétences des personnes qui saisissent ces données (23%) et enfin à la trop grande disparité de sources dont ces dernières proviennent (22%).
Au-delà de la question de la fiabilité des données, les directions financières et comptables identifient des freins au déploiement de l’IA au sein de leur entreprise. Parmi les obstacles majeurs à lever, on retrouve le besoin de former aux modèles d’IA pour comprendre et interpréter avec précision les données financières complexes (34%), la nécessité de faire confiance aux résultats de l’IA (34%), la prise en compte des réglementations actuelles (31%), la résistance au changement (30%) et le manque de compétences (31%).
Le rôle stratégique du directeur financier pour assurer la performance de l'entreprise dans un contexte incertain
Malgré les obstacles soulevés, la technologie demeure perçue comme une alliée par les directions financières et comptables, notamment dans un contexte de perma-crises où elles vont devoir s’armer pour faire face à un climat incertain. En effet, elles sont préoccupées par la crise financière mondiale (77%), le spectre d’une catastrophe humanitaire (71%), mais également par la montée en puissance de la question de la cybersécurité dans l’entreprise (70%).
Au-delà des évènements extérieurs à leur entreprise, les directeurs financiers et comptables montrent aussi des signes de préoccupation quant aux défis internes à leur fonction à relever tels que les erreurs liées au travail répétitif/manuel minant la prise de décision (64%), la difficulté à résoudre les problématiques comptables complexes en raison du manque de compétences techniques nécessaires (62%) ou encore le manque d’agilité de l’entreprise pour faire face à des imprévus (61%).
Afin de répondre à ces défis externes et internes, les directeurs généraux et financiers estiment leurs priorités pour l’année à venir. 45% d’entre eux estiment notamment que leur entreprise aura besoin de bénéficier de directeurs financiers expérimentés en matière de pilotage d’entreprise, signifiant que le rôle du directeur financier, valorisé depuis la pandémie, continuera d’évoluer de façon stratégique en 2024. Parmi leurs autres chantiers stratégiques, on retrouve l’accès et l’analyse de données financières en temps réel (45%), une plus grande focalisation sur l’analyse et la planification (41%), l’accélération de la transformation numérique (34%) et la compréhension de la trésorerie en temps réel (32%).
« Notre étude montre très clairement que les directions financières sont une des pierres angulaires au cœur des stratégies des entreprises et il est positif de constater qu’en dépit du contexte incertain dans lequel nous évoluons, elles affichent un certain optimisme et une confiance certaine quant à la capacité de transformation de leurs départements au service de la croissance de l’entreprise, » conclut Samuel Rouayrenc, Vice-Président Régional de BlackLine France.
*Tous les pourcentages ont été arrondis à l’unité. Etude complète disponible sur demande.
Méthodologie. L’enquête a été menée par le cabinet Censuswide auprès de 600 cadres supérieurs et 679 professionnels des services F&C sur sept marchés — France (152 sondés de chaque catégorie), États-Unis, Canada, Royaume-Uni, Allemagne, Australie et Singapour —, ayant les revenus annuels minimums supérieurs ou équivalents à 20 millions d’euros. L'enquête a été menée en ligne entre le 11 et le 21 août 2023.
En France, alors que la parité était presque atteinte dans les séries S, la réforme des programmes de lycée en 2020, en supprimant les mathématiques dans le tronc commun, a annihilé des années d’efforts vers l’égalité. Le nombre de filles dans les sections de maths au lycée a chuté : 40 % seulement en spécialité mathématiques, 30 % en maths expert. Soit une baisse de 28 % des effectifs féminins dans les sciences en terminale entre 2019 et 2021, et la spécialité « Numérique et sciences de l’informatique » est particulièrement abandonnée par les filles. Ces générations ne vont donc pas modifier les profils des filières à l’université.
Les mathématiciennes, par exemple, stagnent à 20 % depuis longtemps. Les maths sont indispensables pour accéder aux professions scientifiques, techniques, économiques et devenir ingénieure ou programmeuse. Une heure et demie de maths ont certes été réintroduites en 2023 dans les programmes pour consolider la culture de ceux et celles qui ne prennent pas la spécialité maths. Toutefois cela n’est pas suffisant pour intégrer des filières scientifiques dans le supérieur. Quelles actions envisager pour inverser cette courbe décroissante ?
Pour inverser cette tendance, il serait utile que les filles puissent s’identifier à des modèles féminins, en mettant en lumière les modèles historiques illustres sur les réseaux sociaux comme dans les livres de sciences et d’histoire. D’Hypatie, mathématicienne et astronome de l’antiquité au IVe siècle apr. J.-C., aux médailles Fields actuelles : l’Ukrainienne Maryna Viazovska, après l’Iranienne Maryam Mirzakhani, en passant par Sophie Germain, mathématicienne de génie, première femme à intégrer l’Académie des Sciences au siècle des Lumières, toutes ces figures scientifiques devraient être mieux connues.
L’importance de beaucoup de femmes de sciences a été sous-estimée, telles les génies de l’informatique de la NASA qui ont inspiré le film Les figures de l’ombre, les calculatrices afro-américaines Katherine Johnson, Dorothy Vaughan et Mary Jackson. Leurs résultats ont souvent été gommés par ce que Margaret W. Rossiter a appelé « l’effet Matilda » qui décrit la non-reconnaissance de la maternité des découvertes scientifiques. Nous sommes rares à avoir entendu parler de Trotula de Salerne, gynécologue italienne, comme de Jeanne Barret, botaniste française ou encore Emmy Noether, mathématicienne allemande.
Parmi les initiatives qui vont dans ce sens, citons le défi des 40 sœurs d’Hypatie qui propose d’inscrire le nom de 40 femmes de sciences au second étage de la tour Eiffel en lettres de métal, comme sont inscrits 72 noms d’hommes de sciences au premier étage. Il est soutenu par de nombreuses universités et organismes.
Il importe également de donner une plus grande visibilité aux femmes de sciences dans les villes : seulement 6 % des dénominations des rues en France étaient féminines en 2021 malgré les efforts de certaines villes, telle Paris pour atteindre environ 12 %, notamment avec plus de femmes de sciences, comme Edmée Chandon, astronome du XIXe siècle, ou Caroline Herschel, astronome du 18e, en 2021.
Ces expositions, comme les spectacles de la Comédie des ondes qui intervient dans les lycées avec du théâtre débat autour de femmes de sciences illustres, présentent des modèles inspirants.
Mettre en valeur les scientifiques d’aujourd’hui
De nombreuses femmes se mobilisent également pour expliquer leurs métiers et inciter les nouvelles générations à prendre le relais. Les associations telles que Femmes et Sciences, Femmes et mathématiques, Femmes @numérique œuvrent pour faire connaître ces filières d’études.
En véritable « role models », elles montrent le champ des possibles dans les métiers scientifiques. Les associations Femmes et mathématiques et Animath organisent sur toute la France depuis 2009 la journée « Filles, maths et informatique : une équation lumineuse » ainsi que les « Rendez-vous des jeunes mathématiciennes et informaticiennes » spécifiquement destinés aux lycéennes de 1ère et Terminales. Des speed meetings sont proposés aux lycéennes pour découvrir les métiers qui s’offrent à elles après des études de maths et pour leur faire rencontrer des professionnelles. Depuis 2016, les « Rendez-vous des Jeunes Mathématiciennes et Informaticiennes » proposent aux filles la possibilité de se rassembler pendant trois jours pour découvrir ce domaine.
Enfin, pour que les filles puissent s’imaginer exerçant ces métiers, il faut qu’elles les entendent nommer au féminin. Si la boulangère et l’infirmière font partie du langage courant, on doit aussi entendre plus régulièrement parler des ingénieures, chirurgiennes, chercheuses ou codeuses. Sans quoi, l’Académie française elle-même l’a reconnu, il est difficile de faire évoluer les mentalités.
Lutter contre les stéréotypes de genre dans l’éducation
Les parents comme les enseignants ont aussi un rôle à jouer : la bosse des maths n’existe pas, mais l’éducation et les préjugés, si. Selon le dernier rapport de l’inspection sur les maths à l’école, les garçons sont souvent incités à la compétition et valorisés comme forts en maths, les filles moins, et elles ont tendance à se sous-estimer. Les filles et les garçons seraient au même niveau en maths à l’entrée en CP et la bascule s’opèrerait au début du primaire.
Certains biais des enseignants, souvent inconscients, jouent un rôle important : des maîtresses plus stressées par les maths, puisqu’elles-mêmes n’ont pas été encouragées dans ce domaine, plus d’attention portée aux garçons, des types d’évaluation portant plus sur la compétition que la progression. Ainsi, le même exercice présenté comme du dessin est mieux réussi par les petites filles que s’il est présenté comme de la géométrie. Le ministère de l’Éducation nationale invite les enseignants à le prendre en compte lors de leurs cours et leurs évaluations.
Dans les universités, les filières de maths appliquées attirent plus que les maths fondamentales, les filles sont plus nombreuses lorsqu’il est question de visées concrètes (maths appliquées à l’écologie ou la médecine).
Les biais liés au genre dans les recrutements sont aussi à surveiller attentivement. Dans les recrutements universitaires, des observateurs de l’égalité tentent de limiter ces biais, des chercheurs hommes s’engagent pour que les sciences s’ouvrent aux femmes, il faut un engagement de tous car la progression reste lente.
On estime que 70 % des emplois d’avenir nécessiteront une formation en maths et en sciences du numérique et informatique. Il est essentiel que filles et garçons soient à égalité dans ces métiers d’avenir pour une société plus paritaire.
Me Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies, professeur et coordinateur du programme Droit du Numérique & Propriété Intellectuelle et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD) réagit à la nomination de Marina Ferrari comme secrétaire d'Etat chargée du Numérique.
"Alors que le Numérique avait depuis juillet 2022 un ministre délégué, il vient d’être rétrogradé à un simple secrétariat d’État.
Enjeu stratégique majeur pour notre pays, à l’heure du déploiement massif de l’intelligence artificielle générative, alors que l’Union européenne vient d’adopter un règlement sur l’intelligence artificielle et que les startups françaises d’intelligence artificielle peuvent jouer les premiers rôles à l’échelle mondiale, cette décision est un très mauvais signal :
un très mauvais signal envoyé aux acteurs du numérique,
un très mauvais signal envoyé aux acteurs économiques en général
un très mauvais signal envoyé aux jeunes générations
un très mauvais signal envoyé à nos partenaires européens et aux autres pays.
Elle démontre un décalage inouï par rapport aux enjeux de notre temps.
Où est passé le soutien à la « startup nation » ? "
Alors que le projet de règlement européen sur l’intelligence artificielle (AI Act) a été validé à l’unanimité des ambassadeurs des vingt-sept pays de l’Union européenne réunis à Bruxelles vendredi 2 février, les questions d'éthique continuent à se poser sur ces nouvelles technologies. Quel cadre respecter, quelles règles de protection des utilisateurs mettre en place sans nuire au développement, notamment en Europe ?
La réponse à ces questions reste complexe mais des avancées concrètes sont là. Ainsi, lundi 5 février, 8 géants de la tech set sont engagés à appliquer la recommandation de l’Unersco sur l'IA. GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce et Telefonica ont signé un engagement inédit pour bâtir une intelligence artificielle (IA) plus éthique et mettre en œuvre les valeurs et les principes de la recommandation de l'Unesco à chaque étape de la conception et du déploiement de leurs systèmes d'IA.
Ce premier accord historique a été signé à Kranj, en Slovénie, lors du deuxième Forum mondial de l'Unesco sur l'IA. "Les signataires s’engagent à assumer pleinement leur rôle dans la protection des droits humains, lors de la conception, du développement, de l'achat, de la vente et de l'utilisation de l'IA. C'est la première fois que des entreprises s'engagent auprès des Nations unies dans ce domaine", se réjouit l'Unesco. "
Des tests avant et après la mise sur le marché des systèmes d'IA
L'accord stipule notamment que "des procédures de vérification devront être mises en place pour s’assurer que les normes de sécurité soient respectées, que les effets néfastes de l’IA soient identifiés et que des mesures visant à les limiter et à les corriger soient mises en place dans un délai raisonnable, en respectant les législations nationales." L'accord souligne aussi l’importance des tests ex-ante (avant la mise sur le marché), mais appelle également au développement de pratiques ex-post (après déploiement) d'évaluation et d’atténuation des risques, compte tenu de l'évolution rapide des systèmes d’IA qui sont déjà sur le marché.
Audrey Azoulay, Directrice générale de l'Unresco. Unesco - Marko Pigac/MP Produkcija/Pigac.
"En novembre 2021, l’ensemble des États membres de l’Unesco a adopté le tout premier cadre éthique mondial pour l'utilisation de l'intelligence artificielle. Aujourd'hui, nous franchissons une nouvelle étape majeure en obtenant le même engagement concret de la part de grandes entreprises mondiales. J'appelle tous les acteurs de la Tech à suivre leur exemple. L’alliance des secteurs publics et privés est essentielle pour développer une IA qui soit au service du bien commun", a déclaré Audrey Azoulay, directrice générale de l'Unesco.
(Article publié sur ladepeche.fr le 7 février 2024)