Technomedia

Numérique · médias · sciences · intelligence artificielle

Médias : les jeunes ont envie d’une information qui leur ressemble

 

Les jeunes ont un rapport à l'information différent de celui de leurs aînés, mais subissent peut-être davantage la fatigue émotionnelle. Pexels/Hasan Zahra, CC BY-NC-ND
Par Arnaud Mercier, Université Paris 2 Panthéon-Assas

Beaucoup d’idées simples (quand elles ne sont pas tout bonnement fausses) circulent sur le rapport des adolescents et jeunes adultes à l’information. Ils manqueraient d’appétence pour l’information, seraient frivoles dans leurs centres d’intérêt, délaisseraient la télévision, seraient plus prompts à être bernés par les fake news…

Ces idées reçues trahissent une incompréhension des adultes vis-à-vis d’une jeunesse qui n’adoptent pas tous leurs réflexes et usages lorsqu’il s’agit de s’informer. Et un fossé générationnel s’est en effet creusé en la matière qui engendre des incompréhensions et des jugements de valeur hâtifs.Heureusement, de nombreuses données d’enquête permettent de dresser un portrait très différent des jeunes face à l’information, y compris l’enquête exclusive « Jeune(s) en France ». Il apparaît notamment que les jeunes restent intéressés par les actualités, mais pas forcément les mêmes que leurs parents et grands-parents, pas avec la même priorité thématique, pas sur les mêmes supports.

Des pratiques d’information qui explorent davantage de nouveaux supports

Dans l’imaginaire social des pratiques d’information jugées les plus sérieuses et légitimes, on trouve une série d’usages établis : être abonné à un journal ou un magazine de presse écrite (régional ou national) ; regarder un journal télévisé (souvent en famille) ; écouter une tranche matinale d’information sur une des grandes radios périphériques ; manifester un intérêt prononcé pour les informations citoyennes par excellence que sont l’actualité politique, économique et sociale ou internationale ; affirmer une fidélité à un média qui devient son média quotidien et à quelques figures journalistiques phares et donc leur faire confiance durablement.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Les études sur la consommation d’informations dressent un panorama des pratiques de la jeunesse française contemporaine assez divergentes. Tout d’abord le rendez-vous matinal avec les tranches infos des radios est en voie d’affaiblissement notable chez les jeunes. Selon le baromètre annuel de la confiance dans les médias Kantar/La Croix, fin 2022, 26 % des 18-24 ans écoutent la radio pour s’informer contre 42 % des 35 ans et plus.

Les jeunes perdent le réflexe de la radio d’actualité au réveil, soit qu’ils écoutent des radios plutôt musicales, soit qu’ils se jettent avec gourmandise sur leur smartphone pour accéder à leurs comptes de réseaux socionumériques. Soit qu’ils ouvrent la télévision du côté d’une chaîne d’information continue.

Leurs pratiques d’information sont beaucoup plus digitales que celle de leurs aînés, ils sont même souvent pionniers dans le développement de nouveaux supports pour s’informer, que ce soit historiquement Facebook, ou l’application Discover au sein de Snapchat, et plus récemment TikTok ou Twitch par exemple. 54 % s’informent chaque jour via les réseaux socionumériques fin 2022, contre 17 % des plus de 65 ans. Les médias ne s’y trompent pas qui multiplient les productions sur ces supports en espérant capter l’attention des plus jeunes pour les fidéliser un jour, comme avec Snapchat.

Les jeunes goûtent aussi avec joie aux podcasts pour trouver des informations qu’ils ne trouvent pas forcément ailleurs ou aiment les formats vidéo courts comme peuvent leur offrir des chaînes en ligne comme Brut ou Loopsider.

La chaine Hugo Décrypte est devenue une référence incontournable de l’information, ici son interview d’Emmanuel Macron en septembre 2023.

Ils apprécient également le style de traitement de l’information plus décontracté que dans les médias traditionnels, avec un code vestimentaire et un parler qui leur ressemble (chaîne You Tube Hugo décrypte), un ton mêlant désir d’informer et de distraire (l’émission télévisée Quotidien de Barthès : fin 2022, 29 % des 18-24 ans regardent ce type d’émission tous les jours contre 14 % seulement des plus de 65 ans), animations graphiques et stories de Snapchat…

Déjà dans notre étude début 2016 auprès de 1 820 étudiants, 74 % de ceux qui déclaraient s’informer via Facebook reconnaissaient que les informations reçues étaient un mixte entre infos sérieuses et divertissement. Autant de formats que la plupart de leurs aînés ne fréquentent pas, voire ignorent jusqu’à leur existence.

Des pratiques d’information différentes entre les générations

Cela ne signifie néanmoins pas que les jeunes se détournent totalement de la télévision pour s’informer. Elle reste bien présente dans leur patchwork informationnel. D’après le baromètre Kantar/La Croix, 42 % des 18-24 ans déclaraient regarder un journal télévisé tous les jours (contre 73 % chez les plus de 65 ans, il est vrai).

Ils ont recours aux chaînes d’information continue surtout si un événement fort survient. À cette occasion d’ailleurs, les réflexes de visionnage en famille resurgissent, la télévision restant fédératrice d’audience en temps de crise. On l’a bien vu durant la pandémie. En mars 2020, selon Médiamétrie, 57 % des 15-24 ans ont regardé la télé contre 36 % un an avant. Dans la catégorie des 15-34 ans, les JT de TF1 et France ont cumulé 1,3 million de téléspectateurs en plus chaque soir.

En revanche, les jeunes regardent plus volontiers l’information produite par les chaînes de télévision sur un autre support que l’écran télé. Leur smartphone, ou leur ordinateur pourra chez certains offrir un accès prioritaire à ces programmes, et sans attacher une importance aussi grande qu’avant à la ritualité des horaires fixes, comme la fameuse et désormais dépassée « grande messe du 20h ».

Un faible engagement partisan qui induit une autre hiérarchie de l’information

C’est aussi sur les priorités thématiques que les jeunes se distinguent en partie de leurs aînés. Relevons d’abord que dans l’enquête exclusive The Conversation, la note d’intérêt des 18-24 ans pour les rubriques jugées les plus prestigieuses ne sont jamais en dessous de 5 sur 10 : politique nationale 5,54 ; économie 5,46 ; politique internationale 5,38.

Et dans ces notes transparaissent un écart sociologique, bien connu dans l’ensemble de la population entre les moins diplômés (note moyenne d’intérêt pour l’actualité en dessous de 5/10) et les plus diplômés (note supérieure à 6/10). Mais ce résultat sur la politique est tout à fait en phase avec une difficulté de la jeunesse à se passionner pour l’action politique et partisane traditionnelle.

L’enquête pour The Conversation montre ainsi que l’engagement partisan est jugé peu désirable au contraire de l’engagement pour des causes précises (environnement, égalité hommes/femmes, luttes contre les discriminations…).

Engagement pour des causes qui explique que les jeunes vont chercher une information politique ailleurs que dans les médias traditionnels qui abordent encore massivement la politique par le truchement des luttes partisanes, des groupes parlementaires, etc. En lieu et place, les jeunes trouvent dans des médias plus de niche mais plus engagés, une offre informationnelle adaptée à leur engagement par les causes. On songe au bon écho reçu chez les jeunes femmes aux podcasts féministes ou dénonçant des discriminations de genre ou de sexe, par exemple.

D’autres rubriques d’information bénéficient donc de meilleures notes dans l’enquête précitée. Arrive en tête la culture (ce qui tord définitivement le cou au cliché d’une jeunesse mal informée, car abêtie) avec la note de 7, puis les sujets science et environnement (6,63) ou les sujets dits de société (dans lesquels leurs combats sont souvent traités) avec 5,9. L’enjeu environnemental correspondant à ces deux dernières catégories. Pas de totale dépolitisation de l’information dans la jeunesse donc, mais une politique autrement, ce qui induit une information politique ailleurs, sur d’autres canaux, avec d’autres tiers de confiance (blogueurs par exemple plutôt que chroniqueurs politiques à l’ancienne).

Le désir pour une autre information

Et sur la culture, il faut aussi noter que ce n’est pas la même culture que leurs aînés. C’est aussi un facteur expliquant le désir de trouver sur d’autres médias une information qui leur parle, qui correspond à leurs goûts. Car les médias traditionnels ont tendance à privilégier les pratiques et acteurs culturels les plus établis et conformes aux canons d’une culture traditionnelle (variété française et rock, considérés comme par les jeunes comme des « musiques de vieux », expositions de peinture, littérature consacrée depuis les grands classiques jusqu’aux prix littéraires de l’année, films d’auteur, festivals d’art lyrique et de musique classique).

Des sites comme Konbini reflètent des codes informationnels et des intérêts plus proches des 18-24 ans.

Ce qui revient pour ces médias mainstream à exclure peu ou prou, le rap, le raï, la R’n’B Mix, les jeux vidéo, les films d’horreur, les mangas, certains programmes de téléréalité…

Mais après tout, leurs parents ou grands-parents n’ont-ils pas fait de même, en écoutant les radios libres musicales, ou en achetant une presse jeunesse de leur temps, comme Salut les copains, rock et folk ou plus tard Podium ?

Des jeunes plus touchés par la fatigue informationnelle

La baromètre annuel de la confiance dans les médias nous aide à y voir plus clair sur toutes ces différences générationnelles. Dans l’enquête publiée en janvier 2023, 68 % des 18-24 ans déclarent suivre l’actualité avec un grand intérêt, certes contre 80 % pour les 35 ans et plus, mais on est loin de l’apathie informationnelle.

Et sur la confiance dans les divers supports médiatiques pour exposer une information fiable, difficile de trouver des divergences significatives entre les générations. Les jeunes conservent la même confiance toute relative dans les médias que leurs aînés. Toutefois, la confiance dans les médias Internet est nettement plus forte que celle des plus âgées, témoignant du fait qu’ils les pratiquent et qu’ils ont su trouver des médias de confiance dans cet univers où le meilleur côtoie il est vrai le pire. 48 % des 18-24 ans pensent que les faits se sont passés plutôt comme les médias en ligne en parlent, contre 29 % seulement des plus de 35 ans qui pensent ça.

Et dans le nouveau baromètre annuel Kantar/La Croix de novembre 2023, 24 % des 18‐34 ans disent s’informer via des influenceurs (comme Hugo décrypte), contre seulement 6 % des plus de 35 ans. Le tiers de confiance est donc moins une figure de journaliste connu et reconnu. Les jeunes font davantage confiance que leurs aînés à des figures qui leur ressemblent et qui leur offrent une relation vécue comme plus horizontale et égalitaire, dans la façon de leur parler, dans le choix des sujets, dans les valeurs véhiculées.

Un point de vigilance sur le rapport des jeunes à l’information concerne le sentiment de fatigue informationnelle. Nous sommes tous confrontés à un défi anthropologique majeur : notre capacité à être tenus informés de tout ce qui se passe de terrible de par le monde est quasi illimitée mais notre capacité à agir n’a pas progressé, ce qui nous confronte fatalement à un sentiment d’impuissance très frustrant voire décourageant :

« A quoi bon continuer à s’informer sur la misère du monde, si cela me déprime et génère un profond sentiment d’impuissance ? »

On ajoutera la multiplication des sollicitations permanentes à s’informer (alertes push sur nos téléphones, messages partagés sur nos réseaux socionumériques, chaînes d’information continue…) qui peuvent provoquer une saturation. Le sentiment se développe donc que l’information est anxiogène, démoralisante.

Si toutes les tranches d’âge sont touchées, les études montrent que les jeunes la ressentent plus que d’autres. En 2022, 15 % des Français se déclarent épuisés ou stressés par les informations reçues « régulièrement » et 35 % « de temps en temps ». Dans l’évaluation de l’état d’esprit des jeunes face à l’information, dans l’étude pour The Conversation, on constate que jusqu’à 41 % peuvent se déclarer « inquiets », 34 % fatigués et 25 % angoissés. Sentiments négatifs plus prégnants chez les jeunes femmes, qui sont plus inquiètes (48 % vs 33 % des hommes) plus fatiguées (39,5 % vs 26 %), plus angoissées (31,8 % vs 18 %).

Et dans le baromètre Kantar/La Croix de janvier 2023, le sentiment de « lassitude » face à l’information est le plus fort chez les 18-24 ans (58 %) contre 47 % chez les 65 ans et plus. Et deux raisons majeures explique cette lassitude chez eux : « je me sens angoissé ou impuissant face aux informations » (33 %) et « les médias ne parlent pas des sujets importants pour moi » (30 %). Et ici l’effet générationnel est massif puisque seulement 16 % des 35 ans et plus pensent cela. Il faut dire que sur les causes qui les mobilisent (racisme, lutte contre les discriminations, environnement…) les médias leur donnent à voir de nombreux exemples déprimants (bavures policières, violences, dégâts climatiques).

On voit que la relative défiance des jeunes vis-à-vis des médias traditionnels d’information n’est pas un retrait total, dédaigneux et irresponsable, mais bien le symptôme d’une difficulté de ces médias à s’adresser aux jeunes, à capter leur intérêt en offrant des contenus renouvelés, qu’ils vont donc chercher ailleurs.The Conversation



CC BY

Cet article est publié dans le cadre de l’enquête exclusive « Jeune(s) en France » réalisée en octobre 2023 pour The Conversation France par le cabinet George(s). Une étude auprès d’un échantillon représentatif de plus de 1000 personnes qui permet de mieux cerner les engagements des 18-25 ans, les causes qu’ils défendent et leur vision de l’avenir.

À lire aussi :



Arnaud Mercier, Professeur en Information-Communication à l’Institut Français de presse (Université Paris-Panthéon-Assas), Université Paris 2 Panthéon-Assas

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Rançongiciel, une plongée dans le monde de la cybercriminalité

 

Les cybercriminels agissent en bandes très organisées, et surtout très modulables. Dan Asaki, Unsplash, CC BY
Par Jean-Yves Marion, Université de Lorraine

Europol vient d’annoncer le démantèlement d’un groupe de rançongiciels en Ukraine. Dans leur forme la plus basique, ces cyberattaques bloquent les systèmes informatiques et exfiltrent les données de la victime, promettant de les restituer contre rançon.

Ainsi, en août 2022, une cyberattaque attribuée au rançongiciel LockBit a paralysé le centre hospitalier sud-francilien en exfiltrant 11 Gigaoctets de données de patients et d’employés. L’hôpital a dû fonctionner en « mode dégradé » pendant plusieurs mois, avec les dossiers médicaux inaccessibles et des appareils de soin inutilisables. En juillet 2023, c’est le port de Nagoya, l’un des plus importants du Japon, qui a été obligé de s’arrêter pendant deux jours à cause d’un rançongiciel.

De l’exfiltration des données à leur revente sur des marchés illicites et aux menaces de rendre publiques les informations volées, jusqu’au fonctionnement très altéré des organisations victimes des attaques, la réalité du terrain est brutale, purement criminelle et vise sans discernement les particuliers, les hôpitaux, les écoles et toutes les organisations et entreprises vulnérables.

Les organisations cybercriminelles sont aujourd’hui bien organisées et leurs façons de procéder évoluent pour plus d’efficacité : l’économie et l’écosystème souterrains à l’origine de ces cyberattaques sont très modulables et se sont même « uberisé », ce qui les rend résilients aux démantèlements et actions en justice.

C’est une plongée dans ce monde de la cyberextorsion que nous vous proposons ici.

schéma du mode opératoire utilisé par des cybercriminels
Le mode opératoire des cybercriminels utilisant des rançongiciels est en constante évolution. Jean-Yves Marion, Fourni par l'auteur

L’extorsion cyber en constante évolution

Quand on parle de rançongiciel, on pense à un programme malveillant qui va chiffrer (crypter) les données d’un ordinateur et demander une rançon pour rendre ces données. Par exemple, le rançongiciel Wannacry, qualifié de « sans précédent » par Europol, avait compromis environ 5 millions d’appareils en 2017, après avoir exploité une vulnérabilité pour se propager automatiquement.

Aujourd’hui, cette notion a évolué : les rançongiciels sont opérés par des humains qui explorent l’ensemble du système informatique compromis. Les attaques peuvent se déployer sur plusieurs mois, tenir compte des systèmes attaqués et « avancer » à l’intérieur du réseau informatique. Les données sensibles et d’autres informations peuvent être exfiltrées et stockées sur des serveurs contrôlés par les cybercriminels.

Le groupe cybercriminel Royal a par exemple publié en mai 2023 des informations de la ville de Dallas, y compris des informations confidentielles sur la police et sur des affaires pénales.

De fait, des données partiellement rendues publiques permettent déjà de faire pression sur la victime, et l’exfiltration suffit à demander une rançon. Les données peuvent aussi être revendues à un tiers.

Les attaquants peuvent aussi procéder au chiffrement des données sur les serveurs de leur propriétaire. Ce mécanisme est dit de « double extorsion » : exfiltration et chiffrement.

Enfin, le harcèlement sur la victime peut aller jusqu’à une attaque par « déni de service (DDOS) », qui rendent les services web de la victime inaccessibles. On parle alors de « triple extorsion ».

Le gain financier est le principal moteur des campagnes de rançongiciels, et en fait il faudrait plutôt parler aujourd’hui d’« extortion-wares », qui mobilisent toute une économie souterraine.

schéma de l’écosystème des rançongiciels
L’écosystème des rançongiciels s’est ubérisé, avec des services disponibles, dont des fournisseurs de logiciels d’attaques ainsi « facilitées », qui permettent à de la main-d’œuvre relativement peu qualifiée en informatique, les « affiliés », de sous-traiter les attaques des commanditaires. Jean-Yves Marion, Fourni par l'auteur

Un écosystème souterrain

Les organisations souterraines responsables de ces cyberextorsions ont gagné en maturité. Le modèle Ransomware as a Service (RaaS) s’est imposé comme à la fois la structure principale d’organisation et comme modèle économique.

Le RaaS est un ensemble d’acteurs qui monnayent des infrastructures, des services et des savoir-faire à leurs « affiliés » : c’est ainsi que ceux-ci disposent des moyens technologiques et humains pour réaliser concrètement les cyberattaques par rançongiciel.

Nos connaissances sur ce système cybercriminel proviennent d’interviews et des fuites d’information. Les « ContiLeaks » en particulier furent le fait de disputes entre les acteurs. Pour certaines des fuites documentées sur ContiLeaks, les fuites émanent plus précisément de désaccords subséquents à l’invasion de l’Ukraine.

Le monde de la cybercriminalité s’est ubérisé

Dans ce modèle économique du Ransomware as a Service, le recrutement d’« affiliés » est essentiel : ce sont eux qui réalisent les cyberattaques grâce à un certain nombre d’outils et de panneaux de contrôle fournis par l’organisation cybercriminelle à l’initiative de l’attaque. Ces organisations sont assez disparates : il existe à la fois des groupes d’acteurs et des acteurs isolés. Dans tous les cas, ces organisations sont fragmentées – ce qui, on le verra par la suite, leur permet de se reconfigurer, en cas de démantèlement notamment.

Ce soutien « technique » permet de recruter des exécutants dont le niveau technique n’est pas forcément élevé, car ils bénéficient d’outils relativement faciles à mettre en œuvre. Ironiquement d’ailleurs, un groupe se nomme « Read the Manual ».

Autrement dit, le monde de la cybercriminalité s’est, lui aussi, ubérisé. Les profits sont partagés entre les commanditaires et les affiliés (environ 70 % du paiement de la victime est reversé à l’affilié).

Ventes d’« accès » : comment pénétrer chez la victime

Un des services les plus importants est celui des fournisseurs d’accès (Internet Access Brokers) qui vendent notamment des mots de passe et des cookies provenant de campagnes précédentes, soit de phishing qui cherche à manipuler une victime pour obtenir un mot de passe, soit d’infostealers qui sont des logiciels spécialisés dans le vol d’information, ou enfin à la suite d’une exfiltration de données par une précédente attaque d’un rançongiciel.

En 2021, l’attaque de Colonial Pipeline a forcé l’arrêt de toutes les opérations d’un pipeline qui transporte environ 400 millions de litres d’essence par jour, ce qui a amené le ministère américain de la Justice à élever les attaques par rançongiciel au niveau du terrorisme. En effet, selon l’audition de la commission de la sécurité intérieure de la Chambre des représentants des États-Unis, l’accès initial au réseau s’est fait à partir d’un mot de passe réutilisé.

Ce type de « vente d’accès » se fait dans des marchés souterrains et des forums, comme RaidForums.

Blanchiment des rançons : démêler les flux de cryptomonnaies

Pour faire fonctionner l’écosystème, un autre service important est celui du blanchiment des rançons (en cryptomonnaies, souvent en Bitcoin). Pour cela, des outils informatiques sont utilisés : des « mixeurs » pour rendre les transactions financières intraçables, et des « échangeurs » pour échanger les cryptoactifs.

Afin de démanteler les services de blanchiment et d’arrêter les cybercriminels, les forces de l’ordre essaient de surveiller ces échanges de cryptomonnaies. C’est ainsi qu’une action internationale a permis de démanteler la plate-forme d’échange de cryptoactifs Bitzlato.

Une des limitations à ces actions internationales est que les organisations RaaS s’appuient le plus souvent sur des infrastructures hébergées dans des pays qui ne collaborent pas, ou peu, avec les forces de l’ordre européennes et américaines.

Une économie souterraine résiliente

Le modèle RaaS permet de réduire les risques pour les cybercriminels, comme l’observe le rapport 2022 de l’agence européenne pour la cybersécurité (Enisa). En effet, l’arrestation d’un seul cybercriminel n’est pas suffisante pour stopper les méfaits d’un rançongiciel : les groupes comme Conti se fragmentent et se recomposent en différents autres groupes.

frise chronologiques d’activités cybercriminelles
Synthèse chronologique des activités connues du groupe cybercriminel FIN12, illustrant le fait que ce type de gang se désagrège et se reconstitue, ce qui démontre leur adaptabilité et leur résilience. Agence nationale de la sécurité des systèmes d’information (ANSSI) -- septembre 2023. Licence ouverte (Étalab -- v2.0)

Aussi efficaces soient-elles, les actions de justice internationale n’ont parfois qu’un effet limité. Par exemple, le « world’s most dangerous malware », appelé Emotet, a été démantelé en janvier 2021… pour reprendre du service un an plus tard.

Ce constat peut sembler pessimiste mais ne doit pas masquer que les actions de justice secouent de fait le monde cybercriminel, comme l’ont montré l’opération offensive contre le rançongiciel Hive ou le démantèlement de Ragnar Locker (suite notamment à une arrestation à Paris).

D’un point de vue économique, le modèle RaaS optimise le retour sur investissement (ROI). L’économie souterraine RaaS prospère. Elle est basée sur des marchés illicites dans le dark web. En moyenne, un ransomware est vendu pour 56 dollars américains selon l’étude menée entre novembre 2022 et février 2023.

Les marchés souterrains sont très volatils et fragmentés. Cette fragmentation permet aux cybercriminels de poursuivre leurs activités commerciales, même après une saisie par les forces de l’ordre comme celles de DarkMarket et de HydraMarket.

Cyberattaques et conflits armés : la naissance des « cyber-mercenaires » ?

Des organisations clandestines prennent forme, disparaissent et renaissent, parfois instrumentalisées par les États, comme l’a montré le conflit ukrainien. Rien d’étonnant à cela, puisque les moyens d’une cyberattaque sont quasiment les mêmes, que l’objectif soit financier, d’espionnage ou de destruction.

Déjà en 2017, et malgré sa ressemblance avec le rançongiciel WannaCry déjà bien connu, les actions du malware NoPetya ont été destructrices, causant environ 10 milliards de dollars de dommages totaux, et préfigurant les cyberattaques menées pendant le conflit ukrainien à l’aide d’armes avec les « wipers », qui effacent les informations de systèmes compromis.

Les tensions géopolitiques pourraient encourager les acteurs à l’origine des rançongiciels à poursuivre les cyberconflits en cours : en adaptant légèrement leurs comportements, ils peuvent facilement devenir des sources d’espionnage, comme des « cyber-mercenaires ».


Le PEPR Cybersécurité est opéré par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.The Conversation

Jean-Yves Marion, Professeur, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Imperva annonce ses prédictions en matière de cybersécurité pour 2024

hacker

Analyse d'Imperva. Cette société spécialiste de la cybersécurité, a publié les principales tendances en matière de cybersécurité auxquelles les organisations devront faire face en 2024.

2023 a vu l'essor rapide de l'IA générative présenter aux professionnels de la cybersécurité des opportunités sans précédent pour rationaliser les opérations, améliorer la productivité et favoriser l'innovation. Cependant, au milieu de cette vague de transformation, le spectre menaçant des cybermenaces est devenu plus omniprésent et plus sophistiqué, exigeant une réévaluation stratégique des mesures de sécurité. Parallèlement, l'utilisation des API par les entreprises ne cesse de croître, tout comme les risques de sécurité qui y sont associés. Voici quatre tendances clés qui définiront 2024 selon les experts d'Imperva :

Les pirates exploiteront les équipes de cybersécurité disparates

Andy Zollo, vice-président régional de la région EMEA chez Imperva : "Au cours de l'année à venir, les entreprises seront confrontées aux conséquences d'équipes de cybersécurité déconnectées et d'une mauvaise communication entre le développement, la sécurité et d'autres départements cruciaux. Les acteurs de la menace tireront parti de cette fragmentation en lançant des attaques mixtes qui exploitent le manque de coordination. Ce phénomène s'accentuera encore avec l'utilisation de l'IA générative pour créer, itérer et exécuter des attaques. Pour atténuer ce risque, les professionnels de la cybersécurité doivent donner la priorité à une collaboration cohésive et à une responsabilité partagée, en abandonnant la mentalité "ce n'est pas mon problème" au profit d'une défense fortifiée contre les menaces sophistiquées."

Les organisations seront confrontées à la réalité de l'IA générative

Reinhart Hansen, directeur de la technologie au sein du bureau du directeur technique d'Imperva : "Le battage médiatique autour de l'IA générative doit être remis en question en 2024. L'accélération continue du développement de l'IA est inévitable. Toutefois, comme la plupart des technologies, son adoption comportera des aspects à la fois bénéfiques et néfastes. D'une part, elle contribuera à accroître la productivité et le rendement de tous les développeurs en automatisant les tâches les plus routinières et en les aidant à mener à bien leurs projets de manière plus efficace. Toutefois, ces mêmes outils aideront également les "script kiddies" à passer du statut d'attaquants immatures et novices à celui de pirates informatiques compétents, capables de mener des attaques nouvelles et sophistiquées. Dans le même temps, les organisations et les consommateurs devront se méfier de l'"IA washing", c'est-à-dire des entreprises qui annoncent faussement l'intégration de l'IA dans leurs produits ou services, ce qui induit les consommateurs en erreur. Le secteur devra travailler avec diligence pour faire face à cette réalité à double tranchant, répondre à ces menaces et les atténuer, afin que l'avenir prometteur de l'IA reste sûr et bénéfique pour tous."

2024 sera l'année où les organisations se réveilleront enfin aux risques liés aux API

Lebin Cheng, responsable de la sécurité des API chez Imperva : "2023 a vu l'explosion des API se poursuivre. Les études montrent que l'entreprise moyenne a des centaines d'API en production, tandis que certaines en ont plus d'un millier. En 2024, les entreprises se rendront compte qu'elles doivent adopter une approche plus proactive de la sécurisation de leurs API. Le problème est que de nombreuses organisations n'ont pas mis en place les défenses ou les contrôles adéquats. Elles ne savent pas où leurs API sont déployées ni à quelles données elles accèdent. Elles s'exposent ainsi à des risques d'une ampleur qu'elles ne peuvent pas appréhender, ni même quantifier. En 2024, alors que la pression pour atténuer les incidents de sécurité liés aux API ne cesse de croître, les responsables de la sécurité rechercheront et investiront dans des solutions qui s'intègrent de manière transparente dans leur pile technologique de sécurité des applications existante. Cette approche donnera aux organisations une vision plus coordonnée et unifiée des menaces automatisées qui ciblent les API et les applications critiques - dont beaucoup se connectent aux magasins de données où se trouvent les données de l'entreprise. Dans les années à venir, une nouvelle ère de convergence s'ouvrira dans le secteur de la sécurité, où la gestion et la sécurité des API seront intégrées aux plates-formes de sécurité des applications."

La sécurité des données deviendra plus importante que jamais en 2024

Terry Ray, SVP Data Security chez Imperva : "Alors que la puissance de l'IA repose sur des données intelligentes, les organisations réaliseront en 2024 que la sécurité des données est plus importante que jamais. Pendant des années, les organisations ont accumulé des données, dont une grande partie est désormais inconnue et difficile à sécuriser. Ce manque de contrôle augmente les risques sans apporter de valeur ajoutée. Dans le même temps, les organisations ont supposé à tort qu'une grande partie de leurs données ne valait pas la peine d'être protégée, ne donnant la priorité qu'aux données classées comme hautement sensibles, et oubliant les données à "faible risque" telles que celles qui sont accessibles au public. Cette hypothèse n'est pas seulement erronée, elle est aussi dangereuse. Tout d'abord, les systèmes d'IA, en particulier les modèles de langage puissants comme GPT, s'appuient sur ces données pour façonner des prédictions et des décisions, de sorte que le fait de conserver des données inutilisées - et surtout obsolètes ou inexactes - pourrait revenir hanter les entreprises. À ce risque s'ajoute la montée de l'"IA fantôme", les organisations ignorant comment les employés utilisent les applications d'IA et quelles données ils transmettent aux modèles qui les sous-tendent. En outre, chaque octet de données détenu par une organisation représente un risque pour la sécurité : les données à haut risque peuvent être volées et utilisées comme armes, tandis que les pirates peuvent accéder aux données publiques à faible risque pour y vivre, les surveiller et attendre le moment idéal pour voler les joyaux de la couronne.

Les organisations doivent prendre conscience de l'urgence de reprendre le contrôle de leurs données - comprendre où elles se trouvent, comment elles sont utilisées et s'il est même nécessaire de les stocker.

Quand un jeu vidéo permet d'imaginer des pistes pour mieux se protéger des inondations

jeu

Face au réchauffement climatique, les solutions fondées sur la nature (SFN) ont le vent en poupe et sont désormais utilisées par plusieurs institutions en France dont l'agence de l'eau Adour-Garonne.

Un outil innovant mis au point par la Fondation MAIF et l'INRAE

L'intérêt des SFN se retrouve dans un jeu sérieux (serious game) baptisé SIM-MANA. Cet outil innovant mis au point par la Fondation MAIF et l'INRAE (Institut national de recherche pour l'agriculture, l'alimentation et l'environnement) valorise les solutions fondées sur la nature (SFN) pour mieux se protéger des inondations, dont le risque expose 46 % des communes, soit l’équivalent de 17 millions d’habitants.

"Lancé en 2020, le projet MANA avait un double objectif. D'abord, valoriser les SFN comme alternative crédible et vertueuse auprès des collectivités et du grand public dans les programmes de protection contre les inondations selon trois dimensions (économique, environnementale et sociale)", expliquent les deux partenaires. Ensuite "concevoir un outil numérique sur mesure en 3D – le jeu SIM-MANA – permettant de simuler et tester des scénarios d’inondations prenant en compte trois facteurs : physiques (hydraulique, résistance des ouvrages de protection…), mais aussi psychologiques (comportement des habitants, émotions…) et sociaux (échange d’informations, entre-aide…)."

L'idée est d'aider "les acteurs (techniciens, gestionnaires, décideurs, riverains) à la construction d’un projet commun et partagé envisageant de mobiliser les SFN (restauration de zones humides, végétalisation de structures urbaines…) comme solutions de protection efficaces face aux inondations par débordement (crue) ou par ruissellement (en zone urbaine)."

"Le jeu Sim-MANA a été conçu comme un outil de discussion, d’échanges et de réflexion autour de la gestion du risque inondation par le recours aux SFN (végétalisation des espaces, fossés, zones humides, etc.). La simulation informatique sur laquelle repose le jeu permet d’évaluer les choix des joueurs et ainsi de les informer sur les avantages et inconvénients des différentes solutions. Le jeu a été testé lors de plusieurs ateliers, et notamment avec la municipalité de Marseille, et à chaque fois les retours ont été très concluants : il permet aux participants de mieux appréhender les SFN et de les motiver à y faire appel pour gérer ce risque", explique Franck Taillandier, chercheur à l'INRAE et pilote du projet scientifique MANA.

Le coût avantageux des SFN

"Les SFN inspirées directement du fonctionnement de ces écosystèmes (restitution des cours d’eau, renaturation de la ville, …) sont non seulement efficaces pour réduire les risques naturels, mais elles contribuent également à réduire l’impact du dérèglement climatique, protéger la biodiversité et améliorer la qualité de l’air et de l’eau", note l'INRAE.

L'un des aspects importants des SFN est un coût avantageux. "Par rapport aux infrastructures traditionnelles (digue, barrage…), les SFN seraient souvent plus abordables à mettre en œuvre et nécessiteraient moins d'entretien à long terme", explique l'INRAE.

"Au regard de la multiplication des inondations et de l'augmentation de leur gravité, nous sommes de plus en plus engagés vers des outils et démarches de prévention. Il est temps de s'interroger sur la pertinence des solutions classiques qui modifient les territoires et consomment des ressources. Les SFN sont une alternative crédible et il faut s'en convaincre. C'est la mission du jeu SIM-MANA", estime Marc Rigolot, directeur de la Fondation MAIF

IA : le meilleur et le pire

IA


Par Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies, fondateur et dirigeant du cabinet Constantin Pavléas Avocats et professeur et coordinateur du programme Droit du Numérique & Propriété Intellectuelle et responsable d'enseignements à l'école des Hautes Études Appliquées du Droit (HEAD).

Les pays du G7 ont adopté un code de bonne conduite sur l’intelligence artificielle (IA). Ce texte comprend 11 recommandations non contraignantes en faveur d’une IA « sûre, sécurisée et digne de confiance ». Les risques posés par l’IA apparaissent dans ce texte comme énormes. 

Il ne faut cependant pas perdre de vue que l’IA est un outil, qui peut être utilisé à bon ou à mauvais escient. Nous ne devons pas jeter le bébé avec l’eau du bain. Petit tour d’horizon…

Le meilleur de l’IA…

Dans le secteur de la santé, l’IA est pleine de promesses, en permettant notamment le suivi des patients à distance, l’anticipation de certains risques ou le développement de maladies, la création de prothèses intelligentes, l’amélioration des diagnostics, le traitement personnalisé par le recoupement de données… Ces domaines sont en pleine expansion et l’IA devrait jouer un rôle crucial dans la médecine de demain, dont nous ne devons pas nous priver. 

L’IA peut faciliter l’apprentissage grâce aux objets intelligents, aux cours en ligne et des formations optimisées permettant d’accomplir des tâches plus complexes ou de gagner plus rapidement en compétences. 

L’IA permet de rendre les transports plus intelligents grâce à la détection de l’environnement du conducteur, la prise en charge de la conduite semi-automatique voire autonome, détection des lignes blanches, etc. 

L’IA peut aussi aider tout un chacun dans son quotidien, permettant d’accéder à des informations plus facilement, de bénéficier de recommandation de contenus qui nous correspondent ou pourraient nous intéresser, ou d’assistants vocaux permettant d’accomplir certaines tâches par l’utilisation de la voix. 

Le pire de l’IA…

Comme le souligne le texte du G7, l’IA présente aussi certains risques, et c’est pourquoi elle doit être encadrée : 

-       L’IA peut présenter une menace en matière de protection de la vie privée et d’utilisation des données personnelles

-       Elle peut aussi être utilisée à mauvais escient en permettant la création et la prolifération de fausses informations et de deepfakes (photos manipulées, etc.), mais aussi d’images pédopornographiques ou autres photos réalisées sans le consentement de la personne via certaines applications. 

-       D’après la note du G7, particulièrement alarmante, l’IA pourrait aussi faciliter le développement des armes chimiques, biologiques ou nucléaires, en permettant à des acteurs non-étatiques d’y accéder

-       Enfin, l’IA n’est pas infaillible et peut également commettre des erreurs, en raison notamment de biais algorithmiques. Elle ne détient pas de conscience humaine et il est important que les êtres humains continuent à maîtriser cette intelligence. 

Pour ces différentes raisons, l’Union européenne s’est emparée du sujet avec son projet de règlement IA Act, mis sur la table en avril 2021. Un accord devrait être trouvé entre les différents pays européens d’ici fin 2023. Il s’agirait de la première législation mondiale pour encadrer l’IA. Cela démontre une conscience européenne face à ces enjeux et des valeurs européennes de liberté et de démocratie à préserver, y compris dans l’espace numérique.

Le fait que les États-Unis soient désormais moteurs pour traiter le sujet au niveau du G7 montre à la fois la gravité des enjeux suscités par l’avènement de l’IA grand public et, enfin, une prise de conscience à l’échelle mondiale. 

Intelligence artificielle et architecture d’entreprise : mariage par consentement mutuel !

IA

Tribune d'Eva JAIDAN, Ph.D.- Responsable Data Analytics & IA - MEGA International

Lancée à pleine vitesse, la transformation digitale pose un grand nombre de défis aux entreprises, qui veulent à tout prix rester dans la course pour ne pas se faire distancer sur leurs marchés. Parmi les réponses à ces défis, l’architecture d’entreprise d’une part, et l’intelligence artificielle (IA) d’autre part, figurent en bonne place. Ensemble, les deux interagissent et s’enrichissent mutuellement au bénéfice d’une transformation digitale accélérée et consolidée.

Le numérique est, depuis plusieurs années déjà, perçu comme un moteur de la croissance des entreprises. Déjà en 2021, 63 % des entreprises de plus de 20 salariés considéraient la transformation numérique comme une opportunité, selon le Baromètre Croissance et Digital de l’ACSEL. 41 % estimaient même que le digital contribuait directement à leur chiffre d’affaires.

Pour autant, la plupart d’entre elles sont lucides, et savent que le digital apportent avec lui un certain nombre de défis à relever, tant au niveau organisationnel que du point de vue des systèmes d’information sous-jacents. C’est en tout cas ce qui ressort du rapport Digital Trends 2022 d’Adobe. Or, relever ces défis est justement l’un des rôles de l’architecte d’entreprise. Lequel peut compter sur l’IA pour l’aider dans ses missions, tandis que les projets d’IA pourront également se nourrir des activités d’architecture d’entreprise pour sécuriser leur réussite.

Des outils d’IA au service de l’architecture d’entreprise

L’intelligence artificielle peut être un atout précieux pour l’architecture d’entreprise. Avec des systèmes d’information de plus en plus complexes, évolutifs et au périmètre toujours plus élastique (Cloud, Edge, etc.), maintenir à jour la cartographie IT de l’entreprise peut être une tâche ardue. Cette tâche comprend la classification des applications ainsi que des processus techniques et humains, ce qui peut être non seulement chronophage et fastidieux, mais aussi extrêmement répétitif en raison de l’évolution rapide du système d’information des entreprises.

Dans ce contexte, l’IA peut faciliter et sécuriser ces tâches. Mais c’est à condition de disposer d’outils expressément développés à cet effet - pour en garantir la valeur ajoutée. Les solutions d’IA générative sont tout à fait capables de construire et mettre à jour automatiquement les diagrammes de description des processus. Le défi est donc d’adapter ces outils au mieux aux besoins spécifiques.

À l’autre bout de la chaîne de valeur de l’architecture d’entreprise, l’IA peut aussi jouer un rôle clé dans la communication de l’architecte d’entreprise vers le reste de l’organisation. C’est un fait, la mission de l’architecte d’entreprise n’est pas toujours comprise par les autres départements, ce qui peut affecter la visibilité de sa valeur ajoutée. Dans ce cadre, l’IA peut participer à diffuser la connaissance de l’architecte d’entreprise vers ses collègues, libérant ainsi du temps pour des échanges directs avec l’ensemble des équipes.

En s’aidant de solutions d’intelligence artificielle comme d’un véritable assistant, l’architecte d’entreprise remplira d’autant mieux son rôle d’accélérateur de business en privilégiant les interactions humaines avec les différentes équipes.

Sécuriser les modèles d’IA grâce à l’architecture d’entreprise

Bien sûr, l’architecte d’entreprise n’est pas le seul dans l’organisation à s’intéresser à l’intelligence artificielle et ses apports en termes d’automatisation. Pour autant, on estime aujourd’hui à 80 % le taux d’échec des projets d’intelligence artificielle dans les organisations. Des échecs très souvent liés à l’utilisation de données manquant de contexte ou de richesse, ou plus globalement en raison de projets non alignés sur la stratégie de l’entreprise.

Et c’est en ce sens que l’architecture d’entreprise peut, à son tour, aider à améliorer le taux de réussite des projets d’IA. Car parmi les missions de l’architecte d’entreprise, figurent l’enrichissement, la contextualisation et l’amélioration du partage (circulation) des données dans toutes les strates de l’entreprise.

De fait, en travaillant main dans la main avec l’architecte d’entreprise, les porteurs de projets d’IA peuvent compter sur des données de meilleure qualité et ainsi développer des projets réellement créateurs de valeur, sur des bases de données saines et solides.

Architecture d’entreprise et IA : des données de qualité et une orientation business

Parler d’intelligence artificielle, c’est aussi parler de son entraînement. C’est l’un de ses fondamentaux. Or, Cet entraînement repose sur des données, et si ces données sont partielles, obsolètes, manquent de contexte ou de richesse, ou sont même incorrectes, il y a un risque significatif d’introduire des biais cognitifs dans l’algorithme de l’IA. Cela peut fausser ses réponses

Le travail de fond de l’architecte d’entreprise - par son implication dans les projets d’IA - va pouvoir atténuer ce risque. Outre une meilleure qualité et un contrôle renforcé des données à jour, l’architecte d’entreprise va fournir une certification des données utilisables. Ce qui assure aux créateurs et utilisateurs futurs du projet d’IA des réponses précises et pertinentes basées sur des données fiables.

Enfin, dans son rôle de gouvernance des actifs numériques de l’entreprise, l’architecte d’entreprise participera activement au développement et à la sécurisation des modèles d’IA (algorithmes). Car au même titre que n’importe quelle application du système d’information, ces algorithmes entraînés doivent désormais être considérés comme des valeurs actives (assets) de l’entreprise, qu’il s’agit de protéger, maintenir et faire évoluer, pour assurer le succès, dans le temps, des projets IA, et par ricochet la réussite de toute l’organisation.

La data science, un outil au service des usages de la collectivité

data

Par Jean-Baptiste Vieren, Directeur Data Science chez Birdz

En matière de préservation de l’environnement ou de sobriété́ de consommation, il existe une véritable urgence pour les collectivités, qui doivent se confronter à des enjeux majeurs et à des besoins en constante évolution. Les appels à réduire la consommation d’eau durant l’été 2022 et les restrictions recommandées en matière de consommation énergétique cet hiver n’en sont que quelques exemples. Dans un tel contexte, les collectivités ont tout intérêt à utiliser les stratégies et outils technologiques déjà̀ bien éprouvés par le monde de l’entreprise, et en innovation constante, pour optimiser la prise de décisions avisées.

Analyser pour agir efficacement sur les enjeux réels

Nous nous trouvons, depuis maintenant de longues années, dans une ère où le changement climatique et ses conséquences inquiètent grandement les experts et dirigeants de la planète. La combinaison de l’IoT, pour produire et restituer les données, et de la data science, pour les transformer en information utile, a un rôle décisif à jouer tant dans les prises de conscience que dans la limitation des impacts défavorables et la prévention des risques.

Cette combinaison fructueuse offre des opportunités inouïes pour les collectivités, en permettant aux experts d’adapter leur regard pour concevoir de nouveaux produits et services répondant aux problématiques actuelles. Grâce à son rôle d’incubateur, la data science est une véritable pépinière à expériences, facilitant le prototypage et la conception de solutions adaptées à chaque besoin dans les collectivités, qu’il s’agisse de créer de nouveaux services innovants, de résoudre des problèmes existants ou encore d’améliorer la performance des services en place.

Nous observons par exemple des demandes fréquentes liées aux problématiques d'îlots de chaleur urbaine. La collecte de données aide à identifier les changements climatiques et environnementaux afin de prioriser une intervention adaptée dans les quartiers les plus touchés. Par exemple, en insistant sur le développement de la végétation, avec des plantations d’arbres, pour optimiser la qualité́ de l’air ou l’ombrage dans les endroits nécessaires. La data science, dans ce cas précis, permet d'orienter les choix d'adaptation des infrastructures et des aménagements afin de réduire les sources de nuisances, plutôt que de se limiter à lutter contre les effets néfastes telles que les pollutions ou les canicules.

La sobriété́, de la récolte des données à leur traitement

D’un point de vue technique, les réseaux télécoms, interopérables, permettent la collecte de multiples données pertinentes par les villes pour répondre à des besoins définis et se lancer sur de nouveaux projets.

L’idée n’est pas d’exploiter les données de manière frénétique, dans une logique de “toujours plus”, mais au contraire d’imaginer le traitement adapté aux préoccupations environnementales et citoyennes. Il serait bien maladroit de prôner la sobriété́ d’un côté, mais de développer des traitements excessifs de l’autre ! La valorisation de ces données n’est un véritable succès que si elle aboutit à des actions concrètes et des prises de décisions utiles. Une partie importante du travail consiste donc à accompagner la compréhension des informations produites et à s’assurer de leur juste valorisation.

Le rôle des data scientists est ainsi d’utiliser les données pour éclairer et outiller les décideurs et les acteurs de la collectivité́. La compréhension de la donnée est primordiale pour agir efficacement. Comprendre et analyser la donnée, c’est avant tout comprendre les usages des citoyens pour mieux les servir et anticiper leurs besoins. Mais c’est également disposer d’informations cruciales pour aider l’ensemble des parties prenantes à mieux comprendre l’impact de leurs activités et de leurs consommations.

En parallèle, la data science permet également de devancer les pannes afin d’éviter toute interruption de service pour les citoyens. Grâce à l’analyse des données, il est possible de dépasser la maintenance préventive pour privilégier la maintenance prédictive. Ainsi, l’analyse des données collectées permet de déterminer les causes d’un possible dysfonctionnement afin d’instaurer des mesures de prévention et des conseils utiles pour une meilleure durabilité́. C’est l’état réel de l’actif et non un calendrier théorique qui déclenche une intervention. Là aussi, ceci permet plus de sobriété́ dans la gestion et la maintenance des équipements, en évitant des interventions systématiques ou désordonnées.

Une vision à long terme pour une sobriété́ réussie

De la preuve de concept au déploiement puis à la valorisation des données, les développements de projets liés à l’IoT et à la data science sont des processus assez longs pour les collectivités. Mais il s’agit ici d’un véritable investissement sur le long terme, car l’objectif est de réussir à alimenter plusieurs usages à partir d’un même projet en raffinant la donnée et en l’exploitant à plusieurs fins.

Par exemple, en mettant en place un dispositif visant à mesurer la température d’un certain environnement, il est possible de détecter des anomalies locales laissant à penser qu’une perte de chaleur dans un équipement voisin est en cours. Un œil averti y verra alors l’opportunité de comprendre cette perte d’énergie, de réduire les coûts associés, voire d’éviter une panne future.

Tous les ingrédients sont réunis pour agir dès maintenant

Les collectivités et les citoyens sont confrontés à de véritables challenges environnementaux et climatiques, mais aussi sociaux avec une volonté́ forte d’améliorer la qualité́ de vie en ville.

Avoir un accès privilégié́ aux informations pertinentes, grâce à la data science et à l’IoT, est essentiel, mais la clé́ réside dans la compréhension et le traitement même de ces données. Comme en cuisine, de bons ingrédients - ici les données récoltées par l’IoT - sont une base essentielle, mais la magie opère grâce à l’expertise et aux outils des cuisiniers, leur permettant de définir le bon dosage et d’y ajouter une touche personnelle afin de créer des plats utiles, nutritifs et durables. Nous disposons aujourd’hui de tous les ingrédients et de l’expertise nécessaire. En se concentrant sur les données et en imaginant, avec les partenaires adaptés, des “recettes” adaptées aux besoins sociétaux et aux enjeux environnementaux, les collectivités s’assurent un avenir plus durable.

Intelligence artificielle : la transparence, condition fondamentale d’un modèle européen éthique

IA

Des créateurs et des entreprises innovantes signent ce vendredi 17 novembre une tribune pour réclamer une transparence sur les données d’entraînement et sur les contenus générés par les intelligences artificielles génératives.

Voici leur tribune :

Alors que l’Union européenne se détermine dans les jours à venir sur les grands principes de l’intelligence artificielle, nous réaffirmons l’absolue nécessité de placer l’éthique au cœur de l’action des pouvoirs publics dans l’encadrement de ces nouvelles technologies. Notre avenir en dépend. A ce titre et s’agissant en particulier des modèles d’intelligences artificielles génératives, seul le principe intangible d’une transparence sur les données d’entraînement et sur les contenus générés pourra apporter des garanties aux citoyens et aux créateurs sur le respect de leurs droits.

Nous soutenons pleinement l’émergence de champions européens vertueux qui seront demain des acteurs de notre souveraineté et des partenaires de notre rayonnement. L’innovation et la création ont besoin l’une de l’autre pour grandir au bénéfice de tous. La transparence est un prérequis, pas un frein. Elle est même une condition du développement serein des jeunes pousses françaises et européennes qui pourraient sinon être confrontées à la multiplication de contentieux juridiques. Cette transparence fait partie de l’ADN des développeurs : l’argument selon lequel ce serait un obstacle technique ou un fardeau disproportionné n’est pas crédible.

Dans ce contexte, la position de la France, dont la presse se fait le relais et qui s’opposerait à toute réglementation des modèles d’IA entraînés sur de vastes volumes de données (dits de fondation), nous étonne tant elle est contraire aux propos du président de la République à Villers-Cotterêts rappelant que « nous avons raison de défendre le droit d’auteur dans l’intelligence artificielle ». Il n’y aura pas d’IA générative qualitative sans industries créatives fortes ! Garantir la transparence, c’est non seulement protéger nos industries qui représentent une économie de la création durablement pourvoyeuse d’emplois et une part importante du PIB de notre pays ; mais c’est aussi assurer la fiabilité des contenus qui façonnent le développement des IA génératives pour éviter les comportements manipulatoires menaçant nos libertés fondamentales et nos principes démocratiques.  

La position de la France nous oblige donc à réagir. D’abord parce que, même sans une réglementation spécifique des modèles de fondation, on ne peut pas sacrifier une obligation de transparence sans laquelle rien de solide ne peut être construit. Ensuite parce qu’on ne saurait imaginer une seule seconde que la France renonce à préserver les acquis communautaires auxquels elle a elle-même œuvré, en matière de soutien à l’innovation, de respect du droit d’auteur et des données personnelles ou de lutte contre les fausses informations.

Dans la dernière ligne droite des débats à Bruxelles, nous demandons au Gouvernement de retrouver une position claire, équilibrée et ambitieuse, garante des intérêts partagés des Européens, des créateurs et des entreprises innovantes.

tribune


Black Friday : dix conseils pour un achat en ligne sécurisé

blackFriday

Par Candid Wüest, Vice-Président de la recherche sur la cyberprotection chez Acronis


Bien que très pratiques, les achats en ligne peuvent présenter des risques. Si vous n'êtes pas prudent, vous risquez de vous faire escroquer ou de vous faire voler vos informations personnelles. Alors quels sont les risques liés aux achats en ligne et comment s’en protéger ? Acronis, spécialiste de la cyberprotection fait le point sur le choix d'un détaillant de confiance, l'utilisation d'un mode de paiement sécurisé et la protection de vos informations personnelles. Et partage également des conseils sur la manière de repérer et d'éviter les escroqueries en ligne.

À mesure que la technologie progresse, les risques d'escroqueries et de cybercriminalité augmentent également. À l'approche des fêtes de fin d'année, il est essentiel de se protéger contre les menaces potentielles en ligne. L'année dernière, le FBI a estimé à 10,3 milliards de dollars le montant des pertes dues à la fraude numérique.

Les 10 conseils simples et essentiels pour acheter en ligne en toute sécurité

Lorsque vous naviguez dans les offres du Black Friday (24 novembre 2023) ou du Cyber Monday (27 novembre 2023), vous devez rester vigilant et donner la priorité à votre sécurité en ligne. Voici quelques conseils indispensables à garder à l'esprit :

  1. Vérifiez deux fois l'URL du vendeur et ne visitez que des sites Web sécurisés et fiables. Les sites Web sécurisés affichent un cadenas avant l'URL dans votre navigateur, car le chiffrement SSL (Secure Sockets Layer) est installé. Chaque fois que c'est le cas, le début de l'adresse du site Web commence par HTTPS.
  2. Uutilisez des mots de passe forts et une authentification à deux facteurs.
  3. Protégez vos informations personnelles en utilisant la protection de l'identité*. Les escrocs sont là pour voler tout ce qu'ils peuvent, alors gardez vos informations personnelles en sécurité.
  4. Evitez les courriels malveillants qui prétendent faussement provenir de détaillants populaires tels qu'Amazon, Walmart ou Costco. Vérifiez leur authenticité avant de cliquer sur n'importe quel lien. La période des fêtes de fin d'année est marquée par une recrudescence des escroqueries.
  5. Faites preuve de prudence avec les e-mails inattendus provenant de vieux amis qui contiennent des liens et des pièces jointes, car ils peuvent déboucher sur tout autre chose.
  6. Assurez-vous de disposer d'une protection active et actualisée pour tenir les cybercriminels à l'écart et protéger vos données, vos photos et votre bureau à domicile.
  7. Utilisez des services de paiement en ligne sécurisés comme PayPal, Stripe ou des cartes de crédit qui offrent une protection supplémentaire.
  8. Evitez d'utiliser les réseaux Wi-Fi publics pour prévenir l'accès non autorisé à vos informations sensibles. Assurez-vous de disposer d'une connexion Wi-Fi fiable, privée et protégée.
  9. Vérifiez les conditions d'expédition de l'entreprise spécifique. Certains commerçants facturent des frais de livraison exorbitants, transformant une bonne affaire en une erreur coûteuse. Vérifiez s'ils fournissent un suivi et une assurance. Soyez attentifs aux fournisseurs et soyez prudent si l'article n’est pas expédié dans les deux semaines.
  10. Ne donnez jamais plus d'informations que nécessaire. Ne remplissez que les informations requises. Si un deuxième e-mail est facultatif, ignorez ce champ. Plus vous donnez d'informations, plus vous êtes exposé à un potentiel cybercriminel.

Certes, la plupart des boutiques en ligne s'efforcent de protéger les données de leurs clients, mais les cybercriminels cherchent à les voler. Par conséquent, les acheteurs en ligne doivent être vigilants pour protéger leurs données. Gardez un œil sur les offres frauduleuses, car certaines peuvent sembler trop belles pour être vraies en cette période de shopping et les pages web sont une excellente première étape, car elles sont conçues par les cybercriminels pour ressembler à de véritables offres, ce qui les rend extrêmement difficiles à reconnaître. Alors, assurez-vous d'obtenir une protection complète sur tous vos appareils en ligne pour avoir l'esprit tranquille pendant cette période de shopping.

L’intelligence artificielle va-t-elle tuer ou sauver les médias ?

 

Les journalistes seront-ils tentés de donner la parole aux intelligences artificielles. Shutterstock
Par Laurence Devillers, Sorbonne Université

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias.

Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.

Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d'éthique des IA génératives, que j'ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Des outils puissants au service des journalistes

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

L’apprentissage des IA génératives

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c'est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l'adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Un apprentissage qui oublie les sources

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n'être constituées que d'un seul et d'un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

« Hallucinations » et autres risques

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

  • Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

  • Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

  • Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

  • Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

  • Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

  • Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

  • Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

  • Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

Laboratoire de l’IA sur les émergences et limites des IA génératives

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.


Cette contribution à The Conversation France prolonge une intervention de l’auteur aux Jéco 2023 qui se sont tenues à Lyon du 14 au 16 novembre 2023.The Conversation

Laurence Devillers, Professeur en Intelligence Artificielle, Sorbonne Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.