Accéder au contenu principal

Léna Situations, Squeezie, Hugo Décrypte : comment ces créateurs de contenu bousculent l’information traditionnelle

  Par  Anne Cordier , Université de Lorraine Ils et elles s’appellent Squeezie , Mcfly et Carlito , Léna Situations ou encore Mister Geopolitix . Ils cherchent à créer des contenus attractifs pour les communautés qui les suivent et leurs sujets sont variés, du développement personnel à l’actualité. On les appelle des « créateurs de contenu ». Une qualification qui vise à distinguer des « influenceurs » qui, sur les réseaux sociaux cherchent à influencer les habitudes de consommation des individus en accord avec des marques dont ils se font le relais. La distinction est de taille, car elle incite à analyser avec finesse la diversité du paysage auquel sont confrontés les publics en ligne. Elle est aussi de taille car l’amalgame trop souvent effectué entre ces deux types de figures nuit à la compréhension des représentations et des pratiques informationnelles des jeunes, et donc à une prise en charge éducative tout à fait pertinente. De fait, en éducation, la focale adop

Un an après ChatGPT, l’IA générative à l’assaut des smartphones

 

ChatGPT

Par Yannick Chatelain, Grenoble École de Management (GEM)

Un an après l’ouverture au public de ChatGPT, l’intégration des IA génératives aux smartphones marque un nouveau tournant technologique.

Les « smartphones génératifs » ont fait leur début avec Google en octobre 2023 avec la sortie du Pixel 8 et du Pixel 8 Pro. Samsung a annoncé début novembre l’intégration de l’IA générative dans sa nouvelle gamme (Galaxy S24, Galaxy S24+, Galaxy S24 Ultra) : ils devraient être présentés par la firme le 17 janvier 2024, et être dotés de Gauss, un modèle d’IA générative de type chatbot développé par Samsung Research, et de Galaxy AI, une autre solution d’IA.

Cette intégration promet des améliorations majeures en fonctionnalités et performances, redéfinissant l’interaction quotidienne des utilisateurs avec leurs appareils. Mais en promettant de générer une foison de faux contenus, elle pose également des défis éthiques, juridiques et techniques, du chaos informationnel à la sécurisation des « vraies données ».

L’IA générative, des enjeux économiques et géopolitiques

L’IA générative englobe des modèles capables de créer de façon autonome divers contenus tels que texte, images, code, et contenu multimédia. Ces modèles apprennent à partir de vastes ensembles de données, produisant des résultats originaux indiscernables de créations humaines.

Son potentiel de transformation sociétale est incontestable, avec une utilisation croissante dans des contextes professionnels, qui confrontent les individus à l’IA générative. Cela est lié en tout premier lieu au fait de son intégration par les entreprises pour améliorer leurs performances, par exemple dans l’amélioration de la relation client ; mais aussi parce que sa maîtrise devient indispensable à l’exercice de nombreux métiers, notamment dans le paysage créatif : agences de publicité, services marketing, les entreprises numérique… et qu’elle en crée, à l’instar du nouveau métier de « prompt engineer », dont le rôle consiste à optimiser les requêtes faites au système d’intelligence artificielle afin d’obtenir une réponse la plus pertinente possible.

La démocratisation de l’IA générative, avec l’accessibilité de ChatGPT au grand public en novembre 2022, a conduit à une adoption massive, avec 100 millions d’utilisateurs deux mois après le lancement. Cela a suscité une attention considérable des médias et des universitaires, faisant de ChatGPT un « cas d’école » pour de nombreuses études sur ses impacts sociétaux, opportunités, défis et implications pour la recherche.

De façon plus large, des études ont été menées sur le potentiel économique de l’IA générative. Une étude de Mc Kinsey Digital insiste sur le levier de croissance que celle-ci représente pour les entreprises. Le marché de l’IA générative devrait atteindre en 2023 un chiffre d’affaires mondial de 42 milliards d’euros ; les analystes prévoyant une croissance moyenne de la taille du marché de l’ordre de 24 % par an (ce qui porterait un chiffre d’affaires annuel de plus de 200 milliards d’euros à l’horizon 2030).

L’IA générative est soutenue par de grandes entreprises telles que Microsoft, Google et Baidu, qui poursuivent aujourd’hui leur course au leadership. Pour exemple, S. Nadella, CEO de Microsoft, annonçait le 23 janvier 2023 prévoir d’investir plusieurs milliards de dollars sur les prochaines années dans OpenAI – qui a lancé ChatGPT (10 milliards selon Bloomberg).

Investissements privés dans l’IA, par pays. Statista, CC BY-ND

Même si certains pays se montrent prudents, voire alarmistes, ces technologies sont aussi vues comme un enjeu géopolitique par de nombreux pays.

Dans ce contexte, les acteurs de l’IA, les dirigeants du monde des affaires, les gouvernements, tout comme la société civile ont des défis tout aussi vertigineux à relever, des défis éthiques (mésusages), des défis de sécurisation de données…

L’IA générative dans les smartphones Google et Samsung offre des applications puissantes, mais pose des risques et défis liés à la manipulation de contenus et à la sécurité des données par des utilisateurs nouvellement habilités par leur smartphone.

Le chaos informationnel, premier risque majeur avec les utilisateurs d’un nouveau type

En permettant de manipuler les contenus à l’envi, l’intégration de systèmes d’IA générative aux smartphones risque de provoquer la prolifération de deepfakes et d’accentuer la diffusion de ces contenus faux mais crédibles. Ceci pourrait compromettre davantage la crédibilité des informations en ligne et entraîner un chaos informationnel généralisé.

Sans compter un risque qui peut s’avérer mortel : l’explosion potentielle du cyberharcèlement, notamment via le « deepfake porn », une pratique violente qui a émergé en 2017 et qui va se trouver « facilitée » avec l’arrivée de l’IA générative dans les smartphones.

La sécurisation des données d’apprentissage

Les modèles génératifs peuvent créer des données : des images par exemple, qui ressemblent de manière frappante à des données réelles. Cela peut donc être utilisé de manière malveillante pour créer des contrefaçons, des faux, des contenus trompeurs que ces derniers soient textuels et servent par exemple des arnaques comme le phishing, ou visuels : montages photos, montages vidéo (DeepFake).

Par ailleurs, des données erronées peuvent être fabriquées par un modèle génératif malveillant. Celles-ci pourraient être utilisées dans les corpus d’apprentissage des futurs grands modèles de langage (large language models ou LLM, dont ChatGPT est l’exemple le plus connu) ou d’autres modèles d’intelligence artificielle.

En effet, certains modèles génératifs peuvent se révéler vulnérables à des « attaques par exemples contradictoires » (adversarial attacks, dont l’exemple classique pour un modèle de machine learning est d’introduire de fausses données dans la base de données d’apprentissage, provoquant un véhicule à voir une limitation de vitesse à la place d’un panneau-stop).

L’évolution de ce type d’adversarial attack cible désormais les IA génératives, par exemple avec le data poisoning.

Qui sera responsable en cas d’utilisation inappropriée des générations issues de ces modèles ?

L’avenir des avancées de l’IA générative dépend de la capacité globale de la société (gouvernements, citoyens, entreprises, ONG, etc.) à naviguer avec responsabilité dans ces territoires inexplorés.

L’utilisation irresponsable des « smartphones génératifs » pose des questions éthiques et juridiques sur la responsabilité des créateurs de modèles et des entreprises qui les rendent accessibles au grand public.

Certes, des outils existent tels que Deepware Scanner ou Microsoft Video Authenticator pour analyser des vidéos et tenter de détecter des signes de manipulation. Si les plates-formes peuvent intégrer des outils de détection directement dans leurs systèmes de modération, cette détection est encore loin d’être fiable.

Distinguer les deepfakes acceptables, c’est-à-dire respectueux du droit du pays d’appartenance de l’utilisateur, sans recourir à la censure semble un défi insurmontable, voire impossible. Dans un contexte concurrentiel, la prudence de Timothy Cook, DG d’Apple, qui entend entrer dans le jeu quand les questions éthiques seront mieux défrichées, est louable. L’histoire dira si éthique et responsabilité sont des facteurs clés de succès dans notre époque tumultueuse.The Conversation

Yannick Chatelain, Professeur Associé. Digital I IT. GEMinsights Content Manager, Grenoble École de Management (GEM)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté

Comment les machines succombent à la chaleur, des voitures aux ordinateurs

  La chaleur extrême peut affecter le fonctionnement des machines, et le fait que de nombreuses machines dégagent de la chaleur n’arrange pas les choses. Afif Ramdhasuma/Unsplash , CC BY-SA Par  Srinivas Garimella , Georgia Institute of Technology et Matthew T. Hughes , Massachusetts Institute of Technology (MIT) Les humains ne sont pas les seuls à devoir rester au frais, en cette fin d’été marquée par les records de chaleur . De nombreuses machines, allant des téléphones portables aux voitures et avions, en passant par les serveurs et ordinateurs des data center , perdent ainsi en efficacité et se dégradent plus rapidement en cas de chaleur extrême . Les machines génèrent de plus leur propre chaleur, ce qui augmente encore la température ambiante autour d’elles. Nous sommes chercheurs en ingénierie et nous étudions comment les dispositifs mécaniques, électriques et électroniques sont affectés par la chaleur, et s’il est possible de r

De quoi l’inclusion numérique est-elle le nom ?

Les professionnels de l'inclusion numérique ont pour leitmotiv la transmission de savoirs, de savoir-faire et de compétences en lien avec la culture numérique. Pexels , CC BY-NC Par  Matthieu Demory , Aix-Marseille Université (AMU) Dans le cadre du Conseil National de la Refondation , le gouvernement français a proposé au printemps 2023 une feuille de route pour l’inclusion numérique intitulée « France Numérique Ensemble » . Ce programme, structuré autour de 15 engagements se veut opérationnel jusqu’en 2027. Il conduit les acteurs de terrain de l’inclusion numérique, notamment les Hubs territoriaux pour un numérique inclusif (les structures intermédiaires ayant pour objectif la mise en relation de l’État avec les structures locales), à se rapprocher des préfectures, des conseils départementaux et régionaux, afin de mettre en place des feuilles de route territoriales. Ces documents permettront d’organiser une gouvernance locale et dé

Ce que les enfants comprennent du monde numérique

  Par  Cédric Fluckiger , Université de Lille et Isabelle Vandevelde , Université de Lille Depuis la rentrée 2016 , il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ? Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran. Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus in

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl

Des conseils d'administration inquiets et mal préparés face à la menace cyber

Alors que les Assises de la Sécurité ouvrent leurs portes ce mercredi 11 octobre, pour trois jours de réflexion sur l’état de la cybersécurité en France, la société de cybersécurité Proofpoint f ait le point sur le niveau de préparation des organisations face à l’avancée de la menace.  Cette année encore, les résultats montrent que la menace cyber reste omniprésente en France et de plus en plus sophistiquée. Si les organisations en ont bien conscience,  augmentant leur budget et leurs compétences en interne pour y faire face, la grande majorité d’entre elles ne se sont pour autant, pas suffisamment préparées pour l’affronter réellement, estime Proofpoint. En France, 80 % des membres de conseils d’administration interrogés estiment que leur organisation court un risque de cyberattaque d’envergure, contre 78 % en 2022 – 36 % d’entre eux jugent même ce risque très probable. Et si 92 % d’entre eux pensent que leur budget lié à la cybersécurité augmentera au cours des 12 prochains mois, ces