Technomedia

Numérique · médias · sciences · intelligence artificielle

Retour de l'Homme sur la Lune : l'indispensable Lunar Gateway, future station en orbite

 

lunargateway

Établir une base sur la Lune qui pourrait accueillir une colonie humaine ne pourra pas se faire sans une station spatiale lunaire. Cette mini-station appelée LOP-G (Lunar Orbital Platform-Gateway) ou simplement Lunar Gateway (portail lunaire) sera en orbite autour de la Lune et sera un support indispensable au programme Artemis de la NASA qui vise à ramener l’homme sur la Lune.

« La station Gateway, associée ensuite à des installations ou une base lunaire, constituerait des laboratoires grandeur nature pour tester les futurs équipements d’exploration mais aussi les conditions d’adaptation des astronautes à vivre loin de la Terre » explique Jean Blouvac, responsable du programme Exploration et Vol habité au CNES.

Participation européenne

La construction de cette station spatiale, a déjà commencé. Dans une premier temps, il s'agit de construire un module PPE (de propulsion/énergie) et un module d’habitation (HALO, Habitation And Logistics Outpost). En coordination avec l'américain Northrop Grumman, maître d'oeuvre pour la NASA, c'est Thales Alenia Space qui a lancé la construction de HALO.

S’ajoutera un système d’alunissage composé d’un véhicule de transfert pour descendre jusqu’à une altitude de 80-100 km au-dessus de la Lune, d’un module d’alunissage qui restera sur la Lune et d’un module de remontée qui assurera le retour des astronautes dans Gateway.

Après cette première phase, un module d’habitation plus grand appelé I-HAB (International-Habitation module), succédera à HALO. I-HAB sera construit par Thales Alenia Space et sera lancé en 2026.

Dautres modules vont s'ajouter à la station comme le Gateway Logistics Module pour des expériences et la logistique (avec un bras articulé), le Gateway Airlock Module pour les sorties extra-véhiculaires des astronautes, un cargo spatial, ou encore le module européen ESPRIT (European System Providing Refueling, Infrastructure and Telecommunications) en 2027.

"HALO sera l’une des deux premières composantes, avec l’élément d’alimentation et de propulsion PPE, à former l’embryon de Gateway, dont le lancement est prévu en 2024 dans le cadre de la mission Artemis de la NASA", précise Thales Alenia Space, qui a été choisie par l'Agence spatiale européenne pour fournir les deux modules I-HAB et ESPRIT qui représentent la contribution européenne au projet.

Elle ne remplacera pas l'ISS

"À la différence de l’ISS qu’elle ne vise pas à remplacer, la station Gateway ne sera pas occupée en permanence. Elle ne sera visitée (dans un premier temps) qu’une fois par an par un équipage de deux astronautes puis de quatre astronautes, pour des périodes d’un à trois mois environ », indique le CNES.

Première station spatiale habitée en orbite autour d’un autre astre que la Terre, la Lunar Gateway aura une orbite très particulière autour de la Lune. Celle-ci ne sera pas circulaire autour mais en halo. Elle survolera la Lune entre 1 500 km et 7 000 km au plus près et s’en éloignera jusqu’à 70 000 km, avec une périodicité d’une à deux semaines. Les astronautes vivront aussi des expériences que n’ont pas connues ceux de l’ISS comme le décalage d’une seconde dans les communications avec la Terre ou la durée du voyage Terre-station.

À l’école, apprendre à évaluer l’information dans un monde numérique

 

enfant

Par Mônica Macedo-Rouet, CY Cergy Paris Université

Sujet relativement marginal il y a une vingtaine d’années, l’évaluation de l’information sur Internet est aujourd’hui un enjeu majeur pour notre société. Le nombre très important de messages frauduleux, douteux ou biaisés publiés tous les jours sur les réseaux sociaux et sur le web en général rend tout un chacun vulnérable à la désinformation. On l’a vu avec des sujets d’actualité comme la vaccination contre le Covid-19, les élections présidentielles au Brésil, ou encore la guerre en Ukraine.

Si l’évaluation est plus que jamais essentielle à tous les citoyens, et ce dès le plus jeune âge, elle est aussi une compétence complexe. Elle requiert des connaissances sur les règles de publication sur Internet et les critères de fiabilité de l’information, mais aussi une motivation et des habilités métacognitives, c’est-à-dire la capacité à réfléchir sur ses actions et à les réguler. Ces compétences posent de nombreux défis aux internautes et interrogent le rôle de l’école.

Aller au-delà des indices superficiels

Prenons le cas d’un élève de CM2 qui a pour consigne de trouver des informations sur les causes du réchauffement climatique sur Internet pour une présentation en classe. Après avoir saisi des mots-clés dans un moteur de recherche, il trouve plusieurs articles en apparence intéressants. L’un d’entre eux s’intitule « Les zones climatiques : causes et conséquences ». Des recherches auxquelles j’ai pu contribuer montrent que le fait de trouver des mots-clés de la requête dans le titre de l’article augmente beaucoup les chances que l’élève considère l’article comme pertinent pour sa recherche, alors même que celui-ci ne traite pas de son sujet…

Jusqu’à un certain âge et niveau scolaire, les élèves se laissent influencer très facilement par des indices superficiels, tels que la présence de mots-clés, la taille et le type de police de caractères utilisés dans les pages de résultats de recherche. Vers la fin du collège, ces effets s’atténuent considérablement, mais d’autres défis de l’évaluation prennent le pas, tels que le fait de ne pas savoir ce qu’il faut évaluer exactement quand on demande de juger la fiabilité d’une page web pour une recherche.

Ainsi, dans une étude menée auprès d’élèves de troisième en France et en Allemagne, publiée dans la revue Computers & Education, mes collègues et moi-même avons montré que la quasi-totalité des participants ne prête pas attention à la source des informations lorsqu’on leur demande de répondre à une question telle que « L’aspartame est-il mauvais pour la santé ? » à partir de quatre pages web sur le thème. Ils se centrent sur le contenu des articles, alors même que certains sites ont un conflit d’intérêts notoire vis-à-vis du sujet (par exemple, un fabricant de sodas qui contiennent de l’aspartame).

Interrogés sur les raisons pour lesquelles ils ne prêtent pas attention à la source de l’information, les élèves évoquent le manque de consignes explicites de la part de l’enseignant, le type de tâche et leur motivation personnelle à trouver des informations fiables sur le sujet.

Pour autant, ils ne sont pas insensibles ni incapables de percevoir les enjeux liés à la source pour l’évaluation de la fiabilité de l’information. Lorsqu’on leur pose la question directement, ils perçoivent rapidement le conflit d’intérêts derrière certaines sources. Le problème est que la recherche d’informations et la consultation quotidienne des réseaux sociaux ne se font pas avec un adulte à côte pour poser ce genre de questions…

Faut-il appliquer la méthode des « check lists » ?

Que peut faire l’école pour aider les élèves à développer des compétences d’évaluation de l’information sur Internet ? La réponse à cette question est moins évidente qu’elle n’y paraît. Il existe en effet une multitude de méthodes, contenus et approches pédagogiques aujourd’hui disponibles sur Internet et dans les écoles. Cependant, la plupart de ces approches manquent de preuves empiriques de leur efficacité.

Pour donner un exemple, une approche couramment utilisée se base sur l’application de « check lists » à l’analyse des sites web trouvés par les élèves dans le cadre de leurs recherches. On demande ainsi aux élèves de vérifier, pour chaque site, si les informations sont « à jour », le texte « lisible » et la source « fiable », entre autres critères d’évaluation. Les revues de la littérature scientifique par Ziv et Benne, en 2022, et Sarah McGrew, en 2020, montrent que cette approche est prépondérante, voire exclusive, dans un grand nombre d’universités et d’écoles. Or, elle est inefficace pour l’apprentissage de l’évaluation de l’information car la plupart des critères demandent des connaissances relativement expertes et/ou ne sont pas suffisamment objectifs pour permettre un jugement indépendant de l’avis de l’élève ou étudiant.

Une formation à l’évaluation de l’information efficace demande de bases théoriques solides sur les processus sociocognitifs de lecture et compréhension de « documents » (textes, images, vidéos…), ainsi que des preuves empiriques obtenues à travers des études scientifiques rigoureuses et impliquant une collaboration étroite entre chercheurs et praticiens. Ces recherches existent depuis quelques années, mais elles ne sont pas encore assez nombreuses pour couvrir tous les domaines et problématiques pédagogiques liées à l’évaluation de l’information.

Dans mon livre Savoir chercher. Pour une éducation à l’évaluation de l’information, je passe en revue les théories et études scientifiques réalisées à l’échelle internationale, dans les années récentes, sur ce sujet. Ce n’est pas une revue exhaustive, mais elle couvre un grand nombre d’études et de synthèses d’études montrant que les défis de l’éducation à l’évaluation de l’information peuvent être surmontés à certaines conditions (par exemple, proposer des exercices structurés d’évaluation de l’information, créer des liens entre l’évaluation et d’autres activités scolaires tels que la lecture et la résolution de problèmes).

Il n’existe pas de recette miracle, mais un nombre croissant d’études pointe vers la nécessité d’un enseignement explicite de cette compétence à l’école, c’est-à-dire, un enseignement qui combine des phases de réactivation des connaissances préalables, de modelage, de pratique guidée et autonome des élèves. Par exemple, l’enseignant peut partir de l’expérience des élèves sur des informations fausses ou erronées diffusées sur Internet, pour leur expliquer la notion de source d’information et montrer pas à pas les étapes d’évaluation de la source. Ensuite, les élèves s’exercent sur des exercices partiellement résolus par/avec l’enseignant pour aller progressivement vers des exercices en autonomie.

Imaginer de nouvelles formes d’apprentissage

Les recherches pointent vers la nécessité d’imaginer de nouvelles formes de collaboration entre les enseignants de différentes disciplines, par exemple en identifiant un corpus de textes dans différentes disciplines qui peuvent se prêter à un travail d’évaluation des informations. Ceci afin de montrer l’importance de l’évaluation dans tous les domaines de connaissances, et en même temps sa complexité car les critères d’évaluation ne sont pas absolus, ils demandent une adaptation au contexte.

Les liens entre les processus cognitifs fondamentaux, tels que la compréhension de textes, et l’évaluation de l’information, que l’on peut considérer comme un processus de lecture finalisée ou « fonctionnelle », pour utiliser les termes de l’enquête PISA de l’OCDE et de l’Observatoire national de la lecture, mission ministérielle d’expertise menée au début des années 2000, sont à creuser et à développer dans les recherches actuelles.

L’évaluation est une compétence que l’on souhaite voir s’appliquer non seulement aux tâches scolaires, mais aussi à toutes les tâches de la vie courante qui demandent une vigilance particulière quant à la qualité et à la crédibilité de l’information. Pour cette raison, impliquer les élèves dans la formation de leurs pairs, par exemple en les incitant à animer des ateliers (pour lesquels ils devraient être préparés) sur l’évaluation des l’information dans les réseaux sociaux, est sans doute une piste prometteuse pour identifier des situations intéressantes et pertinentes pour les jeunes, et promouvoir l’engagement de tous dans cette activité, l’évaluation, aujourd’hui essentielle.The Conversation

Mônica Macedo-Rouet, Professeure des universités en psychologie cognitive, CY Cergy Paris Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Présenter l’IA comme une évidence, c’est empêcher de réfléchir le numérique

 

Une des 7 stratégies discursives caractéristiques de l'impensé est le fait de «jouer à se faire peur» (extrait de la bande dessinée de science-fiction MediaEntity de Simon & Émilie). MediaEntity, Simon & Emilie, CC BY-NC-SA
Par Julien Falgas, Université de Lorraine et Pascal Robert, Université de Lyon

Au printemps dernier, des personnalités aussi diverses que Elon Musk, Yuval Noah Harari ou Steve Wozniak s’associaient à plus de 1 000 « experts » pour mettre en garde face aux « risques majeurs pour la société et l’humanité » que représente l’intelligence artificielle et demander une pause de six mois dans d’entraînement des modèles plus puissants que GPT-4. Du Monde au Figaro, en passant par FranceInfo ou Libération, les médias ont volontiers relayé les termes de ce courrier qui appelle à une pause pour mieux affirmer le caractère inéluctable et la toute-puissance des systèmes d’IA à venir.

Ce qui frappe dans la réception médiatique immédiate de ce courrier, c’est la myopie face à un processus théorisé depuis maintenant bientôt 30 ans : « l’impensé numérique » (ou informatique, avant lui). Ce concept d’« impensé » désigne les stratégies discursives par lesquelles la technologie est présentée comme une évidence, souvent sous l’influence des acteurs dont elle sert les intérêts économiques ou politiques.

La lettre ouverte de l’institut Future of Life en est un cas d’école : selon elle, l’intelligence artificielle est un outil puissant, il est déjà là, et il est appelé à être encore plus présent et plus puissant à l’avenir pour le plus grand bien de l’humanité.

Comment repérer l’impensé numérique ?

Sept marqueurs discursifs devraient vous mettre la puce à l’oreille. Pour illustrer cette « boîte à outils », la lettre ouverte d’Elon Musk et consorts, qui prétend pourtant appeler à faire une pause, présente avantageusement tous les marqueurs discursifs de l’impensé, quoique l’on puisse également l’appliquer au très sérieux rapport Villani qui plaidait en 2018 pour une stratégie nationale et européenne en matière d’IA :

Dans ce type de discours, l’objet technique se présente comme neutre : il revient à l’humanité de s’en servir à bon escient, sa seule existence lui sert de justification.

Pourtant, si l’on nous dit que l’IA représente des « risques majeurs pour l’humanité », n’est-ce pas la preuve que nous sommes devant une technique qui n’est pas neutre justement ?

Voilà sans doute le mécanisme le plus retors de l’impensé : diaboliser l’objet technique contribue à la fois à affirmer sa puissance et son potentiel lorsqu’il est utilisé à bon escient, et à alimenter le pseudodébat sans lequel l’intérêt médiatique retomberait. L’informatique, le numérique, l’IA sont déjà là, nul besoin de produire un travail historique sérieux à leur sujet, le storytelling des réussites entrepreneuriales suffit.

L’impensé forme un cercle vicieux avec le glissement de la prérogative politique…

L’impensé est indissociable de deux autres processus avec lesquels il forme un véritable cercle vicieux : le glissement de la prérogative politique et la gestionnarisation.

À la faveur de l’impensé numérique, des outils détenus par des acteurs privés sans légitimité électorale ou régalienne déterminent jusqu’à l’accès du public à l’information. Un exemple en est la plate-forme X (anciennement Twitter), qui est scrutée par les journalistes parce qu’elle est alimentée par les personnalités publiques et politiques, ainsi que par les institutions publiques. Lorsqu’une plate-forme privée porte une parole politique, nous sommes dans ce que l’on appelle le « glissement de la prérogative politique ».

En effet, lorsque des acteurs privés déploient des technologies de manière systématique, depuis les infrastructures (câbles, fermes de serveurs, etc.) jusqu’aux logiciels et applications, cela revient à leur déléguer des prises de décisions de nature politique. Ainsi, face à un moteur de recherche qui domine notre accès à l’information et occupe une place qui relèverait d’un véritable service public, nous sommes en plein dans un glissement de la prérogative politique.

On observe le même phénomène lorsque le gouvernement français préfère recourir aux cabinets de conseil plutôt qu’à l’expertise universitaire. Des cabinets, dont les recommandations privilégient volontiers le recours systématique aux technologies numériques et font le lit de la gestionnarisation.

… et avec la gestionnarisation

Aujourd’hui, les outils numériques ne nous permettent pas seulement de gérer diverses activités (banque, rendez-vous médicaux…), ils sont aussi et surtout devenus incontournables pour effectuer ces tâches. Nous n’avons pas d’autre choix que de nous fondre dans les catégories que ces outils nous imposent. Il n’est pas toujours facile de prendre rendez-vous avec un ou une secrétaire médical, par exemple, ou de faire sa déclaration d’impôts sur papier. C’est ce que l’on appelle la « gestionnarisation ».

Cette gestionnarisation témoigne aussi d’un glissement. Par exemple, l’outil d’accès à l’enseignement supérieur Parcoursup s’impose désormais aux lycéens et à leurs familles. Or cet outil porte une dimension politique aux conséquences critiquables, telles que l’exclusion de certaines catégories de bacheliers ou l’accentuation de la mise en concurrence des formations. Dans la gestion, l’outil est second par rapport à l’activité ; avec la gestionnarisation, l’outil devient premier : Parcoursup a pris le pas sur le besoin auquel il est censé répondre.

Dans notre quotidien, pour visiter une nouvelle région, choisir le menu de son dîner comme pour rencontrer l’âme sœur, chacun saisit docilement les informations attendues par les plates-formes de consommation numérique. Lorsque l’on mène une activité sportive en s’équipant d’un bracelet qui traite, mémorise et fait circuler un ensemble de données biométriques, celles-ci deviennent le modèle que l’on suit, plutôt que le ressenti de son corps, dans une sorte d’« auto-gestionnarisation ».

Dûment identifiés et profilés par nos outils, nous contribuons sans réserve aux profits économiques de firmes dont l’essentiel des revenus échappe à l’impôt… Et donc au pouvoir démocratique déjà ébranlé par le glissement de la prérogative politique.

Productivité du numérique et management numérique (Enjeux sociopolitiques du numérique, Dominique Boullier).

Critiquer… et agir

Le numérique n’est pas cet avenir tantôt infernal et tantôt radieux que nous promettent ses impenseurs : ce n’est qu’une catégorie pour désigner un ensemble d’objets techniques et de dispositifs sociotechniques qui doivent être interrogés et débattus au regard de leur action politique et sociétale.

Alors que l’impensé focalise notre attention sur l’IA, peut-être avons-nous davantage besoin outils nouveaux (dans lesquels il peut y avoir de l’IA) afin de mieux organiser l’expression (numérique) de notre intelligence face aux enjeux qui exigent des décisions collectives inédites. Climat, démocratie, environnement, santé, éducation, vivre-ensemble : les défis ne manquent pas.

Dans cette perspective, nous vous invitons à découvrir la nouvelle version du service de navigation web contributive Needle. Nourrie par le concept d’impensé, cette proposition radicalement différente d’accès et de partage de contenus numériques mise sur l’intelligence collective. Needle est une plate-forme de mise en relation qui matérialise l’espérance d’un environnement numérique riche du maillage et de l’exploration curieuse de toutes et tous, en lieu et place du réseau de lignes droites par l’entremise desquelles des intelligences artificielles devraient nous désigner quels documents consulter.

Cette technologie est désormais portée par une start-up, preuve qu’il est possible de concevoir des propositions concrètes qui tiennent compte de la nécessaire critique de la place accordée à la technique dans nos sociétés.The Conversation

Julien Falgas, Maître de conférences au Centre de recherche sur les médiations, Université de Lorraine et Pascal Robert, Professeur des universités, École nationale supérieure des sciences de l'information et des bibliothèques ; laboratoire elico, Université de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Ce que les enfants comprennent du monde numérique

 

ordinateur

Par Cédric Fluckiger, Université de Lille et Isabelle Vandevelde, Université de Lille

Depuis la rentrée 2016, il est prévu que l’école primaire et le collège assurent un enseignement de l’informatique. Cela peut sembler paradoxal : tous les enfants ne sont-ils pas déjà confrontés à des outils numériques, dans leurs loisirs, des jeux vidéos aux tablettes, et, dans une moindre mesure, dans leur vie d’élève, depuis le développement des tableaux numériques interactifs et espaces numériques de travail ?

Le paradoxe n’est en réalité qu’apparent. Si perdure l’image de « natifs numériques », nés dans un monde connecté et donc particulièrement à l’aise avec ces technologies, les chercheurs ont montré depuis longtemps que le simple usage d’outils informatisés n’entraîne pas nécessairement une compréhension de ce qui se passe derrière l’écran.

Cela est d’autant plus vrai que l’évolution des outils numériques, rendant leur utilisation intuitive, a conduit à masquer les processus informatiques sous-jacents. L’immense majorité des adultes comme des enfants utilise ordinateur, tablette ou smartphone sans jamais lire ou écrire une seule ligne de code, ni même avoir toujours bien conscience que derrière les textes, icônes à cliquer, applications à télécharger, posts à « liker » sur un réseau social, il y a des algorithmes informatiques.

Évaluer la culture numérique des enfants

Un rapport de l’académie des sciences intitulé : L’enseignement de l’informatique en France – Il est urgent de ne plus attendre pointait l’écart croissant entre l’importance de l’informatique dans nos vies quotidiennes et la compréhension qu’en ont les citoyens. Après plusieurs années sans réelle prise en charge de l’informatique par l’école, cette prise de conscience a conduit à sa réintroduction au sein des programmes d’enseignement.

Les élèves doivent ainsi apprendre des contenus concernant la technologie (savoir comment fonctionne un ordinateur, une mémoire, ce qui se passe lorsqu’un courriel est envoyé, etc.), les usages d’outils numériques (créer un compte sur un site, envoyer un courriel ou même, puisqu’on apprend bien l’écriture manuscrite, apprendre à utiliser un clavier d’ordinateur) ou encore quelques notions d’algorithmique (qu’est-ce qu’une boucle, une variable, etc.).

Le projet de recherche IE-CARE, qui s’est déroulé de 2018 à 2023, s’est attaché à décrire finement ces nouvelles conditions d’un enseignement de l’informatique. L’un des objectifs du projet était de mieux comprendre la culture numérique des enfants et de mieux saisir comment ce qui s’enseigne en classe vient nourrir, compléter ou éventuellement modifier cette culture numérique.

Notamment se pose la question de ce que les enfants comprennent du monde numérique qui les entoure, comme l’expose la thèse, soutenue en novembre 2023, autour de la culture numérique et de l’apprentissage scolaire de l’informatique. Les enfants reconnaissent-ils des objets numériques, savent-ils les nommer ou expliquer leur rôle ?

Une étude portant sur la culture numérique des enfants d’une classe de fin d’école primaire (CM1-CM2) du bassin minier du Pas-de-Calais a été réalisée. Elle s’appuie sur des observations en classe, des entretiens, un questionnaire et des focus-groups avec les élèves ainsi qu’un jeu de plateau inventé pour faire émerger leurs représentations. Cette description fine se distingue des grandes enquêtes quantitatives, qui, lorsqu’elles incluent les enfants et ne les amalgament pas avec les plus vieux, ne peuvent saisir que la possession d’outils numériques ou les usages déclarés. L’important était de voir en détail les modalités d’accès aux outils numériques : en quoi consiste le contrôle exercé par les parents, quels sont les lieux et durées d’usage…

Le numérique, enjeu de négociations en famille

Le premier constat qui ressort de cette enquête n’est guère surprenant : les enfants révèlent avoir accès à une diversité d’outils numériques, comme Julien qui énumère « une PS4, une switch, un ordinateur, une tablette, une ps3, une télé ». La quasi-totalité des enfants rencontrés mentionnent au moins une console de jeu parmi les appareils numériques dont ils disposent. La majorité des enfants (plus de neuf sur dix) de la classe ont accès (que ce soit via la mise à disposition de l’appareil au sein du domicile ou la possession à titre personnel) à la fois à un ordinateur, à un smartphone, et à une console de jeu.

Les enfants sont donc pluri-équipés, ce qui confirme les résultats de grandes enquêtes quantitatives : l’enquête nationale Junior Connect’ menée par l’Ipsos en 2022 montrait que le terminal le plus possédé à titre personnel par les enfants de 7-12 ans est la console de jeu, suivi du smartphone, de la tablette puis de l’ordinateur.

Cependant, il faut tenir compte du fait que les enfants mentionnent largement le partage de ces outils numériques avec d’autres membres de la famille. Ethan raconte ainsi « j’ai un téléphone personnel […] y a aussi le pc pour tout le monde ». Yassine a également un ordinateur « pour tout le monde ».

Maëlys aussi a accès un appareil personnel et à un appareil partagé. Elle précise « j’ai une Switch pour moi, la PS4 mais c’est pour tout le monde ». Ainsi, posséder un outil informatique est une chose, mais pouvoir l’utiliser est un enjeu de négociation au sein de la famille : négociation avec les parents, qui imposent des limitations de temps ou d’horaires, négociation avec les frères et sœurs lorsque plusieurs veulent les utiliser.

Les pratiques ludiques occupent une place importante dans le quotidien des enfants. Mais l’école conduit également à des usages à la maison : presque tous les groupes d’enfants mentionnent spontanément, lorsqu’on leur demande ce qu’ils font avec ces outils, le fait de faire des devoirs à la maison.

La technicité des objets numériques masquée par les écrans

Sur les outils numériques, les enfants développent des pratiques, des connaissances, des goûts, des valeurs partagées, bref, ce qu’on peut appeler une culture numérique enfantine. Mais dans quelle mesure cette culture est-elle, aussi, une culture scientifique et technique ?

Si l’on s’intéresse à ce que savent ou comprennent les enfants, on s’aperçoit que les connaissances portent surtout sur l’utilisation, en particulier des réseaux sociaux, très peu sur le fonctionnement des appareils. Il est frappant de constater que lorsque les enfants parlent des outils numériques, ils parlent des écrans. Cela n’est pas surprenant mais va dans le sens de l’idée que ce qui fait la technicité des objets numériques est masqué aux enfants, qui ne voient que ce qui est le plus visible. On peut dire que l’écran fait écran à la formidable complexité des objets numériques.

Quelques rares enfants développent un rapport plus « technique » aux ordinateurs. C’est le cas par exemple de Charles. Mais là encore, la conscience de la technicité s’arrête à ce qui est matériel et visible. Pour lui, réparer un ordinateur revient à s’intéresser à la connectique et aux différents composants de l’ordinateur :

« quand tu répares, par exemple il est cassé et tu dois changer les câbles qu’il y a dedans, voir s’ils sont détachés, coupés, tu dois racheter des câbles et après remettre tout. Après, c’est possible que le cerveau de l’ordinateur qui commande tous les fils soit cassé donc, du coup, tu dois aller en acheter un en magasin, l’enlever et le remettre ».

Ainsi, Charles a conscience de l’existence de composants électroniques sous-jacents aux ordinateurs, mais on peut remarquer que sa manière de les nommer reste imprécise, sans termes techniques (« le cerveau de l’ordinateur qui commande les fils »).

Surtout, le fait de voir quelques notions d’algorithmique à l’école, en faisant de la programmation de robots pédagogiques (qu’il s’agit de programmer à l’aide de touches pour effectuer un trajet) ou sur un environnement de programmation pour enfants (Scratch) ne suffit pas, pour ces élèves, à relier ce qu’ils ont appris et comment fonctionne le monde numérique autour d’eux.

Au final, nous pouvons dire que l’enseignement de l’informatique est nécessaire, car les enfants ne développent pas spontanément, dans leurs usages quotidiens, une culture technique permettant de bien comprendre ce qui se passe derrière l’écran.

Mais ces savoirs informatiques scolaires ne peuvent les aider à cette compréhension technique du monde que s’ils sont liés aux objets auxquels ils sont confrontés quotidiennement. Alors seulement les jeunes générations auront les moyens de porter un regard réflexif sur la manière dont les outils numériques transforment et continueront de transformer leur monde.


Le projet « IE-CARE : Informatique à l’école : conceptualisations, accompagnement, ressources » est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.The Conversation

Cédric Fluckiger, Professeur en sciences de l'éducation, didactique de l'informatique, Université de Lille et Isabelle Vandevelde, Doctorante en sciences de l'éducation, Université de Lille

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Projet de loi numérique : ce qu'il va changer pour le quotidien des Français

internet

Le projet de loi visant à sécuriser et réguler l’espace numérique, qui devrait être adopté en première lecture à l’Assemblée nationale, ce mardi à 17 heures, n’a sans doute pas eu le retentissement qu’il aurait mérité par rapport à d’autres textes, notamment les textes budgétaires. Car ce projet de loi de 36 articles balaye de vastes thématiques qui impacteront à terme directement la vie des Français.

Le premier chapitre s’attaque ainsi au vaste sujet de l’accès des mineurs à des contenus pornographique. On y trouve ainsi le renforcement des pouvoirs de l’Arcom, le gendarme des télécoms, en matière de protection en ligne des mineurs avec le contrôle de l’inaccessibilité des contenus pornographiques en ligne, qui sera renforcé avec l’établissement d’un référentiel obligatoire pour les systèmes de vérification d’âge.

Filtre « anti-arnaques »

Le second chapitre du projet de loi consacre des mesures de protection des citoyens dans l’espace numérique. Leur protection contre les vecteurs de propagande étrangère destinés à la désinformation et à l’ingérence, la pénalisation de l’hypertrucage (les deepfake) publié sans consentement, la peine complémentaire de suspension de l’accès à un service de plateforme en ligne, la création d’un délit général d’outrage en ligne, le déploiement d’un filtre national « anti-arnaques » grand public (pour éviter notamment le piratage par hameçonnage), etc.

Le troisième chapitre visant à renforcer la confiance et la concurrence dans l’économie de la donnée instaure un meilleur contrôle des pratiques commerciales du « cloud », l’interopérabilité et la portabilité des données entre services et un renforcement de la protection des données stratégiques et sensibles.

L’encadrement des jeux à objet numérique monétisable (Jonum), la centralisation des données à transmettre aux communes en matière de location de meublés de tourisme, le contrôle des opérations de traitement de données à caractère personnel effectuées par les juridictions, etc.

Autant de mesures qui adaptent notre droit aux nouvelles pratiques ou aux nouveaux règlements européens sur les services et marchés numériques ; autant de mesures qui ont donné lieu à d’intenses débats – parfois très techniques avec 953 amendements – sur la liberté d’expression, l’anonymat, la souveraineté dans le stockage de donnée, la sobriété numérique, etc.

Le texte, déjà adopté au Sénat le 7 juillet et que le ministre délégué au Numérique Jean-Noël Barrot juge « équilibré», sera ensuite soumis, après le vote d'aujourd'hui, à une commission mixte paritaire des deux Chambres.

Avec le métavers, la fusion du numérique et du physique transforme la supply chain

RenaultMetaverse


Tribune de Sandrine Saintot, Vice-Présidente Europe du Sud, Ventes, OpenText

Depuis près d'une décennie, le métavers est annoncé comme la prochaine évolution majeure pour presque tous les secteurs d'activité. Les initiatives destinées aux consommateurs, comme le projet Meta de Mark Zuckerberg, n'ont pas encore porté leurs fruits. Mais, des signes indiquent que la fusion du physique et du numérique est sur le point de transformer la façon dont les responsables de chaînes d’approvisionnement gèrent leurs réseaux.

Premières annonces des géants industriels

Le groupe Renault, à titre d'exemple, a annoncé il y a quelques mois son passage au métavers industriel (photo ci-dessus), dans quatre domaines cruciaux : la collecte massive de données, les jumeaux numériques des processus, la connexion de l'écosystème de la chaîne d'approvisionnement et un ensemble de technologies avancées telles que la visualisation en 3D.

Le groupe espère que, d'ici 2025, « le métavers générera des économies de 320 millions d'euros, dont plus 260 millions d'euros d'économies sur les stocks, une réduction de 60 % du délai de livraison des véhicules, une réduction de 50 % de l'empreinte carbone liée à la fabrication des véhicules et une contribution à la réduction de 60 % des coûts de garantie ». Ce sont là des chiffres impressionnants. Mais comme il s'agit d'un concept relativement nouveau dans la pratique, les preuves sont encore minces en termes d’avantages.

Les nombreuses entreprises qui dépendent du Web2 se concentrent sur leur passage au cloud et sur des bénéfices plus immédiats et délaissent encore le métavers. Mais pour garder une longueur d'avance et des avantages stratégiques, les entreprises vont devoir chercher des cas d'usage pour son déploiement au sein de leur activité.

Une période cruciale

Ces trois dernières années, les chaînes d'approvisionnement ont été perturbées de façon quasi constante et cette industrie n’aurait pas pu tenir si elle n’avait pas fait preuve de résilience. Les innovations fleurissent pour soutenir les supply chains contre la possibilité d'autres événements mondiaux perturbateurs. L’une des principales pistes consiste en la réduction de l'approvisionnement mondial en pièces et en produits.

Certaines entreprises cherchent déjà à rapprocher leur production de leur propre marché. Lors de la dernière décennie, les entreprises ont mondialisé leurs opérations commerciales et leurs stratégies d'approvisionnement afin de réduire les coûts. Mais aujourd’hui, on assiste à un retour vers un approvisionnement en biens, pièces et matières premières plus proche des marchés nationaux, dans le but de se prémunir contre les turbulences géopolitiques et économiques mondiales. Toutefois, l'avènement du métavers et des technologies immersives avancées montre que la relocalisation n’est pas la seule solution pour renforcer la résilience des supply chains.

Aujourd’hui, certaines grandes entreprises commencent à s'intéresser de plus près au métavers, en explorant la manière dont il peut être utilisé dans divers domaines de leurs activités. Si la réalité virtuelle et la réalité augmentée existent depuis de nombreuses années, il n'y a pas encore eu de catalyseur de marché pour une adoption généralisée. Comme pour toute technologie de rupture, il faut une très bonne raison pour que les entreprises et les consommateurs l'adoptent en masse.

Des cas d’usage d'ores et déjà réalisables

Bien que certains aspects du métavers semblent un peu flous, existant uniquement comme des aperçus d'un potentiel futur, certaines applications peuvent être envisagées maintenant par les responsables de chaînes d'approvisionnement.

Par exemple, il est possible de produire une version numérique des informations circulant dans la chaîne d'approvisionnement, pour que les transactions numériques reflètent le mouvement physique des marchandises à mesure qu'elles circulent dans la chaîne d'approvisionnement. En combinant ces flux de transactions avec les données des capteurs IoT, pour obtenir des informations sur l'état et la localisation des expéditions à travers le monde, les équipes peuvent dresser un tableau plus précis des opérations de la chaîne d'approvisionnement. Cette image en 3D peut être visualisée dans un métavers et apporter de nouveaux niveaux de visibilité, de nouvelles capacités de planification et une connectivité sans précédent qui procurera de nouvelles opportunités de collaboration.

Grâce au métavers, les outils de planification intelligents pourraient même soutenir les processus de conception des entrepôts et susciter des perspectives sur l'ensemble d'un réseau commercial pour aider à mesurer et à améliorer les engagements en matière de durabilité.

En tirant parti de l'IA et du machine learning dans les métavers, les organisations peuvent également essayer des scénarios hypothétiques avant d'appliquer des actions à la chaîne d'approvisionnement physique. Par exemple, les entreprises pourraient simuler des événements perturbateurs, tels qu'un conflit régional ou une catastrophe naturelle, afin de comprendre l'impact sur le reste de la chaîne d'approvisionnement. Elles pourraient aussi simuler le résultat de l'introduction de nouveaux fournisseurs pour remplacer les fournisseurs perturbés et l'impact que cela pourrait avoir sur les flux logistiques dans le réseau. 

Pour conclure, les technologies immersives peuvent offrir une série d'avantages à l'industrie de la chaîne d'approvisionnement. Cependant, il faudra des investissements et des preuves de concept de la part de grandes entreprises pour leur donner un véritable élan. Cette technologie a le potentiel de redéfinir complètement la façon dont les entreprises visualisent les opérations de leur chaîne d'approvisionnement à long terme. Il y aura, sans aucun doute, des problèmes de démarrage et des échecs. Mais, comme pour la technologie du cloud, les avantages potentiels sont énormes. Les entreprises cherchant par tous les moyens à réduire leurs coûts et à accroître leur résilience, il y a fort à parier que le métavers devienne essentiel dans les années à venir.

Reporter de guerre : un métier nécessaire mais à haut risque

 

presse

Par Patrick Eveno, Université Paris 1 Panthéon-Sorbonne

Un journaliste de l'agence de presse Reuters a été tué dans le sud du Liban le vendredi 7  octobre et six autres ont été blessés, après que les forces israéliennes ont bombardé cette zone suite à une « tentative d'infiltration ».

Le 9 mai 2023, un journaliste coordinateur vidéo de l’AFP en Ukraine avait été tué lors d’une frappe de roquettes russe à proximité de Bakhmout. Présent en Ukraine depuis quinze mois, il se rendait très régulièrement sur le front, en dépit des difficultés d’informer dans des conditions de guerre.

Reporters sans frontières dresse chaque année une liste de ces journalistes tués au service du public : le chiffre, en moyenne 80, dépasse parfois la centaine. Le prix Bayeux des reporters de guerre décerne chaque année des distinctions aux correspondants de guerre, et les stèles du mémorial entretiennent la mémoire de plus de 2 000 journalistes tués dans l’exercice de leur métier.

Dans ce contexte dramatique, revenons brièvement sur l’histoire du journalisme de guerre et sur l’évolution récente de ce métier pas comme les autres.

Les reporters de guerre

En temps de paix, le journaliste peut aisément se situer : reporter ou enquêteur, il décrit les événements, fait passer de l’émotion, raconte la vie des autres à ses lecteurs ; éditorialiste ou chroniqueur, il prend position pour éclairer le public ou tenter de l’endoctriner. Mais en temps de guerre, de quel côté est-il : du côté des guerriers ou du côté des victimes ? Dans quel camp se situe-t-il ? Est-il possible d’être entre les lignes et de maintenir l’équilibre entre les belligérants, entre l’arrière et le front, entre les politiques et les militaires ?

Le reportage de guerre est apparu dans la deuxième moitié du XIXe siècle, lors de la guerre de Sécession aux États-Unis, de la guerre de 1870, mais il prend une place considérable au XXe siècle avec la guerre russo-japonaise, la guerre d’Espagne, les deux guerres mondiales, puis les guerres de décolonisation.

Alan Wood, correspondant de guerre du quotidien britannique Daily Express, rédige une dépêche pendant les combats à Arnhem, aux Pays-Bas, en 1944. Wikimedia

En temps de guerre, le journaliste risque souvent d’être considéré comme un espion ou comme un traître ; il peut alors être pris en otage, torturé ou tué. Durant la guerre russo-japonaise en 1904-1905, Ludovic Naudeau, envoyé spécial du Journal, est du côté des Russes ; il est arrêté par les Japonais pour espionnage. En 1917-1918, il couvre la révolution russe pour Le Temps ; il est arrêté en juillet 1918 à cause de la teneur antibolchévique de ses articles. Il est libéré à la fin de l’année en échange de la publication dans Le Temps d’un entretien avec Lénine.

De nombreux journalistes sont morts pour avoir tenté de faire leur travail d’information, tels André Leveuf, tué au Maroc le 20 août 1955 ou Jean-Pierre Pedrazzini et Jean Roy, reporters pour Paris Match, tués à l’automne 1956, l’un à Suez, l’autre à Budapest.

Durant la guerre d’Espagne, la presse française envoie près de deux cents reporters et photographes pour couvrir cette guerre civile annonciatrice de la Seconde Guerre mondiale : dans les premières semaines, les envoyés spéciaux circulent entre les deux camps ; mais bientôt, devant les menaces, les journaux d’information sont contraints d’envoyer deux équipes séparées pour couvrir les deux camps. Plusieurs correspondants meurent en Espagne, dans les combats ou par accident, et certains sont fusillés.

C’est à cette époque que la quête de l’image, fixe puis animée, prend une importance capitale pour apporter des preuves visuelles et conforter les reportages écrits. Il faut alors être au plus près : Gerda Taro meurt en Espagne ; Robert Capa, qui a débarqué avec l’armée américaine le 6 juin 1944 en Normandie et a été tué au Tonkin en 1954, disait : « Si la photo n’est pas bonne, c’est que vous n’êtes pas assez près. »

L’information, un enjeu dans la guerre

La Première Guerre mondiale inaugure la « guerre totale », aussi bien militaire qu’économique ou idéologique. Afin de mieux contrôler l’information, les armées enrôlent des journalistes qui partagent la vie des soldats ; ce sont les « embedded », selon la formule américaine. Mais, bien souvent, ils regimbent : ainsi, en 1918, Albert Londres quitte le groupe des reporters encadrés, les « brassards verts ». C’est là un moyen d’éviter la censure militaire directe, que les journaux n’aiment guère. Photographes, cinéastes et journalistes officiels suivent ainsi les armées durant les deux guerres mondiales et les guerres coloniales.

La rupture intervient avec la guerre du Vietnam, lors de laquelle plus d’une centaine de journalistes sont tués, parce que l’armée américaine laisse plus de libertés aux très nombreux photographes et vidéastes (plus de 600 en 1968). Des reportages et des photographies, telle « la petite fille au napalm » de Nick Ut (qui lui vaut le prix Pulitzer 1973), contribuent à discréditer la guerre auprès de l’opinion publique américaine. L’armée américaine reprendra le contrôle, notamment pendant la guerre du Golfe (1991), la dernière avant l’irruption d’Internet.

Les reporters de guerre, bien qu’ils soient souvent instrumentalisés au service des diverses propagandes, sont « les yeux et les oreilles » des militaires, des populations civiles concernées par la guerre, mais aussi de l’opinion publique mondiale.

Albert Londres disait : « Nous allons voir pour vous. » Il s’agit de documenter, non de témoigner comme le font les civils ou les soldats engagés dans un conflit. Il s’agit aussi de raconter le vécu des civils et des soldats, pas simplement de filmer des explosions ou des ruines.

Se pose alors la question de ce qu’il faut montrer, ou pas, et pourquoi : dans l’invasion russe qui ravage l’Ukraine, les autorités ukrainiennes imposent aux reporters de ne pas montrer d’éléments susceptibles de permettre l’identification des lieux de tournage, car les Russes les regardent pour déterminer leurs cibles.

Montrer des morts est aussi un dilemme très ancien : Le Miroir, le 8 octobre 1916, affiche les corps enchevêtrés d’un soldat français et d’un soldat allemand. Dès 1862, Alexander Gardner publie des photos de la guerre de Sécession. Les reporters contemporains ont souvent plus de pudeur avec les victimes : il n’est pas nécessaire d’exhiber le sang pour raconter une histoire qui intéresse le public, parce qu’il faut éviter le phénomène de lassitude qui gagne à mesure que se prolonge la guerre. C’est pourquoi les reporters, hommes et femmes, de plus en plus nombreuses sur les fronts, varient les angles et les modes de récits.

De la différence avec « tous reporters »

Depuis 2005, les smartphones et les réseaux sociaux ont permis l’émergence de simples citoyens qui se présentent parfois comme reporters.

« Tous journalistes », mais aussi tous photographes et tous vidéastes est un slogan qui a fait son apparition avec les nouvelles technologies de communication et de diffusion, en partie pour discréditer les médias traditionnels, qui seraient trop éloignés des réalités vécues.

Pourtant, le slogan est trompeur : les journalistes, même les pigistes, sont insérés dans une rédaction, ce qui leur permet d’être épaulés, matériellement et intellectuellement : ils bénéficient de moyens de protection (casques, gilets pare-balles, etc.) et de relecteurs et vérificateurs qui corrigent, approfondissent et valident les reportages ; ils s’appuient également sur des règles déontologiques reconnues par la profession qui encadrent les pratiques. Les plus importantes, dans un contexte de guerre, étant la fiabilité et le croisement des sources, la vérification et la contextualisation des informations, et enfin, la détection des liens d’intérêts et des manipulations éventuelles.

Pierre Ganz, un des spécialistes français de la déontologie journalistique, affirme :

« Les documents qui circulent en très grand nombre sur les réseaux sociaux ne peuvent être repris par les médias sans recoupement et authentification par des méthodes journalistiques. L’analyse de ces renseignements [dits OSINT, pour open source intelligence en anglais] demande des équipes composées d’informaticiens et de journalistes, ou par des sites spécialisés comme Bellingcat. »

Le reporter de guerre n’est pas sur le front pour témoigner sans recul, mais pour documenter, afin que les opinions publiques aient une image claire, aussi proche que possible de la réalité et de la vérité du terrain, ainsi que du contexte de la guerre. C’est pourquoi le régime de Vladimir Poutine (comme d’autres régimes autoritaires) mène de longue date une guerre sans merci aux journalistes professionnels et aux médias indépendants, ce qui lui permet de diffuser massivement ses « fake news ».The Conversation

Patrick Eveno, Professeur émérite en histoire des médias, Université Paris 1 Panthéon-Sorbonne

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

IA éthique : 7 leviers et actions à adopter

IA

Par Camille RAMIREZ, Responsable Marketing Digital chez Synapses Développement

L’intelligence artificielle (IA) a fait d’énormes progrès ces dernières années, transformant la façon dont nous interagissons avec la technologie et le monde qui nous entoure. Cependant, avec ces avancées viennent des préoccupations croissantes quant à l’éthique de l’IA. Comment pouvons-nous garantir que l’IA soit développée et utilisée de manière éthique ? Voici les 7 leviers et actions qui peuvent être mis en place pour assurer une IA éthique et responsable.

1. La conception éthique dès le début

Le premier levier essentiel pour garantir une IA éthique réside dans sa conception même. En effet, les développeurs doivent intégrer des considérations éthiques dès les premières phases du développement. Cela signifie :

  • Evaluer les implications morales de l’IA,
  • Identifier les biais potentiels
  • Réfléchir aux conséquences sociales de son utilisation.

Au final, il est primordial d’adopter une approche inclusive et diversifiée lors de la constitution des équipes de développement, afin de minimiser les biais inconscients.

2. La transparence et l’explicabilité

L’opacité de l’IA peut être source de méfiance et de problèmes éthiques. Il est important de rendre les décisions prises par les systèmes d’IA compréhensibles par les humains (L’IA n’est pas l’ennemi de l’homme mais bien son compagnon au quotidien !). Cela peut être réalisé grâce à des modèles expliquables, des visualisations claires du processus décisionnel de l’IA et la mise à disposition de documentation détaillée. La transparence permet aux utilisateurs de comprendre comment les décisions sont prises et de déceler d’éventuels biais.

3. La collecte et l’utilisation responsable des données

L’IA repose largement sur les données pour apprendre et généraliser à partir de celles-ci. Il est essentiel de collecter des données de manière éthique, en respectant la vie privée et en évitant les données biaisées ou discriminatoires. De plus, il faut veiller à obtenir le consentement éclairé des individus dont les données sont utilisées. L’utilisation de données provenant de sources variées et représentatives contribue à réduire les biais indésirables.

4. L’apprentissage continu et l’adaptation

Les systèmes d’IA doivent être conçus pour apprendre et s’adapter en continu. Cependant, cela doit être fait de manière responsable. La surveillance constante de l’IA et l’identification rapide des dérives potentielles sont essentielles pour éviter que les systèmes ne génèrent des résultats inappropriés ou biaisés au fil du temps. L’ajout de mécanismes d’apprentissage éthique dans les algorithmes peut aider à corriger ces dérives.

5. L’engagement avec les parties prenantes

Les parties prenantes, notamment les experts en éthique, les utilisateurs, les chercheurs et les décideurs politiques, doivent être impliquées dans le développement, l’évaluation et la régulation de l’IA. Effectivement, leur diversité d’opinions et d’expertises contribue à identifier les problèmes éthiques potentiels et à formuler des solutions adéquates.

6. La réglementation et les normes éthiques

De nos jours, les gouvernements et les organismes de réglementation jouent un rôle crucial dans la promotion d’une IA éthique. L’établissement de normes éthiques et de lignes directrices contraignantes peut aider à encadrer le développement et l’utilisation de l’IA. Cependant, ces réglementations doivent être flexibles pour s’adapter à l’évolution rapide de la technologie.

7. La responsabilité et la reddition de comptes

Les développeurs et les organisations qui déploient des systèmes d’IA doivent être tenus responsables de leurs actions. Cela signifie qu’ils doivent être prêts à assumer les conséquences de l’utilisation de l’IA, qu’elles soient positives ou négatives. La reddition de comptes peut encourager à adopter des pratiques éthiques et à éviter les comportements risqués.

En conclusion, assurer une IA éthique nécessite une approche multidimensionnelle. Cela implique une réflexion profonde dès la phase de conception, la transparence dans les décisions prises, une utilisation responsable des données, un engagement avec les parties prenantes et la mise en place de réglementations adaptéesEn combinant ces leviers et actions, nous pouvons façonner un avenir où l’IA améliore notre société tout en respectant nos valeurs éthiques fondamentales.

Enfants placés : le numérique, un recours pour faire famille ?

 

numerique

Par Emilie Potin, Université Rennes 2

La généralisation des écrans fait résonner dans l’espace public de nombreuses inquiétudes sur le développement des enfants comme sur les pratiques à risque des adolescents. Les réactions sociales liées à leurs usages numériques se centrent principalement sur les risques et les dangers.

Les questions de sexualité juvénile éveillent les attentions qu’il s’agisse de l’accessibilité des contenus pornographiques en ligne, de l’échange et de la diffusion de sextos ou de la prostitution des mineurs. Du côté de l’école, l’accent est mis sur le harcèlement, le cyberharcèlement constituant là une nouvelle catégorie du langage courant et un problème public. Enfin, pour le développement neurologique et cognitif des enfants, l’exposition aux écrans fait l’objet de mobilisations du côté des experts en santé publique.

Sans vouloir faire fi de la réalité des risques et des dangers que comportent les écrans, il s’agit ici de décaler la focale du problème public vers des usages qui bénéficient de moins de visibilité. Or, dans la diversité des dispositifs techniques, les usages socionumériques s’inscrivent dans un large spectre de possibilités.

Au vu des inquiétudes affichées publiquement aujourd’hui, s’intéresser à leur intérêt relationnel pour des mineurs concernés par une mesure de protection de l’enfance peut s’apparenter à une forme de provocation. Sans pour autant développer une vision enchantée des usages de ces dispositifs, il est important de comprendre en quoi et comment ils permettent de se raccrocher à des univers sociaux et familiaux.

Rappelons que la mesure de placement au titre de l’assistance éducative sépare, en termes de lieu de vie, enfant, fratrie et parent au nom du danger pour le mineur (art. 375 du code civil). Les droits de visite, d’hébergement et de correspondance attribués par le juge des enfants aux parents assurent le maintien du lien familial malgré la séparation.

À côté de ces droits, et de manière progressive, se sont développées des correspondances numériques qui font partie aujourd’hui de « l’ordinaire » des pratiques de communication. Elles ouvrent un champ des possibles dans le « faire famille » à distance. Dans les trajectoires des mineurs séparés de tout ou partie de leur entourage, sur quels registres la mobilisation des dispositifs socionumériques se réalise-t-elle ?

Ajuster la relation à distance

Le premier registre est celui d’un ajustement des liens sur l’espace socionumérique. Les dispositifs socionumériques offrent une scène qui accompagne la trajectoire résidentielle du mineur (de la famille d’origine à la famille d’accueil, d’un lieu d’accueil à un autre…) et les recompositions relationnelles dans son (ou ses) espace(s) de vie (rester en lien avec un beau-parent, une sœur d’accueil…). Les relations socionumériques peuvent préexister ou s’activer lors de la séparation.

Au moment du départ ou de la recomposition, des droits d’équipement ou d’accès sont offerts aux mineurs : obtention d’un smartphone, ouverture d’un compte sur un réseau social ou encore accompagnement des plus jeunes sur des dispositifs spécifiques (échanges vidéophoniques par exemple).

Le choix du mode de communication (se voir en visio, envoyer un message écrit, adresser une photo, publier une vidéo sur les réseaux…) permet au mineur d’ajuster les dispositifs mobilisés au type de relation souhaitée sur un registre allant de forme de co-présence continue à des échanges ponctuels, de la mobilisation d’une multitude d’applications à l’exclusion de l’espace socionumérique. La transposition technique recompose également les supports de la relation et conséquemment l’amène à se transformer.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Dans le cadre de relations horizontales soutenues, certaines fratries se servent des dispositifs socionumériques pour prolonger la relation à distance malgré l’éloignement des lieux de vie et la faiblesse des rencontres physiques. Les échanges sont des récits du quotidien qui s’alimentent par des photos, des textos, des appels téléphoniques ou visiophoniques.

Les plus jeunes cherchent des conseils auprès des aînés. Les plus grands cherchent à contrôler ce qui se passe en leur absence, à avoir un œil sur la vie familiale, les activités sociales et le travail scolaire, comme le raconte cette jeune femme de 18 ans, en accueil en Maison d’enfants à caractère social :

« Par SMS, je demande (à ma sœur) si ça va. Si l’école, ça se passe bien, si ses notes remontent. Si le foot ça se passe bien. Ce n’est pas trop son truc, l’école. J’essaie de suivre un peu. Mais je n’arrive pas à me connecter sur son truc (ENT). Du coup, je lui demande. Et, je sais si elle ment. Si elle ment, c’est que, elle ne veut pas me donner toutes les notes qu’elle a eues. Quand elle ne ment pas, elle me dit : “Si tu veux, je te montre une photo.” Elle me demande, quand elle a des disputes avec ses amis, quand elle veut acheter des vêtements et tout, je la conseille un peu. Quand on est sur Skype, elle me montre des tenues aussi. »

Se retrouver

Le deuxième registre relève de l’activation des liens via les ressources des réseaux en ligne. Dans beaucoup de situations de placement, les frères et sœurs connaissent des expériences familiales éloignées, résidant tantôt avec la mère, tantôt avec le père, ou éventuellement pris en charge au sein de la famille élargie (grands-parents, oncle ou tante).

Dans la trajectoire familiale, ces modes de vie très différents au sein de la fratrie sont alimentés par des ruptures conjugales, des recompositions familiales pour l’un et/ou l’autre parent, des difficultés parentales dans la prise en charge des enfants. Ces différents éléments créent des tensions qui peuvent alimenter de la distance dans les relations familiales horizontales et verticales. La mesure de placement accentue ce phénomène, car les décisions de placement sont rarement synchronisées pour l’ensemble de la fratrie et les lieux d’accueil diffèrent d’un enfant à l’autre.

Teddy a neuf frères et sœurs et il est le seul enfant de la fratrie à être placé. Ses parents ont eu deux enfants en commun mais sa sœur réside avec son père à l’étranger et il n’a jamais vécu avec elle. Son père a par ailleurs quatre enfants issus de deux unions différentes que Teddy n’a jamais rencontrés. Sa mère a cinq enfants, dont trois avec des compagnons autres que son père et il a vécu quelques années avec son demi-frère, à la charge aujourd’hui de son beau-père.

De dimension variable, les situations familiales offrent un canevas de liens qui se nourrit des lieux de vie, des trajectoires conjugales, des recompositions, des âges et des expériences afférentes dans la fratrie. Certains membres de la famille se sont seulement « croisés » par le passé (quand l’arrivée des uns s’est faite après, ou au moment, du départ des autres) ou ont été informés tardivement des existences mutuelles (quand les secrets de famille ou les conflits ont gommé une partie de l’arbre de famille). Dans ce cas, la mise en visibilité par les réseaux socionumériques des réseaux familiaux permet une accessibilité inédite. Elle amène à activer ou à réactiver des liens avec un parent ou celui qui est reconnu comme tel, qu’il soit père ou mère, beau-père ou belle-mère, parent d’accueil, frère ou sœur, demi-frère ou demi-sœur, frère ou sœur d’accueil…

« Je pense que si je n’avais pas eu les réseaux, j’aurais attendu peut-être encore 10 ans avant de les retrouver, quoi. Parce que, déjà, mon frère, mon grand frère et, ma petite sœur, mon autre grand frère, mes petits frères. Je pense que je ne les aurais jamais rencontrés… En fait, sans Internet, je n’aurais pas pu les retrouver. » (Jeune homme, 17 ans, accueil en MECS)

Se retrouver et prendre contact ne présage pas de la force des liens pour demain mais permet aux mineurs de participer à la constitution/reconstitution de leur réseau relationnel.

Garder les liens en mémoire

Enfin, le troisième registre rend compte de la mémorisation des liens. Carnets de contact dans la mémoire électronique, archives enregistrées ou traces numériques marquent des affiliations qui se sont inscrites dans la trajectoire du mineur.

Cependant, parce que les trajectoires individuelles sont inscrites sur des aspirations et des expériences singulières, parce que la protection s’inscrit sur un contrat d’accueil délimité dans le temps, avoir fait partie du même univers familial ou d’accueil ne suffit pas pour vouloir alimenter le lien. Dès lors, sans être pour autant méconnus ou défaits, ces liens restent en mémoire et sont potentiellement mobilisables.

« Mon grand frère [vit à 800 km] maintenant, en fait, on est un peu loin. Du coup, je le laisse un peu… vivre sa vie. Mais il est conscient que je suis là. Que je suis toujours là. Mais on se laisse un peu vivre. Ma petite sœur, c’est à peu près pareil. C’est ma vraie petite sœur. Mais vu qu’on a été séparés, et on a grandi tous les deux, chacun de notre côté. Maintenant, c’est un peu difficile de lui parler. » (Jeune homme, 17 ans, accueil en MECS)

De la continuité à la rupture, du partage du quotidien à la veille, les liens peuvent s’étendre à la famille élargie et les fréquences, les dispositifs et les destinataires se gèrent en fonction des volontés réciproques, de manière autonome. Les relations familiales par la correspondance numérique s’ajustent aux conjonctures individuelles plus qu’à la manière dont le maintien des liens est pensé par le système de protection de l’enfance.The Conversation

Emilie Potin, Sociologue - Maîtresse de conférence HDR, Université Rennes 2

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Pourquoi l'Etat offre un jingle sonore commun à tous ses services

musique

On connaît tous la musique de la SNCF, voire les - longues - musiques d'attentes de certains services de l'Etat. Mais il n'y avait jusqu'à présent aucun indicatif commun immédiatement identifiable lorsque l'Etat veut communiquer. C'est désormais chose faite depuis ce mercredi 11 octobre avec le lancement par le Service d’Information du Gouvernement (SIG) d'une identité sonore nommée FR.AIR.

"Ce nom est issu de la fusion entre le nom de domaine .fr associé aux administrations françaises et le terme air qui fait référence à cet air que nous connaissons tous, la Marseillaise", explique le SIG.

"En 2020, le SIG s’était associé à 4uatre et Madame Bovary pour re-marquer l’Etat atour de trois piliers : la modernité de la nouvelle Marianne, l’autorité de la typographie et l’élégance de la signature de nos valeurs républicaines. Nous nous sommes attachés à retrouver ces trois concepts créatifs dans la nouvelle signature sonore qui vient compléter notre stratégie de marque en collaboration avec Mediameeting" précise Michael Nathan, Directeur du SIG.

Mieux identifier les messages et les services de l'Etat

En alliant l’élément fédérateur historique qu’est la Marseillaise et en la réinterprétant dans une version électronique « low fi », la nouvelle signature sonore entrera dans le quotidien des usagers et permettra une meilleure identification et mémorisation des messages étatiques à destination des usagers.

Cette identité sonore se décline en une musique générique de 52 secondes et d’une virgule sonore de 4 secondes et 2,2 secondes.

Après l’harmonisation de la forme au travers de la marque de l’État (en 2020 avec le logo de la Marianne en blanc sur fond bleuet rouge) puis du Design Système de l’État (DSFR) lancé en 2021 qui a harmonisé les publications des ministères et services de l'Etat, cette identité sonore est le troisième chantier d'ampleur.

« FR.AIR » qui signe déjà le programme court Bleu, Blanc, Bouge en partenariat avec France TV et France 2030, sera à terme, présente sur l’ensemble des communications de l’État, des services centraux aux déconcentrés.

Des conseils d'administration inquiets et mal préparés face à la menace cyber

cybersecurity

Alors que les Assises de la Sécurité ouvrent leurs portes ce mercredi 11 octobre, pour trois jours de réflexion sur l’état de la cybersécurité en France, la société de cybersécurité Proofpointf ait le point sur le niveau de préparation des organisations face à l’avancée de la menace. 

Cette année encore, les résultats montrent que la menace cyber reste omniprésente en France et de plus en plus sophistiquée. Si les organisations en ont bien conscience,  augmentant leur budget et leurs compétences en interne pour y faire face, la grande majorité d’entre elles ne se sont pour autant, pas suffisamment préparées pour l’affronter réellement, estime Proofpoint.

En France, 80 % des membres de conseils d’administration interrogés estiment que leur organisation court un risque de cyberattaque d’envergure, contre 78 % en 2022 – 36 % d’entre eux jugent même ce risque très probable. Et si 92 % d’entre eux pensent que leur budget lié à la cybersécurité augmentera au cours des 12 prochains mois, ces efforts ne traduisent pas une meilleure préparation : 46 % estiment toujours que leur organisation n’est pas préparée à faire face à une cyber-attaque — un sentiment partagé par 78 % des RSSI interrogés dans le rapport Voice of the CISO 2023

 « Le nouvel alignement entre les membres des conseils d’administration et leurs RSSI, sur le risque cyber et sur la préparation, est un signe positif qui démontre que les deux parties travaillent de plus en plus étroitement à faire progresser la posture de sécurité de l’entreprise », a déclaré Ryan Kalember, vice-président exécutif de la stratégie de cybersécurité chez Proofpoint. 

Les enjeux de cybersécurité ont de fait, bien pris leur place à l’ordre du jour des conseils d’administration et 56 % des administrateurs français déclarent interagir régulièrement avec leurs responsables de la sécurité (53 % au niveau mondial). Bien qu’il s’agisse d’une augmentation par rapport à l’année dernière (51 % en France contre 47 % dans le monde), c’est toujours près de la moitié des conseils d’administration qui n’entretient pas de relations solides avec leurs RSSI. 

Par ailleurs, administrateurs et RSSI n’ont pas la même lecture du déroulé de la chaîne d’attaque.

Les premiers classent les logiciels malveillants (48 %), le smishing/vishing (40 %) et la fraude par courriel/BEC (38 %) parmi leurs principales préoccupations, alors que les RSSI mettent quasiment au même niveau le risque  de fraude par courriel/BEC (35 %), les menaces internes (33 %) et les attaques sur la chaîne d’approvisionnement (32 %). 

« La chaîne d’approvisionnement est un vecteur d’attaque en pleine croissance et pour les entreprises, il est encore plus difficile de s’en protéger car les menaces provenant de partenaires externes sont quasiment indétectables. Si les entreprises ont besoin de solutions adaptées pour s’en protéger, la collaboration entre RSSI et conseils d’administration doit plus que jamais être mise en avant pour garantir la synergie des efforts en matière de protection cyber. La meilleure manière d’éviter la catastrophe : des responsables qui partagent une vision de la cybersécurité, et qui forment leurs collaborateurs régulièrement. » précise Loïc Guézo, Directeur de la stratégie Cybersécurité SEMEA chez Proofpoint. 

Un décalage qui pourrait être inquiétant s’il persiste

Alors que la pause estivale en France était l’occasion d’un grand nombre d’attaques ciblant les fournisseurs de grandes entreprises (voir le cas Majorel  pour Pôle Emploi), les menaces sur la chaîne d’approvisionnement ne semblent pas encore être une priorité pour les conseils d’administration. 

Pour Loïc Guézo « cette édition des Assises vise à prendre de la hauteur concernant la cybersécurité. Prendre de la hauteur, c’est se poser la question des priorités en termes de défenses cyber : quel est le principal risque pour mon organisation ? La réponse à cette question est différente pour chacun et ne peut se trouver qu’avec des échanges réguliers entre toutes les parties prenantes : conseils d’administration, RSSI,  DSI, fournisseurs de services… Nous pouvons voir que cette année, les échanges se sont amplifiés, ce qui est une bonne nouvelle. Cependant, les préoccupations divergent encore et la mise en place d’une politique commune en cybersécurité est la première étape  pour protéger au mieux les organisations ».  

Mois de la cybersécurité : trois questions à Laurent Gélu, Cybersecurity Leader chez Kyndryl

cybersecurity



Laurent Gélu, Cybersecurity Leader chez Kyndryl

1/ Quelles sont les grandes menaces auxquelles devront faire face les entreprises ces 5 prochaines années ?

Comme aujourd’hui, les principales menaces sont les ransomwares, dont le coût a atteint 2 milliards d'euros en 2022 en France selon le Clusif, et les fuites de données confidentielles, de plus en plus fréquentes avec des conséquences financières majeures.

S'ajoutent à cela les catastrophes naturelles liées au changement climatique. L'exemple de l'ouragan Irma en Floride en 2017 est édifiant : une compagnie d'assurance américaine a vu son data center principal entièrement détruit, avec des coûts de réparation de plusieurs dizaines de millions et des semaines d'interruption d'activité. Ce type d'événement climatique extrême risque de se reproduire et mettre en péril les infrastructures IT vitales. Au cours des six premiers mois de l’année, les catastrophes naturelles se sont multipliées, obligeant les assureurs à débourser 12,7 milliards d'euros. Les inondations représentent la principale source de dépenses.

Il faudra également anticiper l’avènement de l’informatique quantique qui représentera une menace pour les données protégées. Cette technologie va « casser » les algorithmes de chiffrement utilisés actuellement pour sécuriser les communications, ce qui rendra les données vulnérables aux attaques, tout comme les menaces émergentes telles que l'IA malveillante, l'ingénierie sociale avancée et les attaques sur l'Internet des objets (IoT).

2/ Pourquoi les entreprises n’arrivent pas à anticiper et se prémunir de ces menaces ?

Je citerais deux raisons principales :

  1. Le manque d'investissement, avec seulement 5% à 7% des budgets IT consacrés à la cybersécurité. Les dirigeants ont du mal à allouer les ressources financières nécessaires, faute de sensibilisation aux risques cyber.
  2. La pénurie de compétences, la France ne formant que 7000 experts par an (ANSSI 2021). Beaucoup d'entreprises n'ont pas les RSSI et les équipes adéquates en interne pour sécuriser leur transformation numérique. C’est d’ailleurs pourquoi nous avons lancé en 2022 la Kyndryl Academie, celle-ci nous permet de renforcer notre investissement sur les talents qui sont notre première valeur et d’accompagner nos clients dans ce défi majeur de besoin d’expertises sur les nouvelles technologies.

Par ailleurs, la transformation numérique ultra-rapide de ces dernières années a créé de nouvelles vulnérabilités que les entreprises n'ont pas su anticiper à temps. Le manque de sensibilisation des décideurs et le rythme intense du changement technologique sont donc des facteurs aggravants.

Enfin, j’ajouterais les disparités entre les entreprises. Si l’on reprend l’exemple de l’informatique quantique, cette technologie rendra la norme obsolète dans quelques années, il faudra donc actualiser l’ensemble du parc informatique. Pour une grande entreprise, cela ne posera pas de problème, en revanche pour une TPE ou une PME, cela va s’avérer plus compliqué. 

3/ La résilience, le Zero Trust, ces solutions technologiques offrent-elles une réponse pérenne et rentable ?

Selon IDC, les clients de Kyndryl en Europe peuvent réaliser un ROI de 568 % en 5 ans en investissant dans la cybersécurité, améliorant ainsi la résilience globale de leur entreprise. La résilience informatique et l'approche du "Zero Trust" offrent des réponses pérennes et rentables pour renforcer la sécurité des systèmes d'information des entreprises.

Par ailleurs, de nombreuses études montrent que les entreprises ayant un solide programme de cybersécurité ont une meilleure performance financière. Concrètement, investir dans la redondance des infrastructures, la mise en place de sauvegardes sécurisées, la segmentation des réseaux ou encore la gestion stricte des accès selon le principe de l’architecture Zero Trust, représente un coût pour l'entreprise mais lui fait gagner en résilience face aux cyberattaques et autres sinistres. Même si ces technologies impliquent un investissement significatif, les statistiques et retours d'expérience démontrent qu'il s'agit d'un choix stratégique rentable sur le long terme pour sécuriser le système d'information.

Enfin, j’insisterais sur la nécessité d’imposer dès aujourd’hui des mesures d’hygiène en cybersécurité à toutes les strates de l’entreprise. Cela inclut des actions aussi simples que la réalisation de sauvegardes régulières de vos données vitales, l'application des mises à jour et des correctifs de sécurité, la gestion rigoureuse des accès aux informations sensibles, ainsi que la réalisation de tests de vulnérabilité pour détecter les faiblesses. De plus, un plan de réponse aux incidents en cas d'urgence devrait être en place. Ces mesures, tout comme les normes sanitaires assurent la qualité et la sûreté dans les industries.