Accéder au contenu principal

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Par  Laurence Corroy , Université de Lorraine Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles. Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques. Dans le cadre de l’étude Sexteens , menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries on...

Course à l’ordinateur quantique : comment progresse ce chantier titanesque en pratique

 

Entre le rêve théorique de l'ordinateur quantique et sa mise en place concrète, il y a un long chemin semé d'embuches quantiques. alex wong, Unsplash, CC BY
Par Aymeric Delteil, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Pour mieux comprendre l’ordinateur quantique et la course technologique qu’il génère, nous vous proposons ici le second opus de notre série. Après un premier article sur la naissance du concept d’ordinateur quantique, nous explorons ici comment il pourrait être réalisé en pratique et les défis scientifiques et technologiques à relever.


Le prix Nobel de physique 2022 vient d’être décerné à trois pionniers de l’information quantique, dont un Français, Alain Aspect. Leurs travaux ont posé les bases de la « seconde révolution quantique », qui permet de rêver à la réalisation d’un ordinateur quantique.

De fait, l’ordinateur quantique fait des apparitions de plus en plus remarquées dans la presse généraliste, et nombreux sont les lecteurs qui pourraient en déduire que l’humanité dispose déjà d’instruments surpuissants capables de battre à plate couture nos bons vieux ordinateurs.

En effet, en se basant sur les principes fondamentaux de la physique quantique, les chercheurs et les industriels conjuguent leurs efforts pour réaliser l’ordinateur quantique ultime, dit « universel ». Et s’il est vrai que les accomplissements récents dans le domaine sont aussi impressionnants que prometteurs, avec à ce jour, le plus gros ordinateur quantique annoncé contenant 127 « bits quantiques », il faut bien voir que ce dernier n’a pas été conçu pour être capable de réaliser des calculs utiles, mais comme une « preuve de concept ».

Ainsi, à l’heure actuelle, un ordinateur quantique universel opérationnel reste un Graal inaccessible, dont personne ne peut encore prédire la réussite avec certitude.

En revanche, nous sommes déjà sur le point de disposer de machines quantiques plus petites, appelées « simulateurs quantiques », qui seront utiles pour résoudre des problèmes spécifiques en physique, en ingénierie, en chimie ou encore en pharmaceutique.

La promesse quantique

Un cryostat d’IBM, utilisé pour conserver l’ordinateur quantique de 50 qubits – des circuits supraconducteurs – à des températures compatibles avec son fonctionnement. IBM/Flickr, CC BY-ND

Un ordinateur quantique « universel » pourrait en théorie effectuer tous les calculs que peut faire un ordinateur classique, mais plus efficacement. En réalité, ceci ne sera possible que pour certains calculs, qui mettront en œuvre des algorithmes spécifiquement conçus pour l’informatique quantique. L’ordinateur quantique rendrait alors possibles des calculs aujourd’hui infaisables parce qu’ils prendraient trop de temps.

Par exemple, des milliers de milliards d’années seraient nécessaires sur un supercalculateur dernier cri pour factoriser des nombres à quelques centaines de chiffres, comme ceux utilisés pour sécuriser nos communications, mais il faudrait seulement quelques heures à un ordinateur quantique de taille modeste pour résoudre ce problème.

Comment construit-on un ordinateur quantique ?

Encore faut-il construire un ordinateur quantique qui fonctionne avec les algorithmes quantiques conçus exprès pour lui.

Un ordinateur quantique est une machine qui incorpore des « qubits » – l’équivalent quantique des « bits », unités de calcul classique – et qui permette de les manipuler afin de réaliser les opérations requises par l’algorithme. Ainsi, les qubits doivent suivre les lois de la physique quantique.

Les premiers candidats au rôle de qubit sont donc des particules quantiques individuelles. En effet, on sait aujourd’hui contrôler des atomes individuels avec des lasers, des ions avec des champs électromagnétiques, et des électrons avec des circuits électriques nanométriques.

On peut aussi utiliser des particules de lumière, car on sait aujourd’hui émettre des photons un par un – des photons dits « uniques ». Pour cela, on utilise des « boîtes quantiques semi-conductrices », des défauts contrôlés par exemple dans du diamant, ou encore des cristaux dits « non linéaires ».

Microscopie électronique d’un guide d’onde photonique contenant une boîte quantique
Boîte quantique dans un « circuit optique » permettant de diriger les photons émis par la boîte quantique. La boîte quantique, invisible à cette échelle, est indiquée par le cercle rouge. Javadi et coll, CC BY

Une dernière option est d’utiliser comme qubits des circuits supraconducteurs : ce sont des circuits électroniques de taille millimétrique, bien plus grande que les réalisations basées sur les particules quantiques discutées ci-dessus. Elles offrent ainsi l’avantage de pouvoir être intégrés sur une puce au moyen des techniques similaires à la fabrication des ordinateurs classiques. C’est la voie retenue par les géants de l’informatique Google et IBM.

Contrôler les qubits individuellement, la « seconde révolution quantique »

La multitude de systèmes physiques pouvant matérialiser l’ordinateur quantique résulte en une recherche foisonnante dans tous ces domaines, qui progressent en parallèle. Ce contrôle des particules individuelles constitue ce qu’on nomme désormais la « seconde révolution quantique » – la première étant celle des technologies basées sur des ensembles de particules quantiques : lasers, transistors, supraconducteurs, qui ont transformé durablement notre monde durant la deuxième moitié du XXe siècle.

Circuit supraconducteur qui réalise un processeur à trois qubits (barre d’échelle 1 millimètre). D. Ristè et coll, CC BY

Malgré tous ces progrès, le contrôle de ces qubits reste beaucoup plus difficile que les bits classiques, à cause de la très grande fragilité des effets quantiques. En effet, l’environnement des constituants (c’est-à-dire la chaleur, la lumière, les champs électrique et magnétique par exemple) finit toujours par perturber les états de superposition et d’intrication. Ce phénomène, appelé « décohérence », limite en pratique la manipulation et le stockage de l’information contenue dans les qubits.

Les défauts atomiques dans le diamant peuvent prendre le rôle de bits quantiques
Microscopie d’un composant en diamant qui contient un défaut atomique. Il fait l’interface entre des photons et trois qubits magnétiques portés par des noyaux d’atomes. Cramer et coll, CC BY

Pire… plus l’ordinateur comporte de qubits, plus cette perturbation est rapide. Pour ces raisons, les prototypes actuels sont réalisés dans des environnements extrêmes : très basse température (à quelques fractions de degrés du zéro absolu), ultravide, obscurité totale. Ces conditions très contraignantes, seulement réalisables en laboratoire, permettent de conserver les effets quantiques un certain temps, mais pas suffisamment pour être réellement opérationnels.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Une solution théorique existe : pour protéger l’information quantique, il faut répartir chaque qubit « logique » sur un très grand nombre de qubits « physiques » afin de pouvoir effectuer des corrections d’erreur. Dans cette approche, des millions de qubits seraient ainsi nécessaires pour un ordinateur quantique universel fiable et il faudrait fabriquer des ordinateurs quantiques démesurés pour compenser leurs imperfections.

Or, à l’heure actuelle, personne n’est capable de réaliser un tel ordinateur, et il est impossible de prédire s’il existera un jour.

Vers des ordinateurs quantiques spécialisés, ou « simulateurs quantiques »

Pourtant, au cours de la quête de l’ordinateur quantique universel, de nouvelles idées ont émergé.

Il paraît fort probable que les premiers ordinateurs quantiques seront bien différents des ordinateurs omnipotents imaginés au départ et seront plutôt pensés pour effectuer une tâche bien précise, constituant sans doute le moyen le plus efficace de la réaliser – voire le seul.

Les applications entrevues sont multiples, avec par exemple l’optimisation de réseaux de distribution, la compréhension des mécanismes de la photosynthèse, la conception de catalyseurs pour engrais, de médicaments, l’optimisation de batteries ou de cellules solaires.

Simulateur quantique d’une molécule de polyacétylène, basé sur des électrons dans le silicium. Kiczynski et coll, CC BY

Pour illustrer ce principe par un exemple concret, une équipe australienne a réalisé cette année un petit processeur basé sur une dizaine de qubits en silicium, en piégeant des électrons entre des électrodes nanométriques. Ce circuit quantique a été conçu pour simuler des molécules de polyacétylène, une molécule qui présente un grand intérêt pour la physique fondamentale car elle matérialise un problème de physique théorique complexe, et qui a fait l’objet du prix Nobel de chimie en 2000.

Dans cette réalisation virtuose, la taille de la molécule simulée (10 atomes) est à la limite de ce qui est raisonnablement calculable avec un ordinateur classique. Cela a permis de vérifier les prédictions du processeur quantique.

Un processeur quantique deux fois plus grand, c’est-à-dire avec 20 qubits, surpasserait déjà de loin ce que nos capacités de calcul classiques pourraient simuler concernant ce type de molécules remarquables.

L’enjeu du passage à l’échelle

Pour atteindre un tel « avantage quantique », il faut augmenter le nombre de qubits dans les calculateurs.

Les dix à vingt dernières années ont vu la réalisation de nombreux prototypes de protocoles quantiques à deux ou quelques qubits – souvent spectaculaires. Les systèmes les plus avancés peuvent actuellement traiter quelques dizaines de qubits.

Outre les problèmes de « cohérence » déjà évoqués, la difficulté réside aussi dans la reproductibilité des systèmes physiques.

Prenons cette fois-ci l’exemple des photons. Les algorithmes quantiques nécessitent que ces particules de lumière soient toutes « indiscernables », c’est-à-dire qu’elles ont les mêmes caractéristiques, et notamment exactement la même longueur d’onde (la même couleur). Les meilleures sources pour cela sont les « boîtes quantiques », car les photons émis consécutivement par les meilleures boîtes quantiques sont tous identiques. Mais comme les photons émis par des boîtes quantiques distinctes sont généralement très différents. Pour réaliser un calcul quantique, on est donc contraint d’utiliser une seule et même boîte quantique, et d’utiliser les photons qu’elle a émis consécutivement. Cette contrainte complique l’architecture d’un futur ordinateur et limite le nombre total de qubits que l’on peut utiliser simultanément.

Des recherches sont actuellement menées par de nombreux laboratoires pour obtenir des sources contrôlées qui ont toutes la même longueur d’onde, ce qui permettra d’obtenir de grands nombres de photons identiques émis simultanément et de conserver une fréquence d’horloge élevée.

[Comment ça marche ?] Un ordinateur quantique. Source : CEA Recherche.

Quelle que soit la plate-forme physique choisie pour créer des qubits, il faudra pouvoir les manipuler et les mesurer en grand nombre, mais indépendamment les uns des autres. Et pour interfacer ces systèmes quantiques avec des contrôleurs classiques, il faut des systèmes miniaturisés, souvent nanométriques.

Ainsi, le passage à l’échelle de l’informatique quantique promet de donner du fil à retordre aux ingénieurs en électronique, en optique, ou encore en informatique… Même s’il est impossible de prédire si nous aurons un véritable ordinateur quantique « universel », l’informatique quantique fera sans aucun doute partie de notre futur et structurera durablement les sciences.The Conversation

Aymeric Delteil, Chercheur CNRS, Groupe d'étude de la matière condensée, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Posts les plus consultés de ce blog

Le bipeur des années 80 plus efficace que le smartphone ?

Par André Spicer, professeur en comportement organisationnel à la Cass Business School (City University of London) : Vous vous souvenez des bipeurs ? Ces appareils étaient utilisés largement avant l'arrivée massive des téléphones portables et des SMS. Si vous aviez un bipeur, vous pouviez recevoir des messages simples, mais vous ne pouviez pas répondre. Un des rares endroits où on peut encore en trouver aujourd’hui sont les hôpitaux. Le Service National de Santé au Royaume-Uni (National Health Service) en utilise plus de 130 000. Cela représente environ 10 % du nombre total de bipeurs présents dans le monde. Une récente enquête menée au sein des hôpitaux américains a révélé que malgré la disponibilité de nombreuses solutions de rechange, les bipeurs demeurent le moyen de communication le plus couramment utilisée par les médecins américains. La fin du bipeur dans les hôpitaux britanniques ? Néanmoins, les jours du bipeur dans les hôpitaux britanniques pourraient être compté...

Quelle technologie choisir pour connecter les objets ?

Par Frédéric Salles, Président et co-fondateur de Matooma   En 2021, le nombre total d'objets connectés utilisés atteindra les 25 milliards selon Gartner. Il est ainsi légitime de se demander quelles sont les technologies principales permettant de connecter les objets, et quelle pourrait être celle la plus adaptée pour sa solution. Un projet de vidéosurveillance par exemple n'aura absolument pas les mêmes besoins qu'un projet basé sur le relevé de température au milieu du désert. Ainsi pour trouver la meilleure connectivité pour son objet, de nombreuses questions peuvent se poser : mon objet fonctionne-t-il sur batterie ou est-il alimenté ? Mon objet restera-t-il statique ou sera-t-il mobile ?  Mon objet est-il susceptible d'être dans un endroit difficile d'accès ou enterré ? A quelle fréquence mes données doivent-elles remonter ? Etc. Voici les différentes solutions actuellement disponibles sur le marché. Courte distance : RFID/Bluetooth/WiFi La RFID (Ra...

La fin du VHS

La bonne vieille cassette VHS vient de fêter ses 30 ans le mois dernier. Certes, il y avait bien eu des enregistreurs audiovisuels avant septembre 1976, mais c’est en lançant le massif HR-3300 que JVC remporta la bataille des formats face au Betamax de Sony, pourtant de meilleure qualité. Ironie du sort, les deux géants de l’électronique se retrouvent encore aujourd’hui face à face pour déterminer le format qui doit succéder au DVD (lire encadré). Chassée par les DVD ou cantonnée au mieux à une petite étagère dans les vidéoclubs depuis déjà quatre ans, la cassette a vu sa mort programmée par les studios hollywoodiens qui ont décidé d’arrêter de commercialiser leurs films sur ce support fin 2006. Restait un atout à la cassette VHS: l’enregistrement des programmes télé chez soi. Las, l’apparition des lecteurs-enregistreurs de DVD et, surtout, ceux dotés d’un disque dur, ont sonné le glas de la cassette VHS, encombrante et offrant une piètre qualité à l’heure de la TNT et des écrans pl...

6 questions sur Zone-telechargement

Quel était ce site ? Zone-telechargement.com était jusqu'à lundi soir l'un des plus gros sites web français proposant de télécharger des contenus numériques illégaux. En grande majorité des films parfois très récents ; des séries télé notamment américaines qui n'étaient pas diffusées en France ; de la musique ; des logiciels et des jeux vidéo. Les séries et les films étaient disponibles en différentes qualités et ceux en langue anglaise étaient sous-titrés grâce à des communautés d'utilisateurs capables de sous-titrer des épisodes de série 24 heures après leur diffusion aux États-Unis. Le site comptabilisait, selon la gendarmerie, en moyenne 140 millions de pages vues par mois et 11 000 téléchargements par jour. La société Alexa affichait Zone-Telechargement à la 11e place des sites les plus visités de France… devant Twitter ! Zone-Telechargement proposait 18 000 films, 2 500 séries télé ; 11 000 documentaires ; 20 943 émissions télé ; plus de 150 000 MP3 mais aus...

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Par  Divina Frau-Meigs , Auteurs historiques The Conversation France Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les « deepfakes » , ou hypertrucages , ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu . Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio. Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean ...

D’IBM à OpenAI : 50 ans de stratégies gagnantes (et ratées) chez Microsoft

  Paul Allen et Bill Gates en 1970 à Lakeside School (Seattle). Microsoft naîtra cinq ans plus tard. Auteur inconnu/Wikimedia Par  Frédéric Fréry , ESCP Business School Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs. Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars po...