Generic selectors
Correspondance stricte
Recherche dans le titre
Recherche dans le contenu
Post Type Selectors
Filtre par catégorie
ADNEthique
Algorithmique
Asso Référentiel
Association
Bibliographie
Domaines abordés
Données personnelles
Economie numérique
Emploi
IA
IA Etat de l'art
IA Risques
Informatique
Marché
Usages du numérique

Rapide introduction à l’informatique quantique

Avant-Propos
Écrire un article de vulgarisation de quelques pages pour introduire à l’Informatique quantique est une suggestion lancée comme une gageure par le comité de rédaction de notre association. C’est ce que tente cet article. Son abord reste cependant plus difficile que pour la moyenne des articles publiés sur notre site.

L’informatique quantique en quelques pages

Définitions et étymologie

Quantique

L’adjectif Quantique vient du latin « quantum », c’est-à-dire « combien ».
Pour les physiciens, la Théorie des Quanta (pluriel de Quantum) est à l’origine de la branche de recherche de la Mécanique Quantique. Un Quantum désigne la plus petite fraction pour laquelle l’énergie, le mouvement ou la masse peuvent être mesurés. Ainsi, le Photon est souvent utilisé comme synonyme de Quantum.

Par extension, l’adjectif quantique est relatif à l’étude ou à la mise en application des phénomènes physiques propres à l’échelle atomique et subatomique.

L’informatique quantique

L’Informatique Quantique désigne une branche de la recherche informatique créée dans les années 1980 en réponse aux questions posées par la miniaturisation toujours plus poussée des microprocesseurs : quelle est la limite de cette miniaturisation ? Quand le fonctionnement des microprocesseurs sera-t-il sensiblement impacté par les effets quantiques, par exemple par les ondes de chaleur que provoque leur utilisation ?

Ces recherches ont rapidement proposé une autre mise en œuvre du modèle théorique de la Machine de Turing, une miniaturisation ultime de l’Unité Arithmétique et Logique (UAL) d’un Ordinateur utilisant des particules quantiques comme support intermédiaire de ses calculs.

Quoi de nouveau dans un ordinateur quantique ?

Les phénomènes quantiques

L’application à l’informatique des principes quantiques bouleverse l’approche classique que réalise l’architecture de nos micro-ordinateurs actuels. Les deux phénomènes dont profiterait plus particulièrement l’informatique sont la Superposition et l’Intrication quantique :

  • Le Qubit (contraction de Quantum Bit) est l’unité élémentaire, c. à-d. l’unité la plus petite traitée par un Système d’Information quantique, comme le bit l’est aujourd’hui pour un système d’information Binaire. La Superposition Quantique permet de considérer simultanément deux états (0 et 1) pour chacun des qubits. Augmenter le nombre de qubits entraîne donc une progression exponentielle de la capacité de calcul. Ainsi, une unité de traitement quantique disposant de 64 qubits représente une capacité théorique de calcul équivalente à celle de 264 processeurs 64 bits, soit celle de plus de 1,8 millions de milliards de nos processeurs actuels. IBM annonçait en janvier 2018 que « […] avec 50 qubits, nous atteindrons un point où la simulation d’une molécule ne prendra que quelques minutes, contre cinq jours avec un système géant d’aujourd’hui ».
  • L’Intrication Quantique, aussi appelée « enchevêtrement quantique », est un phénomène qui lie les états de particules appartenant à deux objets distincts, mais intriqués dans un même Système Quantique, ce quelle que soit la distance qui sépare ces deux objets. Les applications potentielles concernent évidemment les communications : les modifications des états de particules opérées sur l’objet #1 peuvent être constatées instantanément sur l’objet#2 distant, sans qu’aucun « message échangé » guidant cette synchronisation  physique d’états  puisse être intercepté.

Contraintes et limites

Dans leurs nombreux exercices de vulgarisation, les médias sont porteurs de tous les fantasmes de mondes parallèles, associant la superposition quantique à une sorte de don d’ubiquité et le phénomène d’intrication à de la téléportation [1].
Les contraintes inhérentes à la mécanique quantique obligent à recadrer les projets d’utilisation de ces phénomènes et à modérer l’enthousiasme ambiant. Parmi lesquelles :

  • L’instabilité d’un système d’information quantique très sensible à son environnement thermique et magnétique est aujourd’hui la principale gageure. Par exemple, exploiter les caractéristiques intrinsèques de la matière porteuse des qubits supposent le maintien des particules élémentaires à des températures extrêmement basses (très proches du zéro absolu, -273,15 °C). Des technologies qui sont loin d’être à la portée de chacun !
  • L’opération de lecture des informations quantiques change leur état. Lire revient alors à détruire et copier n’est pas toujours envisageable.
  • Les mesures quantiques ont une approche probabiliste, ce qui contraint à traiter l’incertitude des résultats [2]. Les traitements doivent donc intégrer des algorithmes de vérification.  L’indispensable exécution de ces derniers consomme des ressources de calcul, réduisant d’autant la capacité de traitement laissée au « calcul productif ».
  • La vitesse de transfert d’un état quantique entre deux objets intriqués ne peut pas être inférieure physiquement à celle de la lumière [3].
  • Les nouvelles méthodes de traitement informatique applicables aux calculateurs quantiques ne consistent pas à moderniser ou à optimiser le fonctionnement des ordinateurs classiques. De nouvelles approches algorithmiques et de nouveaux langages de programmation sont nécessaires. Le nombre des spécialistes qui les maîtrisent aujourd’hui se limite encore à quelques milliers de par le monde.

La situation à ce jour

La technologie quantique appliquée à l’informatique apportera une capacité de calcul pour résoudre des problèmes mathématiques non accessibles aux ordinateurs bâtis sur la physique classique. Ce haut potentiel permettra de casser rapidement les systèmes de cryptographie les plus sécurisés, tout en assurant l’inviolabilité des nouveaux échanges.
Argument non anecdotique, la consommation énergétique requise pour résoudre un calcul complexe est très inférieure avec un calculateur quantique [4].

L’ordinateur quantique a dépassé aujourd’hui le stade du simple concept pour celui de prototype expérimental.

Un terrain de luttes stratégiques

Chaque jour annonce une nouvelle prouesse technologique. Difficile cependant de distinguer entre la part du vrai et la part relevant de la communication d’influence.
Les géants du GAFAM, BATX et autres ainsi que les grandes puissances politiques, investissent massivement dans cette technologie prometteuse où être présent aujourd’hui est hautement stratégique : il s’agit ni plus ni moins de contrôler l’information et la communication de demain [5].

Quels changements pour l’utilisateur, pour quand ?

Difficile de parier sur la date à laquelle la réalisation des promesses de l’informatique quantique impactera le grand public.

Une approche intéressante est à signaler : des simulateurs quantiques sont disponibles qui permettent la mise au point des algorithmes et des nouveaux langages de programmation quantique [6]. La mise en application fonctionnelle anticipe ainsi sur la mise à disposition d’une infrastructure matérielle stable.

Même si de nouvelles optimisations viendront encore améliorer la stabilité, la sécurité et les performances de nos ordinateurs actuels, ceux-ci rendent déjà assez bien les services conventionnels élémentaires pour lesquels ils sont conçus. Ils ont donc encore de beaux jours devant eux :

  • Les premiers systèmes informatiques quantiques seront d’abord des super calculateurs dédiés à la résolution de problèmes particulièrement lourds ou complexes. C’est plutôt là qu’est leur place sur le marché. Dans l’immédiat, l’ordinateur quantique n’est pas appelé à devenir généraliste.
  • Les demandes publiques personnelles rentabilisant l’appel à la puissance de calcul d’un ordinateur quantique étant rares, un développement complémentaire et parallèle des deux technologies reste le scénario le plus probable aujourd’hui.
  • Un couplage par le réseau entre l’informatique existante et les systèmes quantiques pour partager les capacités de calcul phénoménales de ses derniers  reste une option envisageable à terme. Si besoin, il permettrait à un public plus large l’accès en ligne aux ressources délocalisées de l’informatique quantique.

Si des prototypes confirment jour après jour la réalité des promesses de l’informatique quantique, la technologie n’a pas encore atteint un point [7] où ces nouvelles ressources peuvent impacter significativement nos usages quotidiens.


Annexes

Ce chapitre formalise les réponses aux questions posées lors de la présentation de ce travail au comité de rédaction de notre association, le 24 janvier 2019.

Pourquoi l’informatique quantique s’impose-t-elle aujourd’hui dans le débat ?

Au-delà de la curiosité technologique, la profusion des articles dans les médias traduit la convergence de trois préoccupations auxquelles l’informatique quantique promet des réponses : les limites atteintes par l’informatique conventionnelle ; la lutte entre les grandes puissances étatiques ou économiques pour dominer le monde numérique ; l’énorme consommation énergétique des moyens informatiques conventionnels et leurs conséquences sur la priorité écologique.

Les limites de l’informatique conventionnelles

Les limites de la miniaturisation des processeurs sont bientôt atteintes

Aujourd’hui, la technologie permet l’impression d’un transistor sur une surface de 5 nm2. Le diamètre moyen d’un atome est d’environ 0,1 nm. La miniaturisation qui a permis en grande partie la réalisation de la Loi de Moore atteint donc ses limites physiques. Déjà les ondes de chaleur que génère la consommation électrique des processeurs perturbent sensiblement leur fonctionnement physique, ce que pallie encore l’utilisation de nouveaux supports. La fin de l’application de la loi de Moore est annoncée pour 2020.

Les limites des traitements séquentiels conventionnels

Augmenter la capacité de traitement d’un problème par un ordinateur passe ordinairement par l’augmentation de sa capacité physique de calcul (c’est à dire en améliorant la puissance de ses processeurs ainsi qu’en les multipliant pour paralléliser certaines opérations) et par l’optimisation des algorithmes. Ces réponses ne sont cependant pas suffisantes face à certains problèmes mathématiques qui supposent un nombre énorme d’opérations. C’est le cas par exemple du « problème du voyageur » [8]. Le temps que requiert l’exécution séquentielle des instructions d’un algorithme conventionnel rend leur utilisation inenvisageable.

La lutte pour la domination du monde numérique

La Superposition quantique permet un traitement parallèle des scénarios, faisant croître la puissance de calcul de façon exponentielle en fonction du nombre de qubits disponibles. Ainsi, un calculateur disposant de 64 qubits serait 264 fois plus puissant qu’un actuel processeur 64 Bits. Il réunirait plus de puissance théorique de calcul que l’ensemble des processeurs aujourd’hui actifs sur terre (dans les ordinateurs, smartphones et autres objets connectés).

Les grandes nations comme les géants du marché numérique ont compris l’importance d’être le premier à maîtriser cette énorme capacité potentielle de traitement. Tous sont conscients du pouvoir qu’aura le premier maîtrisant une telle technologie disruptive [9], Il pourra alors imposer ses règles du jeu pour asseoir sa puissance. Ce scénario a de quoi terroriser tout le monde : non seulement une telle capacité de calcul minimise les difficultés à lire des contenus sécurisées par cryptage RSA, mais elle ôte toute efficacité à l’Algorithme à la base aujourd’hui des services de type Blockchain. Le scénario redistribue ni plus ni moins les cartes du contrôle de l’internet de demain.

Les exigences écologiques

Certains de nos courriels portent encore un message insistant sur l’économie nécessaire de leur impression sur papier. L’impact écologique de l’industrie numérique est sans commune mesure avec ce geste. Cette industrie est un mauvais élève de l’écologie [10].
Plus de 10 % de la production mondiale d’électricité sont aujourd’hui engloutis par le fonctionnement de nos ordinateurs et réseaux conventionnels. Mais tout indique que les ordinateurs quantiques qui prendront en charge les calculs les plus complexes apporteront une réponse relativement plus écologique. Certes, leur consommation d’énergie restera significative, mais elle sera non proportionnelle à la lourdeur des traitements qui leur seront affectés.

À quoi ressemble un ordinateur quantique ? Comment ça marche ?

Leur aspect

De l’extérieur, les photos disponibles d’ordinateurs quantiques montrent de grosses boites noires, comme pour insister davantage sur l’expression et traduire leur côté impénétrable. En fait, les modèles ne sont que des prototypes. La difficulté étant de stabiliser les atomes observés pendant la durée du calcul, ces prototypes cachent la lourde infrastructure qui isole les Qubits de toute interaction avec leur environnement extérieur.
Plusieurs projets en cours s’affrontent. Chacun propose son approche et aucun n’est avare en communiqués spectaculaires sur les progrès accomplis. Le gagnant sera dire celui qui aura démontré le meilleur rapport qualité-prix, mais il est encore difficile de prédire son nom. La taille et l’aspect de l’ordinateur quantique dépendront de ses choix d’architecture technologique.
Des recherches sont même lancées pour réaliser une infrastructure quantique à base d’une puce qui pourrait être fabriquée en série, de la dimension d’une puce actuelle et à l’intérieur de laquelle serait isolé,  dans un espace confiné, un ion en lévitation [11].
On peut cependant s’attendre à ce que le tout premier ordinateur quantique économiquement rentable ressemble plutôt à un énorme coffre-fort à l’intérieur duquel siègera une infrastructure matérielle hors de prix.

Leur fonctionnement logique

Un processeur quantique comportera de nouvelles Portes Logiques que celles utilisées par l’informatique conventionnelle.
Les programmeurs quantiques et les programmeurs conventionnels cohabiteront, chacun ayant ses propres langages de programmation et algorithmes pour exécuter les opérations logiques spécifiques à l’infrastructure technique qui leur sera dédiée. Ces deux environnements communiqueront par « l’Internet du futur ».

À quoi fait référence l’expression « Suprématie Quantique » ?

Ce terme un peu spectaculaire est celui généreusement repris par les médias pour qualifier l’étape où un ordinateur quantique aura résolu un problème aujourd’hui infranchissable par les superordinateurs conventionnels [12].

Il s’agirait là d’un exploit technologique doublé d’une véritable rupture technologique, car la sécurité des systèmes de cryptographie comme celle des Block chains serait remise en cause. On considère généralement que la puissance de calcul requise pour atteindre ce palier est de 50 qubits.

Quelle est l’histoire de l’informatique quantique ? Quels en sont les grands noms ?

L’histoire de l’informatique quantique a commencé il y a plus de deux siècles. Ce sous-chapitre présente en trois grandes phases quelques-uns de ces héros.

Les travaux initiaux

1805 — Thomas Young (1773-1829, Anglais) détermine et prouve la nature ondulatoire de la lumière avec « l’expérience des doubles fentes » qui porte son nom. Jusque-là, seule la nature corpusculaire de la lumière était considérée (voir expérience des doubles fentes de Young).
1827 – William Rowan Hamilton (1805-1865, Irlandais) conçoit très jeune les formulations mathématiques des lois physiques intégrant l’électromagnétisme qui sont toujours d’actualité en mécanique quantique (voir fonction hamiltonienne).
1865 – James Clerck Maxwell (1831-1879, Ecossais) propose la théorie des champs électromagnétiques se déplaçant à la vitesse de la lumière.
1897 —Joseph John Thomson (1856-1940, Anglais) en 1897, il découvre les électrons, ce pour quoi le prix Nobel 1906 lui est attribué.

Les fondations de la mécanique quantique

La liste qui suit rappelle les noms les plus célèbres de ceux qui ont construit la révolution de la physique moderne dont les dimensions relativistes et quantiques ébranlent encore notre conception scientifique et philosophique du monde.

1900 — Max Planck (1858-1947, Allemand) propose la théorie des quantas où le rayonnement de la matière n’est pas continu, mais varie par paliers de quantité d’énergie (« quanta »). C’est l’origine du qualificatif quantique accolé depuis à mécanique, physique ou informatique.
1905 — Albert Einstein (1879-1955, Allemand puis Américain). On connaît son E=MC2,mais on ignore souvent que son prix Nobel de 1921 lui a été attribué pour ses travaux sur l’effet photoélectrique publiés dès 1905 et fondateurs de la mécanique quantique.
1911 — Rutherford (1871-1937, Néo-Zélandais) découvre la structure des atomes : un noyau chargé positivement par ses protons autour duquel gravitent les électrons. Ceci lui vaut le Nobel de 1922.
1912 — David Hilbert (1862-1943, Allemand) porte son attention sur la physique après s’être consacré aux mathématiques pures. On lui doit les fondements mathématiques de la mécanique quantique (voir Analyse fonctionnelleet Espaces de Hilbert).
1913 – Niels Bohr (1885-1962, Danois) modélise l’atome d’hydrogène où protons et électrons tournent autour du noyau selon des orbites définies.
1924 — Louis de Broglie (1892-1987, Français) définit le principe de dualité ondes-particules applicable à toutes les particules élémentaires. Prix Nobel de physique 1929.
1925 – Wolfgang Pauli (1900-1958, Autrichien) définit le principe d’exclusion selon lequel deux électrons ne peuvent pas avoir le même état quantique dans un atome. Il découvre aussi le spin de noyau et d’électron. Prix Nobel 1945.
1926 – Erwin Schrödinger (1887-1961, Allemand) formule l’équation décrivant l’évolution spatio-temporelle de l’état ondulatoire d’un quantum, c’est-à-dire définissant la probabilité de trouver un quantum à un endroit et à un instant donné (voir équation de Schrödinger). Ceci lui vaudra le prix Nobel 1933. (Voir également chat de Schrödinger [13].)
1927 – Werner Heisenberg (1901-1976, Allemand) définit le fameux principe d’indétermination, selon lequel on ne peut pas mesurer avec précision à la fois la position et la vitesse d’une particule élémentaire. Ce principe lui vaudra le prix Nobel 1932.
1932 – John Von Neumann (1903-1957, Hongrois puis Américain) publie « Mathematical Foundations of Quantum Mechanics », un ouvrage de référence sur les fondements mathématiques de la mécanique quantique. C’est au même Von Neumann qu’on doit le modèle architectural à la base des ordinateurs d’aujourd’hui.
1946 — Felix Bloch (1905-1983, Suisse puis Américain) propose une représentation physique de l’état d’un qubit dans une sphère qui porte son nom (voir sphère de Bloch). Il obtient le prix Nobel 1952, mais en récompense de ses travaux sur la résonance magnétique nucléaire.

Les débuts de l’informatique quantique

L’idée de faire du calcul quantique apparaît dans plusieurs laboratoires dans les années 1970. On cite souvent l’inversion d’approche de Richard Feynman parmi les déclics fondateurs : « Au lieu de nous plaindre que la simulation des phénomènes quantiques demande des puissances énormes à nos ordinateurs actuels, utilisons la puissance de calcul des phénomènes quantiques pour dépasser nos ordinateurs actuels ». Autre souci rapidement évoqué, celui posé par la Loi de Moore qui suggéra très vite l’atteinte d’une limite quantique à la miniaturisation des circuits électroniques par 2 tous les 18 mois.

S’inspirant de la démarche partie de la machine de Turing puis de l’architecture Von Neuman pour aboutir aux équipements matériels actuels, des modèles théoriques ont été élaborés pour décrire une architecture et un fonctionnement types. De nouvelles portes logiques ont été modélisées et elles supposent une nouvelle algorithmique. Au milieu des années 1980, des modèles théoriques d’un ordinateur quantique étaient formalisés.

Depuis la fin des années 1990, les instanciations pratiques se sont éclatées en autant de projets concurrents fondés sur des approches différentes. Difficile de toutes les citer ici [14].

Quelques dates et noms reconnus concrétisant ces progrès peuvent être cités :

1981 – Richard Feynman (1918-1988, Américain) théorise la possibilité de créer des ordinateurs quantiques dans son ouvrage « Simulating Physics with Computers ». Son objectif est alors d’utiliser des phénomènes quantiques pour permettre la simulation du fonctionnement de la matière. Il est colauréat du prix Nobel 1965 (avec Sin-Itiro Tomonaga et Julian Schwinger), mais pour leurs travaux en électrodynamique quantique.
1994 — Peter Shor (1959, Américain) publie un algorithme permettant la factorisation d’entiers en nombres premiers sur un calculateur quantique. Ce premier pas concret de l’algorithmique quantique bouscule les services numériques existants qui ont basé leurs procédures sur la cryptographie RSA. Ses travaux sont également à l’origine d’un algorithme de correction d’erreurs à 9 qubits.
1996 — Lov Grover (1961, Indien et Américain) invente un algorithme également dédié à une architecture de calcul quantique et permettant d’adresser une entrée dans une base de données non triée.


Quelques liens pour en savoir plus

Ce chapitre recommande quatre publications accessibles sur l’Internet. Cette sélection propose des approches différentes du même exercice de vulgarisation. Elle a pour but d’enrichir et de développer notre article. Elle est classée par difficulté croissante.

Qu’est-ce qu’un ordinateur quantique ? Comment marche l’informatique quantique ? Est-ce qu’on saura vraiment en fabriquer un jour ?

Cette courte présentation en ligne est accessible au plus grand nombre, pédagogique et bien construite.
Science-Étonnante, YouTube, ajoutée le 7 avr. 2017, durée 16 minutes, « Les Ordinateurs Quantiques — Science étonnante #40 »

Une autre analogie pour comprendre la superposition quantique.

Dans ce document audio, Thierry Breton — le PDG d’Atos — utilise la métaphore intéressante d’un avis de recherche pour schématiser le fonctionnement d’un traitement par un ordinateur quantique. C’est un exercice de vulgarisation très réussi qui s’adresse en particulier à tous ceux que le martyr du célèbre chat de Schrödinger n’aura pas vraiment convaincus.
France Culture, « La conversation scientifique » du 27/05/2017, Étienne Klein, entretien avec Thierry Breton, durée 59 min. Thème : « Aurons-nous un jour des ordinateurs quantiques ? »

Les scientifiques de la mécanique quantique

Cet article est un hommage documenté rendu aux scientifiques qui ont contribué à l’avènement de l’informatique quantique. Il propose un panthéon beaucoup plus étoffé que celui retenu dans notre chapitre 2 – Annexes. C’est un répertoire utile pour découvrir la longue chaîne des contributions scientifiques dans le domaine quantique.
« Opinions libres », le blog d’Olivier Ezratty, « Comprendre l’informatique quantique – scientifiques », publié le 24 juin 2018 et mis à jour le 28 septembre 2018. 28 pages. « Comprendre l’informatique quantique – O.Ezratty »

Introduction à la mécanique quantique

Roland Lehoucq, astrophysicien au CEA, propose un cours accessible au niveau de la terminale S. Son exposé rigoureux est passionnant de bout en bout. En partant de l’expérience des fentes de Young, il explique en particulier la superposition quantique et sa réalité.
Cette master-class a été enregistrée à l’École Polytechnique le 29 mai 2018. © CEA Recherche. Durée 1h17. « Introduction à la mécanique quantique »


Notes et références indiquées dans le texte:

[1]  Cet article lui-même n’est bien sûr pas exempt d’approximations. Rares sont ceux qui maîtrisent cette technologie, et je n’en fais pas partie.

[2] Le terme « spin » désigne la mesure observé à un moment précis d’une particule. Elle  fournit des valeurs discrètes sujettes au « principe d’incertitude« . Selon ce principe, il existe une limite fondamentale à la précision avec laquelle on peut mesurer simultanément deux propriétés physiques d’une même particule.

[3] Hélas, vous devez abandonner l’espoir de communications synchrones par le « Skype du futur » avec votre voisin voyageant dans une autre galaxie, à plusieurs années-lumière de la votre.

[4]  Une projection souvent citée a estimé qu’un système géant actuel consommerait une énergie de l’ordre de 50 fois supérieure à celle que demanderait un ordinateur quantique pour un calcul complexe l’immobilisant aujourd’hui pendant une journée. Ce chiffre de 1 pour 50 doit cependant être interprété avec précaution. En effet, il est basé sur l’exécution d’un calcul de décryptage. Or la complexité de cet exercice croît de façon exponentielle avec la taille de la clé de chiffrement. La croissance du temps d’exécution par un ordinateur conventionnel suit également une courbe exponentielle alors qu’elle est linéaire avec un calculateur quantique.

[5]  En 2014, Le Washington Post, reprenant une alerte de Edward Snowden, annonçait que le NSA avait initié un programme du nom de « Penetrating hard targets » – La pénétration de cibles difficiles – dont un des objectifs était titré « owning the net » – l’appropriation du réseau. La NSA a au moins le sens de la concision.

[6]  Nombre d’articles dans les grands médias font référence à ces simulateurs. Ce ne sont pas à proprement parlé des ordinateurs quantiques mais des émulateurs logiques à la puissance de calcul bien moindre.

[7]  L’époque où cette nouvelle technologie détrônera l’informatique conventionnelle est souvent désignée dans les médias par l’expression  « Suprématie Quantique ».

[8]  Pour exemple, c’est le cas du célèbre problème du voyageur de commerce. Cf. Wikipédia, « Problème du voyageur de commerce« .

[9]  Selon la formule anglo-saxonne « The winner takes all ».

[10]  Chacune Les grosses fermes de serveurs qui se multiplient pour répondre à la demande de l’internet consomme 10% d’une centrale thermique. À peine 18 % des métaux présents dans nos ordinateurs portables sont récupérés à ce jour. Voir à ce sujet le Journal du CNRS, « Numérique – Le grand gâchis énergétique« .

[11]  Voir l’article Wikipédia, « Calculateur quantique« .

[12] Voir le problème du voyageur de commerce (ibid.).On peut également inclure dans la liste des exemples le cassage des longues clés de chiffrement (voir l’article Cryptologie / Cryptage RSA).

[13] . Une injustice de l’histoire résumera la réputation de Schrödinger dans le grand public à celle de tortionnaire des chats. Ceci est lié à à l’analogie devenue célèbre et qu’il a proposée pour discuter la superposition quantique : il propose d’établir le constat de vie ou de décès d’un chat enfermé dans une boite sous la menace d’un gaz toxique dont la propagation est aléatoire. Voir l’article Wikipédia, « Le chat de Schödinger »

[14]  Voir le bon récapitulatif de Wikipédia dans son article « Calculateur quantique », au chapitre Historique.


L’auteur de cet article est Jacques Cassagnabère.

Sa version initiale a été publiée le 12 mars 2019

La version publiée intègre les commentaires, correctifs  et compléments proposés par les membres de la commission de rédaction.


 

Sidebar