 Alors, bienvenue à cette présentation sur l'informatique quantique pour Andreas qui a donné la même présentation il y a 5 ans mais il s'est passé un peu de temps depuis et donc il va nous dire cette présentation avec le titre Informatique quantique est-ce qu'on y est maintenant ? Alors maintenant, 5 ans plus tard, il s'est passé quand même pas mal de développement, des annonces de Google, les d'autres groupes et Andreas est revenu pour nous en parler. Alors, applaudissez-le et bienvenue sur la scène. Ok, aujourd'hui le monde, je suis vraiment content d'être ici encore, 5 ans après la première version de cette présentation. Alors, ma motivation pour donner cette présentation c'est assez simple. Là, j'ai fait ma thèse de doctorat sur l'informatique quantique de 2009 à 2012 et tout le monde vient toujours me voir en disant, ah est-ce que tu as vu cette nouvelle expérience ? Tu as vu, ils utilisent des ordinateurs quantiques sur le cloud d'Amazon maintenant, ça marche vraiment, est-ce qu'on peut l'utiliser et pourquoi vous ne travaillez pas dessus, etc. Et je ne pouvais pas vraiment répondre à ces questions. Donc, je vais revenir et regarder un petit peu ce qui s'est passé depuis que j'ai terminé ma thèse. Et est-ce qu'on a vraiment des ordinateurs quantiques qui fonctionnent maintenant ou est-ce qu'on n'en est pas encore tout à fait là ? Alors, on va faire un peu comme ceci. D'abord, je vais donner une petite introduction à l'informatique quantique pour qu'on ait une compréhension commune de comment ça marche parce que c'est intéressant. Ensuite, je vais vous montrer une petite expérience d'accélération quantique avec les collègues de Sackley où j'ai fait ma thèse. Ensuite, une discussion des défis et des problèmes, pourquoi est-ce qu'on n'arrivait pas à construire un vrai ordinateur quantique. Et ensuite, discuter l'expérience de Google et la collaboration avec l'université de Santa Barbara, où ils ont démontré cet ordinateur vraiment impressionnant avec 53 qubits. Et on va voir ce qu'ils ont fait là et voir est-ce que c'est vraiment comme un ordinateur quantique au sens réel du terme ou est-ce que c'est autre chose. Et ensuite, donner un petit aperçu de qu'est-ce qu'on pourrait s'attendre dans les années qui viennent. Pour parler d'ordinateur quantique, d'informatique quantique, on devrait commencer par parler d'informatique classique. Donc, les ordinateurs classiques travaillent avec des bits dans des registres. Donc, voici un petit exemple d'un registre binaire. Donc, les bits eux-mêmes, ils ne sont pas très intéressants. Il faut qu'on fasse quelque chose avec. Donc, on calcule des fonctions sur ces registres bits et voilà ce que fait un CPU, d'une manière un petit peu simplifiée. On prend des entrées, on calcule une certaine fonction dessus et ça donne une valeur de sortie. Alors, un petit exemple très simple, c'est le problème de la recherche. Alors, je vais en parler parce qu'après, on va avoir une expérience où on peut utiliser l'informatique quantique pour résoudre ce problème. Je vais expliquer pourquoi ce problème est intéressant. Alors, c'est vraiment une fonction très stupide. Ça prend une entrée et ça prend une sortie qui dit est-ce que le bit d'entrée est la solution de notre problème de recherche ou pas. Alors, on pourra avoir une fonction très très compliquée ici. Par exemple, une fonction qui calcule la réponse à la vie, l'univers et tout. Alors, pas seulement une réponse complète mais seulement les deux premiers bits. Donc, c'est une fonction très coûteuse à exécuter. Elle prendra des millions d'années à exécuter sur notre entrée. Alors, au total, il y a quatre possibilités, 00, 01, 1011. Et on peut appliquer notre fonction toutes ces entrées. Et seulement pour la deuxième, 01. Et donc pour cette valeur, la fonction retourne 1 et pour toutes les autres, la fonction retourne 0. Alors, maintenant, réfléchissons à comment on peut implémenter une petite fonction simple de recherche. Alors, imaginez donc que la fonction est vraiment très compliquée et qu'on ne peut faire aucune optimisation, on ne sait pas où chercher. Donc, le plus simple, c'est d'essayer la fonction sur toutes les valeurs dans l'ordre. Donc, on initialise notre registre binaire à 00. On appelle la fonction sur ce registre. On regarde quel est le résultat. Et si le résultat est 0, ça veut dire qu'on ne l'a pas trouvé. Et si le résultat est 1, ça veut dire qu'on l'a trouvé. Et dans ce cas-là, on s'arrête. Et ici, dans cet exemple, la réponse est 0. Donc, on revient au départ. On incrémente la valeur du registre et on essaye encore. Et dans le pire des cas, si on est optimiste ou pas, vous regardez ça quatre fois. Donc, ça, c'est le pire des cas. Et donc, la complexité rentant de cette grippe de recherche, le plus grand nombre d'opérations qu'on va faire, la complexité sera dominée par la complexité de l'algorithme de la fonction F. Donc, on va que c'est linéaire en la taille de l'espace de recherche. Donc, en grand taux de N. Et donc, ici, par exemple, on avait quatre possibilités. Donc, on devait évaluer la fonction quatre fois. Alors, on va revoir ça un petit peu plus tard pour montrer si on peut faire mieux dans le contexte de l'informatique quantique. Donc, ici, tant qu'on ne sait pas grand chose de plus sur la fonction F, on ne peut pas optimiser ça plus. Alors, une chose intéressante, c'est qu'on pourrait imaginer qu'on n'utilise pas l'informatique classique pour résoudre ce problème. Et en fait, la discipline de l'informatique quantique a été inspirée par un seminar de Richard Feynman qui réfléchit à comment on pourrait simuler des systèmes quantiques sur un ordinateur classique en utilisant une machine de Turing. Et en fait, les systèmes quantiques sont tellement compliqués pour un ordinateur classique que ce n'est pas possible de le faire efficacement. Il faudrait un ordinateur quantique pour pouvoir le faire d'une manière raisonnable et simuler ce système quantique. Et c'est vraiment toute cette idée d'utiliser la mécanique quantique pour faire des calculs, de chercher une solution pour la simulation de système quantique qui a créé cet informatique quantique. Ce ne sont pas ces problèmes d'algorithmes d'informatique quantique qui l'ont inspiré. Alors les ordinateurs quantiques peuvent faire des calculs plus rapides que les ordinateurs classiques, parce qu'il y a vraiment une différence dans la façon dont ils fonctionnent. La différence clé, c'est la superposition. C'est-à-dire que si vous utilisez un ordinateur quantique, on ne peut pas seulement charger une seule valeur comme dans un registre binaire, mais à la place, on peut charger toutes les valeurs d'état possible en même temps en parallèle. Et c'est un état quantique, une superposition quantique d'état. Et ici, chacune de ces composantes a une amplitude qui est un nombre complexe qui constitue le qubit. Par exemple, si vous avez N qubit, l'ensemble des états quantiques possible est vraiment très grand. Il y en a depuis 100 saines. Donc si vous avez un registre quantique, son nombre d'états possibles est vraiment très grand et ça permet de faire tout un tas de calculs. Donc on va indiquer ça en dessinant le registre quantique comme un petit rectangle, en montrant qu'il n'y a pas une seule valeur dedans, mais une superposition de différentes valeurs. Donc il y a une condition qu'on appelle de normalisation qui met des contraintes sur ces amplitudes, qui est que la somme des carrés des valeurs absolues de ces amplitudes est égal à 1, qui veut dire que la probabilité totale de tous ces états doit être 100 %. Et c'est le premier ingrédient qui rend les ordinateurs quantiques si intéressant pour le calcul, parce que vous pouvez essentiellement implémenter n'importe quelle fonction classique, celle qui vient des ordinateurs classiques sur un ordinateur quantique. Et ce qui est intéressant c'est qu'on peut non seulement l'évaluer sur une seule valeur, mais en fait l'évaluer sur une superposition de valeur et donc on a une paralysation massive quand on déclenche un calcul quantique sur une superposition et dans ce cas-là vous obtiendrez toutes les valeurs de sortie possibles. Alors il y a quand même un petit inconvénient qu'on discutera plus tard parce que c'est pas aussi facile qu'on vient de le dire, mais c'est quand même vraiment ce qui démontre la puissance de l'informatique quantique. Alors la chose suivante qu'on peut faire sur un ordinateur quantique, c'est que d'une part on peut lancer les fonctions classiques, mais l'autre chose c'est qu'on peut utiliser des portes quantiques, c'est-à-dire que non seulement on a les opérations standardes de type e, or, etc., mais en fait on peut aussi avoir des opérations qui agissent sur l'ensemble des qubits en même temps et qui créent ce qu'on appelle des états intrigués. C'est-à-dire qu'on peut pas vraiment séparer l'état d'un qubit d'un autre. C'est, comment dire, si on devait modifier un seul qubit du système, on modifiera en même temps l'autre qubit du système. C'est-à-dire qu'on peut pas vraiment les séparer les uns des autres. Et donc c'est une ressource qu'on peut utiliser en informatique quantique pour résoudre certains problèmes plus rapidement qu'on le ferait sur des ordinateurs classiques. Comme je l'ai dit, c'est que bien sûr on ne veut pas juste faire des calculs sur notre qubit, sur les registres qubits, mais c'est qu'on veut aussi lire le résultat de ces calculs. Et si on essaye de faire ça, donc on fait un calcul et ensuite on veut mesurer le sorti de ce calcul, on a un petit problème, parce que le processus de mesure est assez compliqué. Disons que, de manière simplifiée, on a un état quantique avec tout un tas d'amplitude de 1 à n. Alors, il va obtenir un état de sorti parmi ces 1 à n avec une certaine probabilité. La probabilité est proportionnelle au carré de la valeur absolue de ces amplitudes. Ce qui veut dire qu'on peut donc faire un calcul sur tous ces états quantiques. Mais quand on va lire le résultat, on va avoir seulement un des résultats possibles. Ce qui, d'une certaine manière, détruit l'utilité de l'informatique quantique parce qu'on peut lancer plein de calculs en parallèle, mais on peut voir qu'un seul résultat. D'une certaine manière, on ne peut pas vraiment apprendre quelque chose de la sortie. Est-ce qu'en fait, il y a un moyen d'utiliser l'informatique quantique pour être plus rapide que l'informatique classique? Et donc le premier algorithme pratique qui est sorti pour le problème de la recherche est donné par Love Grover, donc il y a un chercheur à Bell Labs qui a trouvé l'algorithme de Grover, qui a un algorithme de recherche qui peut, comme on le verra, résoudre le problème de recherche plus rapidement que n'importe quel ordinateur classique. Et à mon avis, ça reste l'un des plus beaux algorithmes quantiques parce qu'il est extrêmement simple et très puissant. Et il y a une preuve, et comme pour d'autres algorithmes, comme la factorisation de Schor, l'algorithme de Grover sera plus rapide que n'importe quel ordinateur classique et à mon avis, c'est vraiment un exemple d'algorithme quantique qui est plus puissant que les algorithmes classiques. Alors voyons comment ça marche. Alors il y a 3 étapes dans l'algorithme. On crée d'abord un registre à Q-bit qui est la superposition des 4 valeurs d'entrée possibles, tout avec une probabilité, une amplitude égale et ensuite on évalue la fonction sur cet état d'entrée et on fait un encodage spécial qui marque la solution de ce problème en mettant en changeant la signe de l'amplitude de cet état. Par exemple, comme le résultat était 0,1, on lui met une amplitude négative, ce qui veut dire que c'est ça la solution du problème. Et maintenant si on faisait la lecture directement, on apprendrait rien du tout de la solution, parce que comme vous le voyez, les amplitudes sont toutes égales pour tous ces 4 états. Et donc si on faisait la lecture maintenant, on obtiendrait tout simplement l'un de ces 4 états aléatoirement et donc on ne pourrait absolument rien conclure avec 100% de probabilité. Alors pour faire ça, il faut qu'on fasse une autre étape qui est l'opérateur de Grover ou de diffusion qui prend cette différence de phase, cette différence de signe et applique un opérateur quantique qui transfère l'amplitude de tous les états qui ne sont pas la solution au problème vers l'état qui lui est la solution. Et maintenant, dans cet exemple avec 2 qubits, avec 4 valeurs possibles, il n'y en a qu'un seul qu'on va lire, et donc maintenant, l'amplitude de notre état solution est de 1 et l'amplitude de tous les autres états est de 0. Et c'est pas mal, parce que maintenant on doit juste faire une mesure du qubit et avec 100% de probabilité, on va trouver la solution à notre problème de recherche. Et donc c'est là la magie de la mécanique quantique qui apparaît, parce qu'on doit juste évaluer cette fonction une seule fois. Voilà, tout à l'heure dans le problème classique, on devait évaluer autant de fois que toutes les états d'entrée possibles. Mais ici, on va réussir à trouver avec 100% de probabilité quel état est la solution à notre problème de recherche. Et ça, ça marche non seulement avec 2 qubits, mais avec autant de registres avec qubits qu'on veut. Et donc par exemple pour les étapes 2 et 3, alors au lieu de 1 itération, on devra plusieurs, par exemple 25 itérations pour 10 bits pour obtenir la solution. Et donc l'accélération ici est très bonne. Elle est quadratique en la taille de l'espace de solution. Et donc si vous regardez la complexité sur ce graph, l'algorithme quantique, la recherche de Grover, sa complexité en temps, le nombre d'évaluations nécessaires, et seulement en racine de n, n la taille de l'espace de recherche. Qui montre qu'on a vraiment un arrondage en vitesse des ordinateurs quantiques sur les ordinateurs classiques. Et le plus grand est l'espace de recherche, le plus on aura une accélération. Par exemple, si on avait un espace de recherche à 1 milliard d'éléments, on devrait seulement chercher une dizaine de milliers de fois au lieu d'un milliard de fois. Ok. Et du coup, maintenant comment est-ce qu'on peut construire un système qui réalise ces algorithmes quantiques ? Voici un processeur quantique que j'ai réalisé avec des collègues à Saclay. Donc si vous voulez en savoir plus, vous devriez regarder ce que j'ai présenté lors de ma dernière présentation. Donc on utilise ce qu'on utilise des Q8 superconducteurs. Donc on peut voir la puce ici en haut. Vous pouvez voir les deux Q8 au milieu avec une structure en forme de serre. Donc on peut manipuler les Q8 en utilisant des micro-hons. On utilise des choses similaires à ce qu'on a dans les téléphones mobiles. Et enfin, vous pouvez voir les zones qui contiennent les Q8 en eux-mêmes. Et qui contiennent les Q8 en eux-mêmes, avec des structures en aluminium, l'une au-dessus de l'autre qui sont refroidies à très basse température pour rentrer dans un état de superconducture. Et du coup on utilise ces deux couches pour réaliser ces Q8 avec une couche de cuivre au milieu qui... où sont les portes quantiques utilisées pour opérer ces Q8 ? Ici on a quelque chose qui est comme une sorte de réfrigérateur qui va permettre d'atteindre une température proche du zéro absolu. Donc toute cette chose on va la refroidir et ensuite utiliser les lignes pour la transmission des micro-hons qu'on a vu tout à l'heure. Donc ce qu'on a fait c'est qu'on a un rover pour ces deux Q8. Donc je ne veux pas aller trop dans les détails mais les résultats sont obtenis en faisant tourner cet algorithme beaucoup de fois. Et comme vous pouvez le voir on a un décalage où on n'a pas un sot de succès à 200% mais plutôt de 50 à 60% dans le meilleur cas. Donc si vous vous demandez pourquoi pas 100% de succès ? Qu'est ce qui nous empêche de créer des processeurs à 100 au 1000 Q8 ? Lorsqu'on manipule des Q8 on peut avoir des erreurs par exemple dans la manipulation des micro-hons cette manipulation n'est pas forcément parfaite, on peut obtenir des erreurs. Par exemple si on a un processeur à 1000 Q8 pour lier chaque Q8 à chaque Q8 on aurait un million de connections qui augmente potentiellement le nombre d'air. Et on a une limite sur le nombre d'opérations qu'on peut effectuer sur chaque Q8 en pratique. Donc ça c'est une archite de texture sur face code. Donc l'idée c'est qu'on n'a pas un processeur quantique à connectivité pleine ou en fait on va juste connecter chaque Q8 à ses quatre voisins. Donc c'est plus facile parce qu'on n'a pas besoin d'autant de connections sur la puce mais en fait on pourrait quand même avoir une connectivité pleine. On va encoder un seul qubit logique par plusieurs qubits physiques sur la puce pour autoriser à faire la correction d'erreur. Par exemple si on a des erreurs de relaxation ou de défasage, il m'y en utilise les autres qubits pour correcter l'erreur et continuer à faire le calcul. Et c'est assez important parce que dans les qubits supraconducteurs il y a toujours des erreurs présentes et on ne sera probablement pas capable de toutes les éliminer donc il faut qu'on soit capable de corriger les erreurs pendant qu'on fait le calcul. Maintenant le processeur de Google il suit cette approche de surface code donc il y a cet article dans Nature publié je crois il y a un mois donc il contient 53 qubits supraconducteurs avec 86 coupleurs et il permet d'atteindre une fidélité, ou alors une probabilité de succès de plus de 99% pour les portes à 2 qubits et c'est vraiment très très bien et presque assez de fidélité pour réaliser la correction d'erreur quantique comme je l'ai dit tout à l'heure et avec ce système vous pouvez vraiment lancer des algorithmes quantiques assez complexes beaucoup plus complexes que ceux que nous on a lancés en 2012 donc par exemple de leur papier il parle de suites de plus de 10 à 20 tortes quantiques si on possible et bon pour vous donner une petite impression du cryostat de l'ingénierie cryogénique qui est faite ici, voici en quelque sorte le cryostat à dilution où les qubits sont montés vous pouvez voir que c'est un petit peu plus compliqué que le système qu'on a fait en 2012 ça ressemble vraiment plus à un ordinateur quantique professionnel je dirais et si vous demandez un physicien maintenant pourquoi ils se construiraient à un tel système la réponse ce serait bien sûr parce que c'est cool pourquoi pas il se trouve que c'est une organisation comme Google qui peut investir des centaines de millions de dollars dans cette recherche en fait c'est parce qu'ils veulent aussi avoir des résultats et bien sûr ils vont essayer de l'utiliser sur quelque chose qui montre à quel point c'est puissant ou ça peut dépasser un ordinateur classique ça a l'air facile mais en fait non alors c'est pas vraiment facile de trouver un problème qui serait faisable sur cet ordinateur quantique 50 qubits avec ces 80 coupleurs et qui serait pas possible de simuler sur un ordinateur classique alors on pourrait penser à la factorisation de nombre en ces composants de première donc voilà c'est la motivation de certaines agences qui poussent à l'enfermatique quantique parce que ça permettrait de lire les ebelles de tout le monde mais malheureusement on n'a pas du tout le nombre de qubits qu'il faudrait pour ça et le nombre d'opérations serait beaucoup trop grand pour qu'on puisse se réaliser une telle chose sur ce processeur alors la chose suivante qui serait assez intéressante ce serait la simulation de système quantique donc par exemple une molécule ou un système quantique avec beaucoup de degrés de liberté c'est vraiment très difficile de les simuler sur des ordinateurs classiques et sur un ordinateur classique on peut le faire efficacement mais encore donc l'équipe de Google n'a pas fait donc je suppose que ça veut dire que un ordinateur quantique soit avait des problèmes physiques il ne pouvait pas faire cette simulation là-dessus mais dans le futur à court terme ce serait vraiment une application intéressante et donc la dernière chose qu'on pouvait essayer de faire tourner comme par exemple l'algorithme de recherche là encore avec le nombre de qubits qui sont dans le système et la taille de l'espace de recherche on peut pas vraiment faire ça parce que l'algorithme a besoin de beaucoup trop d'étapes et le temps de cohérence limitée des qubits dans ce système ne permet pas de lancer ce genre d'algorithme en tout cas à ma connaissance alors qu'est-ce qu'ils ont fait c'est du coup de faire une autre expérience celle qui était possible avec ce processeur qui était une benchmark randomisée c'est-à-dire que au lieu de faire tourner un algorithme qui fait quelque chose d'utile comme une recherche en fait vous lancez une suite totalement aléatoire de portes donc par exemple j'ai beau ce qu'on ait de portes à 1 qubit qui changent l'état d'insul qubit puis des portes à 2 qubits pour les transformer dans un état intriqué et ensuite vous lisez le résultat de cette suite de portes alors c'est vraiment une opération complexe donc vous avez besoin d'un très grand nombre de degrés de contrôle de ce processe pour réussir à faire ça mais simplement ça ne résout pas un problème pratique et d'un autre côté c'est le système, cette algorithme qu'on peut faire tourner facilement sur l'auditeur quantique et en fait c'est très difficile à simuler ou à reproduire dans un système classique et ce qui est difficile à reproduire sur un orditeur classique c'est de simuler l'action de ces portes quantiques sur un orditeur quantique en utilisant un orditeur classique parce que pour chaque qubit que vous ajoutez la taille du problème est multipliée par 4 donc vous pouvez imaginer si vous avez 2 qubits c'est facile de simuler ça vous pouvez le faire sur un iPhone ou sur un ordinateur et si vous ajoutez de plus en plus de qubits vous pouvez voir que la taille du problème devient vraiment grande très vite si vous avez 20, 30 qubits vous ne pouvez pas le faire sur un orditeur personnel il faudrait un super calculateur il y a un moment par exemple la 50, 53 ou ça devient totalement impossible même pour les super calculateurs les plus rapides de les traiter et donc c'est ce qu'on appelle la suprémancie quantique pour cette suite rendemisée de portes c'est la partie de la courbe là que vous voyez ou c'est encore possible pour ce processur quantique Google a fait de les traiter c'est pas possible de les gérer pour les ordinateurs classiques les super calculateurs existants en temps raisonnable si on arrive à faire tourner quelque chose dans ce régime ici ça montre que les ordinateurs sont capables de faire tourner des calculs que aucun ordinateur classique ne peut réaliser et c'est pour ça que faire tourner ce type d'expérience c'est intéressant parce que ça le montre vraiment les ordinateurs quantiques peuvent faire des choses que les ordinateurs classiques ne peuvent pas faire et sinon même si ce n'est pas très utile alors la suite de portes qu'ils ont fait tourner ressemble un peu à ça donc il y a 4 ou 5 des qubits de l'équipe de Google et ils ont fait tourner des suites d'opération de différentes longueurs et ils ont échantillé le résultat de cette séquence donc par exemple on prend une suite de bits de 0 et de 1 pour chaque expérience pour vérifier que leurs ordinateurs quantiques faisaient la même chose il faut le comparer au résultat d'une simulation classique du même algorithme et c'est bien sûr le problème parce que en fait on prétend qu'on a réussi à faire un calcul quantique sur 53 qubits mais aucun ordinateur classique ne peut le vérifier donc la question c'est comment on a prouvé comment on peut démontrer que ce que l'ordinateur quantique a calculé est vraiment la bonne réponse à ce problème et que ce n'est pas simplement n'importe quoi c'est une question très intéressante parce que la façon qu'ils l'ont fait c'est par extrapolation c'est-à-dire au lieu de résoudre le circuit entier avec toutes les connexions, toutes les portes, tout l'algorithme ils ont créé un circuit simplifié de deux manières différentes donc par exemple on coupe quelques connexions entre les qubits et dans ce cas l'espace d'état du problème devient un petit peu plus petit ou alors on change quelques petites opérations pour permettre de faire des raccourcis dans les simulations classiques et dans les deux cas on est capable de vérifier le résultat du calcul quantique avec les simulations classiques en utilisant un super calculateur et ensuite ils ont fait ça pour un nombre de plus en plus grands de qubits ils ont tracé la courbe du résultat et extrapolé dans le régime de suprématie et ils ont développé un certain nombre de modèles d'erreurs pour cette simulation de sorte qu'ils ont pu dire avec une certaine confiance que cet ordinateur quantique était capable de faire les bonnes choses y compris dans la zone du suprématie même si aucun calcul classique ne peut le vérifier et donc si l'ordinateur quantique faisait quelque chose de faux peut-être que dans 10 ans avec des nouveaux super calculateurs on pourra revenir en arrière et puis vérifier ce fameux calcul à 53 qubits mais alors quand on peut-être cassement là on aura déjà un procès sur quantique alors les résultats clés de ceci c'est que pour la première fois ils ont démontré qu'un ordinateur quantique pouvait mettre un ordinateur classique même si c'était sur un problème très artificiel et même peut-être pas très utile et ce que l'expérience démontre c'est une démonstration éclatante de comment on contrôle à grande échelle un procès sur quantique parce qu'il y a 5-6 ans en 2012 en 2013 donc on faisait des arbres de 4 qubits qui étaient fabriqués sur ces moyennes et maintenant on voit 53 qubits avec un tel degré de contrôle et de fidélité je peux vraiment dire que c'est quelque chose d'impressionnant par raison de ce qu'on a fait il y a 5 ans et j'ai pensé que c'est vraiment une bonne étape sur la route vers le vrai ordinateur quantique et que ça donne des bonnes directions vers les nouveaux secteurs de recherche comme la correction d'erreurs ou divers aspects du procès quantique la recherche aussi était critiquée de toute part alors je vais vous donner un certain nombre d'arguments la première critique c'est que ça ne fait rien du très utile ça n'a absolument qu'une application alors pourquoi c'est vrai c'est parce que bien sûr c'est très compliqué d'aller dans un procès très simple à 2 qubits vers un système où le système peut facturiser des nombreuses entiers ou faire quelque chose d'utile pour qu'on trouve quelque chose de vraiment utile à résoudre dans un court terme donc ça nous explique que la suprémancie quantique ne veut pas forcément dire qu'on peut faire quelque chose de très utile et ne peut pas forcément servir de benchmark sur les processeurs quantiques ça nous montre l'état de l'art donc la recherche a pris aussi un certain nombre de raccourcis donc par exemple des portes à 2 qubits qui ne sont pas des portes canoniques et ça peut être problématique parce que si vous voulez faire tourner un algorithme quantique sur ce système vous devez utiliser des portes quantiques qui ne sont pas... en fait ils ont utilisé des portes non canoniques mais normalement ça devrait être possible d'utiliser des portes standard et en faisant une dernière critique c'est que le problème a été inventé de toutes pièces pour correspondre à la solution et les autres points c'est que si on veut faire un processeur de grande échelle il nous faut quand même une étape, un benchmark et donc ce processus de portes aléatoires est pas mal parce que il permet d'avoir un résultat assez visible et de se comparer à d'autres groupes, d'autres entreprises qui se font concurrent sur le nombre de qubits et le contrôle qui sont dessus donc si vous voulez faire une sorte de lois de mours pour l'informatique quantique donc ici je vous montre par exemple le nombre de qubits qui ont été réalisés pour les systèmes à supra-conduction au fur et à mesure des années mais le nombre de qubits à lui seul ne dit pas grand chose en lui-même sur le système mais il faut prendre en compte les problématiques de connectivité dont j'ai pu parler précédemment donc il faut également parler de temps de cohérence donc c'est seulement une partie de l'aspect du problème mais je pense que ça vous montre quand même que sur les dernières années il y a eu un gros progrès sur ces systèmes parce que le qubit le premier qui a été fait au NEC au Japon a été fait aux alentours de 2000 donc il avait un temps de cohérence très mauvais et des mauvaises propriétés et c'était difficile de contrôler un système qui se basait là-dessus mais ça n'a pas mis très longtemps pour que d'autres équipes continuent à travailler là-dessus et à améliorer les choses donc on a pu obtenir par exemple des temps de cohérence de l'ordre de la micro seconde il y a eu d'autres progrès qui ont été faits par exemple aux Etats-Unis ou par exemple des nouvelles architectures de qubit ont permis de couper les qubits plus efficacement et de les manipuler mieux il y a d'autres groupes tels qu'un groupe de recherche à IBM qui ont repris ces idées qui ont fait de la recherche et qui ont rendu les systèmes encore meilleurs ce qui a permis d'aboutir à des systèmes à 17 ou plus de qubits donc maintenant on a abouti à des systèmes tels que celui de Google avec plus de 50 qubits donc pour quelque chose qui a été fait sur 20 ans je pense que c'est un gros progrès donc si vous me demandez à quel point on est proche d'un ordinateur quantique qui fonctionnerait vraiment je vous dirais que c'est difficile de définir ça parce que pour faire quelque chose d'applicable et d'utilisable on aurait besoin de moins 50 à 100 qubits mais c'est et également vous ne fiez pas totalement à ce tableau parce qu'il y a aussi beaucoup de travaux qui sont faits sur la théorie des problèmes quantiques et à l'heure actuelle il y a beaucoup des équipes de recherche qui s'intéressent à comment fabriquer des ordinateurs à 50 à 100 qubits et du coup il y a vraiment une interaction entre ce qui se fait de leur théorie et ce qui serait faisable en pratique donc il faut voir si il se fait dans les deux à trois prochaines années donc en termes d'applications je pense qu'on verra les premières vraies applications un peu plus tard donc bien sûr ça c'est une grande motivation pour par exemple les agences de renseignement qui voudraient utiliser ça pour casser de la cryptographie mais bon ça ça requirerait un gros nombre de qubits par exemple 800 qubits pour 8000 qubits pour casser une clé RSA environ 8000 qubits donc de mon point de vue ça me semble être une application assez peu réaliste de l'informatique quantique donc pour résumer donc les ordinateurs quantiques ou les processeurs quantiques sont en train de devenir vraiment quelque chose de complexe on a pu voir de gros progress sur les dernières années non plus il reste des challenges à résoudre par exemple en termes de correction d'erreur et d'autres qu'on a besoin de dépasser et il y en a d'autres qu'on n'a probablement pas encore identifié et qu'on rencontrera seulement plus tard lorsqu'on aura de plus gros processeurs un autre point que je voudrais également souligner c'est que la recherche sur l'informatique quantique n'est pas seulement effectuée par Google et IBM il y a d'autres groupes dans le monde qui s'intéressent à ça qui s'intéressent à la théorie qui font des expériences et qui font avancer les choses sur ce qui est possible de faire aujourd'hui donc c'est vraiment un effort au niveau mondial et lorsque vous voyez ces publications par exemple de Google vous dire que c'est pas que la hype leur revient pas entièrement il vous intéresse un peu à ce qu'il y a derrière donc c'est tout donc je serais ravie de prendre quelques questions si vous avez du feedback ou des questions, vous avez ici mon Twitter et mon adresse mail merci beaucoup merci Andreas on a quasiment 20 minutes pour les questions donc si vous avez des questions mettez-vous au niveau des micros on va commencer avec une question internet merci est-ce que vous avez des informations liées à la consommation d'énergie pour un ordinateur quantique alors c'est une question intéressante pour les ordinateurs supraconducteurs il y a 7 coûts associés le coût le plus grand c'est de réussir à refroidir le système il faut le garder à une très bonne température environ 20 000 kV donc on a ces cryostats à délution ils consomment beaucoup d'énergie et des matériaux comme les liaumes c'est très cher et on a pas vraiment le bon matériau à l'heure de maintenant pour la consommation d'énergie j'ai pas vraiment totalement d'idées pour la ménuation des qubits on utilise des micro-ondes mais en fait c'est une très très basse consommation par rapport à l'énergie qui est utilisée pour refroidir le système donc dans le futur très probablement la consommation d'énergie pourrait être dominée par le refroidissement et ensuite peut-être l'électronique classique qui contrôle ces qubits qui peut être assez importante mais le qubit lui-même reste totalement négligeable en termes de consommation d'énergie micro numéro s'il vous plaît j'ai une question sur la simulation quantique donc j'aurais pensé que 53 qubits ce serait déjà quelque chose d'intéressant parce que pense que les limites en chimie quantique sont de l'ordre de l'article j'ai pas réussi à trouver exactement pourquoi ils ont choisi ce problème en particulier il y a deux accès le premier c'est que vous n'avez pas dans le système un contrôle arbitraire sur les qubits donc vous ne pouvez pas lancer n'importe quel amytonien n'importe quel algorithme quantique que vous voulez vous êtes limité en termes de connectivité donc c'est possible qu'ils aient pas été capables de lancer un algorithme quantique de simulation qui serait pas non plus facile aussi à lancer sur l'interclassique si ils avaient eu la possibilité de faire des simulations quantiques c'est bien sûr beaucoup plus impressionnant que des algorithmes aléatoires et si ils l'ont pas fait je pense que c'était vraiment trop compliqué et impossible à réaliser sur leur système mais bon je suis pas sûr et en tant que chimiste quantique occasionnel on peut pas m'appeler directement des qubits microphone n°2 oui à propos de l'ordinateur quantique réalisé par D-Wave ils ont environ 2000 qubits qu'est ce que vous avez à dire c'est une question intéressante l'ordinateur de D-Wave c'est un ordinateur quantique adiabatique donc là le calcul fonctionne de manière un peu différente avec cet ordinateur quantique que Google a produit vous avez vraiment des suites de porte quantique vous lisez le résultat dans le système de D-Wave en fait vous devez créer Hamiltonien qui est consistant avec les interactions locales entre les qubits et en fait vous modifiez lentement ce Hamiltonien pour modifier l'état de base du système pour devenir la solution du problème que vous cherchez c'est une approche différente au calcul quantique alors ils prétendent qu'ils peuvent obtenir la solution quantique d'une autre manière pour des problèmes de optimisation mais à ma connaissance la preuve qu'ils ont est peut-être un peu moins rigoureuse que celle que Google a produit mais bon là encore je ne suis pas un expert en informatique quantique adiabatique donc bon je pense que la preuve que Google a produit ici est quand même un peu plus convainquante et vraiment la preuve qu'on fait quelque chose qui ne peut pas être fait sur l'audiateur classique et D-Wave doit voir des choses différemment micro 7 s'il vous plaît bonjour micro 7 bonjour j'ai lu que plus tôt dans l'année IBM a publié le premier système donc qu'est-ce qu'on peut qu'est-ce que IBM crée en termes d'attente commerciale alors oui j'ai parlé à quelques entreprises et c'est en Allemagne qui travaillent avec IBM ou D-Wave et même Google et j'ai demandé qu'est-ce qu'il faisait quantique et quelle était l'offre de la compagnie et bon la réponse c'est qu'en ce moment commercialement il y a pas mal de compagnies qui investissent dans quelque chose qui pourrait potentiellement être utile dans 5 à 10 ans donc qui veulent faire quelques expériences en gagner de l'expérience et pas vraiment une question en production de calcul quantique qui serait pas possible sur l'informatique classique mais bon j'ai pas la vue d'ensemble total je pense que ici la plupart des clients s'attendent à ce que dans 5-10 ans le système sera suffisamment puissant pour faire quelques calculs utiles aussi question internet avec les ordinateurs quantiques on peut calculer des choses en parallèle mais oui c'est vrai mais si vous faites un calcul classique vous devez le faire d'une certaine manière mais à ma connaissance pour une objective d'efficacité vous pouvez implémenter n'importe quel algorithme classique non réversible sans perte de complexité donc par exemple vous avez des portes universelles comme la porte contrôle note et si vous voulez exprimer n'importe quel logique bon vous aurez peut-être besoin de plus de qubits que le nombre de bits du calcul classique mais en théorie il n'y a rien qui vous empêche d'implémenter n'importe quelle fonction classique dans l'ordinateur quantique en termes de performance, ça dépend de quelle vitesse on peut exécuter l'opération individuelle elle occupe le plus rapide de la machine de Google il fonctionne en 20 et quelques nanosecondes donc du coup l'ordinateur quantique doit être plus lent qu'un ordinateur classique mais l'idée c'est qu'encore on ne fait que les opérations spéciales qui ne sont pas plus similes sur les ordinateurs classiques dans l'ordinateur quantique on reste sur l'ordinateur classique donc on pense un ordinateur quantique comme une sorte de coprocesseur comme les GPU etc vous avez dit que les ordinateurs quantiques ont été inventés pour simuler des problèmes quantiques, est-ce que vous pouvez nous en dire plus ? je ne vais pas mettre le lien vers la conférence ici le lien est cassé, vous pouvez trouver en ligne c'est une conférence de Feynman qui explique comment on simule les systèmes quantiques il a montré que si on veut simuler complètement un système quantique vous devez simuler la matrice de densité du système et ça prend une quantité exponentielle de mémoire pour le calcul en termes du nombre de degrés quantiques de liberté et donc sur le machine de Turing vous ne pouvez pas le faire de manière efficace parce qu'à chaque fois que vous ajoutez un Qubit vous quadruplez la quantité de calcul nécessaire et donc l'idée venait de vraiment Feynman comment simuler un système quantique de la mécanique quantique et il s'est dit que pour des très grands systèmes ce serait jamais possible sur une informatique quantique et que aucun auditeur classique n'arriverait à faire ses simulations d'une manière efficace est-ce que ça répond à la question ? oui micro 8 s'il vous plaît donc en tant que physicien qui fait maintenant du design de 6 circuits analogues donc je me suis demandé pourquoi les ordinateurs quantiques utilisent seulement les états 0 et 1 et pas d'autre davantage alors en principe les bit quantiques qu'on utilise sont pas vraiment des systèmes à deux niveaux et pas juste le niveau 0 et 1 il y a aussi l'état de 3 etc mais la puissance de calcul du système vient vraiment du nombre d'état à la puissance le nombre du qubit et à la puissance n donc ça veut dire que quand on ajoute encore un état on change un facteur un peu plus petit que rajouter un autre qubit donc c'est pas forcément très intéressant d'ajouter un nouvel état il suffit d'ajouter plus de qubits alors pour la mécanique quantique en variable continue alors il y a des cas d'utilisation qui vont plus vite que les ordinateurs quantiques discrets surtout quand vous pouvez concevoir votre système pour mimer le Hamiltonian du système que vous voulez résoudre et donc il y a des cas où on veut lancer un calcul quantique général et dans ce cas là, les ordinateurs quantiques continuent pour être la bonne solution à ce problème par exemple, si vous vouliez lancer une simulation quantique sur un ordinateur basé sur des portes bon à la fin ce serait quand même la même complexité linéaire je crois que j'avais cru comprendre que le nombre d'éléments non diagonaux c'est une maîtrise de densité grandissime plus vite que le reste micro 3 s'il vous plait qui est ce que vous avez à dire au sujet du scepticisme de certaines personnes qui peut-être que le problème de bruit sera un gros problème dans la mise à l'échelle alors c'est une inquiétude valide effectivement aujourd'hui même pour un qubit on n'a encore jamais réussi à démontrer la correction d'erreur je crois que le laboratoire Chukov a réussi à démontrer des exemples de correction d'erreur mais on n'a pas encore réussi à maintenir un qubit individuel vivant pendant un temps indéfini donc ça c'est vraiment un problème de design fondamental donc je pense que dans la prochaine dessine on va mettre ces corrections d'erreur et résoudre ces problèmes qui nous empêchent de faire un auteur à plus grande échelle donc il y a eu une étude sur la factorisation sur des machines adiabatic qui nécessitent l'octe de N4 et Q8 mais puisque les systèmes adiabatic ont beaucoup plus de Q8 on a pu factoriser sur ces machines des nombres beaucoup plus grands que sur des systèmes normaux c'est quelque chose qui n'a jamais mentionné dans la discussion est-ce que vous voulez apporter des commentaires est-ce que vous avez lu cette étude est-ce que vous avez lu ça sur les machines adiabatic alors comme je dis je ne suis pas un expert en informatique quantique adiabatique donc je sais qu'il y a des études des recherches sur le système de D-Wave alors je n'ai pas lu celle-ci sur la factorisation en particulier alors je pense que l'informatique quantique adiabatique c'est une preuve valide simplement je ne suis pas sûr que les résultats sont présentés avec le même degré de rigueur que pour les ingénieurs quantiques à portes mais bon j'aimerais bien la part est-ce que vous pourriez citer les auteurs si le micro est encore allumé désolé je ne me rappelle pas mais je ne pense pas que l'informatique quantique adiabatique je pense que c'est vraiment un choix valide une approche valide pour les calculs quantiques je peux chercher les auteurs plus tard et vous les fournir micro 4 s'il vous plaît qu'est-ce que vous avez à dire sur le fait que IBM prétend que ce que Google annonce comme de la suprématie quantique alors oui ce que IBM prétend c'est qu'ils ont réussi à faire des optimisations sur la simulation classique pour réussir à la faire tourner en quelques heures alors je pense que c'est une annonce valide je ne dis pas que c'est faux mais je pense aussi que la puissance des systèmes classiques va augmenter dans les années qui viennent et bon si on n'a pas la suprématie par rapport à du matériel de 2012 on va comparer au matériel de 2050 et puis on va dire oui ils ont la suprématie quantique mais la question c'est pas est-ce qu'on est précisément dans le régime de suprématie ou pas c'est vraiment le degré de contrôle sur les qubits que ce groupe a réussi à atteindre et c'est vraiment ça qui est important un dépendement du fait qu'ils aient vraiment réussi ou pas à atteindre la suprématie quantique en tout cas ça nous donne vraiment des indications sur l'architecture à utiliser pour créer des ordinateurs quantiques plus grands et c'est vraiment ça qu'il faut retenir plutôt que vraiment est-ce que c'était la suprématie ou pas exactement l'article s'appelle Recuit quantique pour la facturisation de nom premier alors c'est Diabrit Makarski Merci, merci, je vais regarder donc on sait que c'est pas très facile de comprendre la question c'est pas très facile de comprendre comment de la de la superposition quantique va dans un état microscopique est-ce qu'il y a quelque chose que vous pouvez nous dire lorsque l'on passe à plusieurs milliers de millions de qubits c'est ce que quelque chose pourrait se passer de particulier est-ce que c'est un problème que l'on considère Alors j'ai pas sûr d'avoir totalement compris la question je crois que c'est un peu est-ce que la mécanique quantique passe à l'échelle est-ce qu'il y a pas un moment où ça devient irréversible quelque chose comme ça alors je pense qu'il y a des gros systèmes quantiques qui existent dans la nature comme les condensats de Bosenstein par exemple de créer de liberté et de contrôle il y a aussi la mécanique quantique continue de tout fonctionner donc moi je dirais qu'il n'y a pas une telle limite mais après c'est de la physique expérimentale donc à voir si on y arrive mais pour moi il n'y a pas d'indication en mécanique quantique qui aurait une limite peut-être qu'on vous verrait encore dans cinq ans on duquait merci