 Willkommen zur deutschen Übersetzung von Quantencomputer. Das sind wir inzwischen angekommen von Andreas Davis live vom 36. Chaos-Communication-Kongress in Leipzig. Alle Talks am Kongress werden live zwischen Deutsch und Englisch und in eine weitere Sprache übersetzt heute französisch. Für weitere Details und Informationen, wie die Streams genutzt werden können, besucht c3linguo.org. Wir freuen uns über eure Rückmeldungen bevorzugt mit Hashtag C3T. Eure Übersetzer für diesen Talks sind Lukaro, OS 10.000 und MFH. Vielen Dank. Also dieser Talk, der er war schon mal vor ein paar Jahren und jetzt gibt es ein Update dazu, was ich seitdem in der Wissenschaft in dem Feld getan habe. Also willkommen. Vielen Dank, dass er mich wieder empfangt, wo ich vor fünf Jahren schon mal darüber geredet habe, die Motivation, die ich hier habe, um das vorzutragen, ist, ich habe eine Doktorarbeit von 2009 bis 2012 gemacht über Quantencomputer und die Leute kommen immer wieder zu mir. Da ist ein neues Experiment, da ist ein neues Experiment. Und jetzt könnte ein Quantencomputer beim Amazon kaufen, der Google hat einen neuen Quantistings. Geht das? Können wir das jetzt benutzen? Warum bist du nicht da dran? Und ich konnte diese Fragen alle nicht beantworten. Oh, und jetzt habe ich gesagt, ich gehe mal zurück und schaue mal die letzten fünf Jahre an, wie sich das Feld weiterentwickelt hat und ob wir tatsächlich Quantencomputer haben oder ob wir da noch nicht angekommen sind. Wir machen das so. Ich gebe erstmal eine Übersicht über Quantencomputer, dass wir eine gleiche Sicht darauf haben und was interessant ist. Und dann zeige ich euch ein kleines Beispiel. Arbeit, die ich in meiner Doktorarbeit gemacht habe. Dann beschäftigen wir uns mit Herausforderungen und Problemen. Warum man damals keine echten Quantencomputer bauen konnte. Dann schauen wir uns an, was für Ansätze es gab, die es irgendwann erlaubt haben könnten. Und jetzt schauen wir Google's Experiment an in Santa Barbara, wo sie ein eindrucksvolles Quantencomputer-System mit 53 Kubits gezeigt haben, versuchen zu verstehen, was sie da gemacht haben und versuchen zu beurteilen, ob das echt ein tatsächlicher Quantencomputer ist oder ob da noch was fehlt. Und am Schluss möchte ich nochmal eine kleine Ausschau geben, was in künftigen Jahren so alles zu erwarten ist. Also um über Quantencomputer zu reden, da muss man erstmal über klassische Computer reden. Und wie ihr vielleicht wisst, funktioniert die mit 0 und 1 und die werden in Register gespeichert. Und hier ist ein Bitregister, die Bits alleine sind nicht so wirklich interessant. Man muss irgendwas mit ihnen tun können und wir können Funktionen mit diesen Bitregistern berechnen. Das ist eine moderne CPUs machen. Das ist jetzt eine einfache Beschreibung. Wir nehmen irgendwelche Inputs, dann berechnen wir eine Funktion und dann kriegen wir irgendeine Ausgabe. Ein einfaches Beispiel wäre ein Suchproblem. Ich beschreibe das hier mal, weil wir später einen Quantencomputer sehen, der das auch lösen kann. Und es ist eine einfache Suchfunktion, die mit zwei Bits und dann kommt Bits raus, ob das die Lösung ist für das Problem oder nicht. Man könnte sich alle möglichen Funktionen vorstellen, aber nur die ersten zwei Bits davon. Das ist vielleicht schwierig umzusetzen und schwer zu berechnen, um diese Funktion einmal zu berechnen. Wir wollen wirklich die richtige Antwort wissen, mit möglichst wenigen Funktionen aufrufen. Es gibt vier Möglichkeiten. Diese Eingabe Zustände 0, 0, 1, 1, 0, 1, 1, 1, 1, das ist die ober- eine Zeile. Und nur einer. Also nur einer gibt uns Grün, und das heißt für 42, das heißt, für alle anderen gibt das den uns in Null, und bei dem gibt es uns ein 1. Jetzt schauen wir mal, wie wir eine einfache Suchfunktion aufbauen können. Wenn wir nichts über die Funktion wissen, die es so kompliziert, dass wir keine Optimierung machen können, wir wissen nicht, wo wir schauen sollen. Wir müssen jeden dieser Werte nacheinander durchprobieren. Und da haben wir einen einfachen Algorithmus. Wir initialisieren unser Bittregister mit 00, dann rufen wir die Funktion auf, dann rufen wir die Funktion auf und schauen, was das Ergebnis ist. Hier ist es 0. Wenn es 1 ist, dann haben wir es gefunden. Und hier ist es 0. Und deswegen gehen wir zurück zur linken Seite und erhöhen das Register um 1 und probieren es noch mal. In einem schlimmsten Fall müssen wir das 3 oder 4 Mal machen. Wenn wir wirklich sicher sein wollen, müssen wir im schlimmsten Fall 4 Mal machen. Und das ist die Zeitkomplexität oder die Errechenkomplexität von dieser Suche. Die teuerste Operation ist, diese Funktion aufzurufen. Das heißt, die Komplexität, diese Funktionsausführung dominiert die Kosten für die Gesamtsuche. Und es ist linear in der Anzahl des Suchaums. Wir haben vier mögliche Inputszustände. Und das heißt, wir müssen die Funktion vier mal aufrufen. Und später kommen wir zurück und vielleicht kommen wir mit einem anderen Computeransatz. Und wir können uns das hier besser hinkriegen. Aber da wir nichts anderes über die Funktion wissen, mit dem wir optimieren müssen, könnten wir das halt so machen. Wir könnten uns vorstellen, dass wir keine Classic Computer verwenden. Die Disziplin Quanten Computing ist inspiriert von Richard Feynman, inspiriert. Und der hat darüber nachgedacht, oder ob es möglich wäre, Quantensysteme auf klassischen Computern zu simulieren auf Touringmaschinen. Und weil Quantenmechanik so kompliziert ist, geht das nicht effizient. Aber wenn man die Quantengesetze selber nimmt, um einen Computer zu bauen, dann könnte man die einfach simulieren. Und das hat die Idee losgetreten, Quantencomputer zu bauen. Und später hat manche nur Lösungen für Quantenprobleme gelöst, sondern auch für andere Probleme, die ihm nichts mit Quantenphysik zu tun haben. Suchprobleme, Faktorisierungsprobleme. Ein Quantencomputer kann die Berechnung schneller durchführen als ein klassischer Computer, weil sie anders funktionieren. Eine von den Kernunterschieden ist diese Superposition. Wenn ich ein Quantencomputer benutze, dann kann ich nicht nur einen Registerwert laden. Ich kann also nicht nur den ersten Wert mit allen Nullen nehmen, sondern ich kann alle diese Werte gleichzeitig reinladen. Und dieser Quantenzustand oder Quantenzuperposition hat jeder von diesen Dingen eine Amplitude. Das ist eine komplexe Zahl. Dieses Cupid mit den anderen Zuständen überlagt. Also wenn ich N-Cupid habe, kann das sehr groß werden, nämlich 2 hoch N. Und das kann sehr mächtige Berechnungen durchführen. Im restlichen Vortag werden wir das nur andeuten, indem wir das Register wie ein kleines Quadrat darstellen, um darzustellen, dass es nicht nur ein einziger Wert ist, sondern eine Superposition mit allen möglichen Inputwerten für unsere Funktionen. Das ist eine Normalisierungsbedingung, mit der man ein paar Bedingungen auf diese Kombination setzt. Die absoluten Werte müssen sich auf eins aufsinnieren. Die gesamte Wahrscheinlichkeit von allen Zuständen muss 100% sein. Das ergibt ja auch Sinn. Das ist die erste Zutat, die Quantencomputer so interessant für ihre Rechnung macht, weil wir können jede bliebige klassische Funktion, die man auf einem klassischen Computer laufen lassen könnte, auf einem Quantencomputer implementieren. Aber wir können es nicht nur sequenziell für einen Wert pro Zeit laufen lassen, sondern wir können es mit einer Superposition von allen möglichen Angabewerten laufen lassen. Also man hat eine massive Parallelisierung, wenn man die Berechnung auf allen möglichen Werten gleichzeitig laufen lässt, und dann bekommen wir noch alle Ausgabewerte gleichzeitig. Das klingt natürlich total interessant und sehr nützlich. Da ist natürlich noch ein Haken dran, aber da sprechen wir hier Fremden bitte noch mal darüber. Es ist natürlich nicht so einfach, wie es jetzt klingt, aber das ist ein Teil, warum Quantencomputing so interessant ist. Der nächste Unterschied ist, dass auf einem Quantencomputer nicht nur klassische Funktionen laufen lassen kann, sondern man kann auch so Quantengatter laufen lassen. Die sind deshalb unterschiedlich, weil sie im Gegensatz zu den klassischen Funktionen können sie nicht nur klassische Verknüpfungen wie und oder oder machen, sondern sie können auf dem gesamten Zustand des Registers auf einmal arbeiten und auch so verknüpfte Zustände erreichen. Also total komische Quantenzustände, wo man nicht den Zustand eines einzigen Kubits von anderen Kubits abtrennen kann. Also wenn man eine Veränderung zu einem Kubit in einem System machen möchte, dann würde man alle anderen Kubits auch verändern. Also man kann die Kubits nicht mehr voneinander abtrennen, wie in einem klassischen Computer. Und das ist eine andere Ressource, die wir beim Quantencomputer benutzen können, um bestimmte Probleme schneller zu lösen, als es auf einem klassischen Computer möglich wäre. Ja, der Haken daran ist, dass wir nicht nur Berechnungen mit unseren Kubits anstellen möchten, wir möchten natürlich auch das Ergebnis am Ende ablesen können. Und wenn wir das versuchen, also wenn wir eine Berechnung machen und am Ende möchten wir die Zustände unseres Quantenregisters ablesen, dann bekommen wir ein kleines Problem, weil die Messung ist ziemlich kompliziert, aber wenn man jetzt einfach betrachtet, dann wirft Gott im Prinzip einen Würfel und dann gibt es einen Quantenzustand Vektor und dann gibt es diese Amplituden auf der linken Seite, A1 bis An, dann wird Gott ein Zustand daraus auswählen und die Wahrscheinlichkeit, einen bestimmten Zustand zu erreichen, ist jetzt proportional zum Quadrat der Amplitude. Also man kann Berechnungen auf allen möglichen Eingaben werden gleichzeitig machen, aber wenn man das Ergebnis auslesen, bekommen wir nur ein mögliches Ergebnis. Und das zerstört natürlich erst mal auf den ersten Blick die Nützlichkeit von Quantencomputern, weil wir können zwar Berechnungen auf allen Zuständen gleichzeitig machen, aber wir können nicht das Ergebnis von allen Ergebnissen auslesen. Wir können jetzt nicht, die Ausgabe können wir jetzt nicht so leicht verwenden, zumindest auf den ersten Blick, aber ich stelle sich heraus, dass es tatsächlich einen Weg gibt, wie man Quantencomputer benutzen kann, um schneller als klassische Computer zu sein und der erste nützliche Algorithmus für einen Suchproblem, und zwar das Suchproblem, das wir gerade schon besprochen haben, wurde von Love Gouda erfunden, der ist natürlich nach ihm benannt, und das ist im Prinzip ein Suchalgorithmus, der, wie wir sehen können, oder wie wir sehen werden, das Suchproblem, was wir jetzt schon gesehen haben, im sehr viel effizienteren Weg lösen können, als es einen klassischen Computer lösen könnte. Und in meiner Meinung nach, es ist eines der schönsten, oder wie viel ich sogar der schönste Quantenalgorithmus war, der so einfach ist, aber trotzdem sehr mächtig. Es gibt auch einen Beweis an das für andere Algorithmen, das ist ein cooles Algorithmus von Schor. Da gibt es keine Beweishöhe, aber der Grover Algorithmus hat einen Beweis, dass er immer schneller sein wird als jeder andere klassische Computeransatz. Also es ist ein ziemlich cooler Ansatz und ein cooles Beispiel, um zu zeigen, warum kompkupfanten Ansätze schneller sind als klassische. Lass uns mal anschauen, wie das funktioniert. Also es gibt drei Schritte wieder im Algorithmus. Zuerst, wir initialieren, sehen wir unsere Q-Bit Register, unseren Status-Zustands-Vektor als Superposition von allen vier möglichen Ausgabewerten, also 0, 0, 0, 1, 1, 0 und 1, 1. Natürlich alle mit gleicher Wahrscheinlichkeit, also mit gleicher Amplitude. Dann evaluieren wir die Funktion auf diesem Superpositionseingabezustand und was die Funktion dann macht ist. Wir haben jetzt hier was Spezielles programmiert. Es markiert die Lösung unseres Problems bei, in dem es die Amplitude von dem jeweiligen Zustand negiert. Also wir sehen, dass der Zustand 0, 1 jetzt ein negatives Vorzeichen hat, das heißt, dass die Lösungen von unseren Problems, die wir gesucht haben. Wenn man jetzt aber die Ablesen, also das Ablesen macht, würden wir da jetzt noch nichts daraus lernen, weil wie man sehen kann, die Amplitude ist immer noch gleich für alle vier Zustände. Also wenn man jetzt eine Ablesung macht, würde man zufällig ein der vier möglichen Zustände erhalten. Also wir würden jetzt nichts Neues daraus lernen und auch nichts über die Wahrscheinlichkeit dieser Lösung. Also um das herauszufinden, müssen wir noch einen anderen Schritt hinzufügen, nämlich den Grover-Operator, also Operator, oder den Diffusionsoperator, was der jetzt dieses Vorzeichen unterschied verwendet zwischen den Zuständen und einen Quantenoperator darauf anwendet, der die Amplitude von allen Zuständen, die nicht die Lösung unseres Problems sind, zu der Wahrscheinlichkeit überführt, die unsere Lösung ist. Und für den Fall unserer zwei Cubits haben wir vier mögliche Wege und das ist nur ein Schritt, den wir benötigen. Wenn wir das ausgeführt haben, sieht man, dass die Amplitude unseres Lösungszustands eins ist und die Amplitude von allen anderen Zuständen ist null. Das heißt jetzt, wir können jetzt hier einfach eine normale Cubit-Messung machen und wir haben eine hundertprozentige Wahrscheinlichkeit, dass wir die Lösung zu unserem So-Problem bekommen. Und das ist, wo man die Magie der Quantenmechanik sieht. Man kann die Funktion einfach nur einmal evaluieren. Also wenn man den ersten Schritt anschaut, wir haben die Funktion nur einmal aufgerufen, aber mit allen Werten parallel. Also von der Berechnungskomplexität sind wir viel niediger als beim klassischen Algorithmus, aber trotzdem können wir mit hundertprozentiger Wahrscheinlichkeit sagen, welcher Status die Lösung zu unseres Problems darstellt. Und das funktioniert natürlich nicht nur für zwei Cubits, sondern natürlich auch mit größeren Cubit-Registern. Also wenn man jetzt zehn Cubits verwenden würde, könnte man natürlich, müsste man die Schritte 2 und 3 ein bisschen öfter ausfinden, also nicht nur eine Durchlauf, sondern vielleicht 25 Durchläufe. Aber es ist immer noch viel besser als die 1024 Iteration, wenn man sich jede einzelne Lösung der Funktion in einem klassischen Algorithmus anschauen würde. Also der Vorteil ist hier, oder die Beschleunigung muss ich zu sagen, ist ziemlich groß. Also es ist ein quadratischer Lösungsraum und wenn man jetzt die Komplexität anschaut, dann kann man jetzt die klassischen Algorithmus mit dem Grover-Algorithmus vergleichen. Und wie man sehen kann, ist es die Zeitkomplexität oder die Anzahl der Auswertungen von F, die wir brauchen, ist jetzt nur noch eine Wurzel von N, also eine Wurzel der Suchraumgröße, was zeigt, dass wir jetzt ein ziemlich Geschwindigkeitsvorteil vom Quantencomputer gegenüber zum klassischen Computer haben. Und das Interessante daran ist, die Größe unserer Suchraum ist, desto dramatischer, desto größer wird unser Geschwindigkeitsvorteil. Also wenn man jetzt ein Suchraum mit einer Million Elemente hätte, dann müsste man die Funktion nur 1.000 Mal evaluieren, muss man statt eine Million Mal. Also da kann man sehen, dass der Geschwindigkeitsvorteil da noch größer wird. So. Ja, wie können wir jetzt ein System bauen, was das möglich macht, was das erlaubt? Hier sieht man einen ziemlich einfachen Quantenprozessor, den ich im Rahmen meiner Doktorbeit gebaut habe. Also wenn man da mehr Informationen darauf haben möchte, dann sollte man meinen letzten Vortrag anschauen. Ich werde jetzt nur kurz über verschiedene Aspekte drüber gehen. Wir haben hier eine super leitende Cubits verwendet, um unsere Quantencomputer-Eigenschaften umzusetzen. Wir können sehen, also das ist der Chip oben auf der oberen Hälfte. Er ist 1 cm Durchmesser und da sieht man die 2 Cubits in der Mitte. Und die schlangenartigen Strukturen sind Wellenricht, Wellenlinien sozusagen, sodass wir unsere Cubits mit Wellenlängen manipulieren können. Und so können wir unsere Cubits quasi programmieren und später wieder auslesen. Wenn man in die Mitte schaut, dann sieht man diesen roten Bereich, der jeden Cubit enthält. Und dann gibt es da noch eine Vergrößerung, was die tatsächliche Struktur der Cubits enthält. Also es sind einfach nur 2 Schichten von Aluminium, die sich aufeinander aufgeschichtet wurden. Und wenn sie stark abgekühlt werden, gehen die über so einen Superleiterzustand über, wo man dann halt einen Leitendenzustand zwischen den beiden Ebenen feststellen kann, um anzuzeigen oder umzusetzen, also um unsere Cubits umzusetzen. Und es gibt ja auch eine Kopplung, das ist dieses grüne Element in der Mitte, der es uns dann wirklich Quantenoperationen zwischen diesen Cubitszustand durchzuführen. Um das in der Praxis zu verwenden, muss man das in einen lüstigen Krörstarten hineinsetzen, was im Prinzip einfach nur ein Kühlschrank ist. Man führt das zu 10 Millikelvin, eine ganz geringe Temperatur, nur wenig über der absoluten Temperatur. Man sieht auf der rechten Seite den Halter dafür. Das kommt danach in den entsprechenden Kühlschrank, wird heruntergekühlt. Und dann kann man es manipulieren mit diesen Microwave-Linien, die wir vorgesehen haben. Damit haben wir den Groversuchalgorithmus für zwei Cubits implementiert. Wir haben ihn ausgeführt, wie ich zuvor diskutiert habe. Ich möchte jetzt nicht so darauf eingehen. Die Ergebnisse bekommt man, indem man den Algorithmus sehr oft ausführt. Wir haben allerdings keine 100 Prozent Erfolgsrate erhalten, nur ein bisschen über 50 Prozent. Das ist nicht so gut, aber es ist in Ordnung für uns, um zu sehen, dass der Quantenspeeder wirklich erreicht werden kann. Nun, jetzt fragt man sich, warum sind 100 Prozent Wahrscheinlichkeit nicht möglich? Warum haben wir keine größeren Systeme verwenden? Warum haben wir nicht 1.000 oder 100.000 Cubits Prozessoren gebaut? Da gibt es mehrere Gründe dafür, warum wir das nicht hinbekommen haben. Zum Beispiel macht man Fehler, wenn man die Cubits manipuliert. Microwave-Signale sind nicht perfekt, die machen Fehler. Da kann man dann ein Cubit und zwei Cubit-Interaktionen nicht immer richtig implementieren. Wenn natürlich jeder Cubit mit jedem Cubit verbunden werden soll, dann muss man eine Million Verbindungen machen. Das ist natürlich ziemlich schwierig, wenn man das ingenieurswissenschaftlich durchführen will. Außerdem haben die Cubits selbst natürlich auch Fehler, weil die Umgebung der Cubits, Chip und die Umgebung als solche verschiedene Störungen einführen und das insgesamt limitiert einfach die Mengenoperationen, die wir durchführen können. Da gibt es jetzt mehrere Lösungen, eine mögliche Lösung. Das ist die sogenannte Grenzflächengekühlte Architektur von David Vincenzo von der Jülich, vom Forschungszentrum Jülich. Der Gedanke ist, dass man da kein Quantenprozessor hat, der wirklich jedes Cubit mit jedem verbindet. Alternativ, hier in diesem Setup verbindet man nur ein Cubit mit seinen vier Nachbarn. Das ist viel einfacher, man muss nicht so viele Verbindungen auf den Chip brauchen. Man kann trotzdem immer noch alle Algorithmen ausführen. Man muss da ein bisschen was dafür bezahlen. Aber im Verhältnis kann man so ein Cubit viel einfacher bauen. Man kann tatsächlich so einen logischen Cubit ausdrücken, über fünf physikalische Cubits. Zum Beispiel kann man mit diesen fünf Cubits hier auf diesem Chip als einen logischen Cubit auffassen, damit man zum Beispiel Fehlerkorrekturen durchführen. Wenn man zum Beispiel eine Relaxation zu Phasenverschiebungsfehler hat, kann man mit den anderen Cubits verwenden, um diesen Fehler zu verbessern und dann die Berechnungen weiterhin durchführen. In so einem superleitenden Cubit-System gibt es immer wieder Fehler. Diese Fehler muss man korrigieren und dafür muss man einfach Methoden entwickeln, die diese Fehler korrigieren. Der Google Prozessor hat diesen Surface-Code-Ansatz. Hier habe ich ein Bild aus dem Nature-Artikel, der gerade vor wenigen Monaten herausgegeben wurde. Es ist ein ziemlich beeindruckendes System mit 53 Cubits und 86 Kupplungselementen dazwischen. Sie haben eine Erfolgswahrscheinlichkeit, die Fidelity über 99 Prozent. Das ist ein ziemlich beeindruckendes, sehr, sehr gutes Ergebnis und das ist fast genügend Fidelity, um Quantenfehlerkorrekturen zu erreichen. Mit diesem System kann man ziemlich komplexe Quantenargorithmen ausführen, viel komplexere als die, die wir 2012 hinbekommen haben. Zum Beispiel Sie haben in Ihrem Paper eine 10 bis 20 Quantum-Gate-Operation durchgeführt, einfach nur um Euch einen Eindruck zu geben, dass es einfach um einen Eindruck von dem Cryostatischen um Mikrowellen-Engineurswissenschaft zu geben, die hier verwendet werden muss. Man sieht hier, dass es deutlich komplexer ist, als das Objekt, das wir 2012 verwendet haben, um die Cubits zu kühlen und zu halten. Wenn man jetzt ein Physiker fragt, warum man so ein Bild, so ein System aufbauen möchte, die Antwort wäre, das Physiker wäre natürlich, das ist awesome, das ist super. Wenn jetzt aber eine Organisation wie Google 100 Millionen US-Dollar ausgibt, um so ein Forschungsprojekt zu starten, dann wollen Sie natürlich Ergebnisse sehen. Die Frage ist jetzt, Sie wollen jetzt natürlich diesen Quantenprozessor verwenden, um zu zeigen, dass diese Quantenprozessor klassische Computer im Schatten lassen können. Das hört sich jetzt zunächst mal einfach an, aber in der Praxis ist es gar nicht so einfach, ein Problem zu finden, dass man sowohl auf dem Quantencomputer tatsächlich ausführen kann, dass das umgekehrt trotzdem nicht auf einem klassischen Computer ausführbar ist. Ein Beispiel wäre zum Beispiel die Faktorisierung von Zahlen in ihrer Primfaktoren. Das ist immer eine Motivation für die verschiedenen Sicherheitsagenturen, National Security Agency usw., um unsere E-Mails zu lesen. Aber in diesem Prozessor kann man sowas nicht durchführen, weil er einfach noch zu klein dafür ist. Eine andere Idee wäre eine Simulation von Quantensystemen, Moleküle oder größere Systeme, die sehr schwierig sind, auf klassischen Computern hindurchzuführen, auf unsere hohen Freiheitskreide, Menge an Freiheitskarten, aber die Kugelleute haben das zum Beispiel nicht durchgeführt. Also gehe ich jetzt mal davon aus, dass die Kugelleute nicht so eine Simulation sein könnten, aber zumindest keine Simulation, die auf klassischen Computern nicht durchführbar ist. Aber in der Zukunft, das könnte in der Tat eine relevante Anwendung für so ein Computer sein. Die letzte Möglichkeit wäre zum Beispiel so ein Suchalgorithmus, den wir ganz am Anfang uns angeschaut haben, aber für die Anzahl an Cubits, die wir hier gesehen haben, die größte des Suchraums, das ist immer noch nicht möglich, wenn man so einen Such einfach zu viele Schritte brauchen würde und deswegen kann man so ein Suchalgorithmus auf so einem Computer immer noch nicht durchführen. Was haben Sie sich da dessen gemacht? Sie haben ein anderes Experiment durchgeführt, eines, was Sie halt mit Ihrem Prozess da durchführen konnten, das ist die sogenannte Randomized Benchmarking, zufälliges Benchmarking. Und was Sie da eben gemacht haben, ist anstatt ein Algorithmus tatsächlich durchzuführen, der irgendwas Sinnvolles macht. Man führt einfach eine zufällige Menge an Gates, eine zufällige Operation an Gates durch. Zum Beispiel macht man einfach mal Menge an Ein-Cubit-Gates, die nur Ein-Cubit ändern, dann verschiedene 2-Cubit-Operationen, die so verschränkte Zustände erzeugen und am Ende liest man das Ergebnis einfach aus. Das ist trotz allem eine ziemlich komplexierte Operation. Man braucht einen hohen Grad an Kontrolle über den Quantenprozessor und das Google Team konnte das tatsächlich durchführen. Es löst halt eben kein praktisches Problem, aber auf der anderen Seite, es ist ein System oder ein Algorithmus, den man halt auf dem Quanten Computer ganz einfach durchführen kann, aber das jetzt auf einem klassischen System durchzuführen und zu simulieren, ist gar nicht so einfach. Und der Grund, warum das auf so einem klassischen System so reproduzieren ist, ist, wenn man die Quanten-Gates auf einem klassischen Computer simulieren möchte, dann muss man für jedes Cubit, was man hinzufügt, da tut sich der Raum, den wir dann simulieren müssen, ungefähr vervierfachen. Zum Beispiel, wenn man sich das so vorstellt, wenn man jetzt ein Problem hat, was man halt auf einem kleinen Computer wie einem iPhone oder ein Laptop durchführen kann, dann vergrößert sich die Problemgröße halt richtig, richtig schnell. Also zum Beispiel mit 20 Cubits kann man das nicht mehr auf einem kleinen, einzelnen Personal-Computer machen, sondern braucht schon ein Supercomputer. Und mit 50 und 53 Cubits zum Beispiel, da kann man sogar mit den größten Supercomputern wie heutzutage haben, solche Simulationen nicht mehr durchführen. Und das ist das sogenannte Quantum Supremacy-Regime, den Bereich, wo Quantencomputer halt einfach überlegen sind und das ist zum Beispiel, man sieht hier den Bereich in dem Bereich auf der linken Seite, wo auf der rechten Seite der schraffierten Bereich, wo klassische Computer es nicht mehr wirklich durchführen können, so eine Simulation, obwohl wir es mit dem Quantencomputer ausführen können. Und wenn wir halt in diesem Bereich, in dem schraffierten Bereich, einen Algorithmus ausführen, dann haben wir damit bewiesen, dass wir einen klassischen, dass wir einen Algorithmus durchgeführt haben, den Quantencomputer noch durchführen kann, aber mit den klassischen Computern nicht mehr durchführen kann. Dieser Bereich ist deswegen interessant, weil damit kann man halt zeigen, dass Quantencomputer-Dinge durchführen können, die klassische Computer nicht mehr wirklich hinbekommen, auch wenn sie im Prinzip nicht hilfreich sind. Und hier kann man wiedersehen, dass die vier von den fünf Cubits, die das Google Team hat, die laufen durch unterschiedliche Längen. Und dann am Schluss wird angeschaut, was rausgekommen ist. Und das Ergebnis sind normale Bitstrings, also 0 und 1, für die Experimente, die sie durchgeführt haben. Und um zu prüfen, dass der Quantencomputer das wirklich tut, muss man das klassisch simulieren und dann gemäht vergleichen. Das ist natürlich ein Problem. Wir haben gerade gesagt, dass wir bauen einen Quantencomputer, der größere Probleme adressieren kann, den kein klassischer Computer verifizieren kann. Also wie können wir prüfen, dass das Ergebnis korrekt ist und dass er nicht einfach irgendwelchen Blödsinn produziert? Das ist eine interessante Frage. Und Sie haben es extrapoliert. Entstehen Sie, dass Sie nicht komplett gelöst haben, haben Sie vereinfachte Schaltungen erzeugt, haben irgendwelche Verbindungen rausgeschnitten, damit der Problem Raum kleiner geworden ist oder mit dem grünen Fall, mit dem Leidetcircuit haben Sie Abkürzungen in der klassischen Simulation erlaubt. In beiden Fällen waren Sie in der Lage, das Ergebnis von dem Quantencomputer zu bestätigen. Und danach haben Sie das mit mehr und mehr Cubits gemacht und haben die Ergebnisse geplottet und haben das extrapoliert. Und haben gesagt, aus der Simulation die Fehlermodelle, da können wir jetzt mit folgender Überzeugung sagen, ebensogar wenn es über die Grenze hinüber geht, dass man es nicht mehr simulieren kann, ist es immer noch korrekt. Und wenn der Quantencomputer was falsch gemacht hat, dann haben Sie die Ergebnisse auch archiviert. Und vielleicht in 10 Jahren können wir mit Supercomputern schauen, ob da der 53-Bit Prozessor das richtig berechnet hat. Aber bis dahin haben wir größere Quantenprozessionen. Die Kernergebnisse davon sind, also zum ersten Mal haben Sie gesagt, dass der Quantencomputer was gemacht hat, auch wenn es ein künstliches Problem ist und auch nicht besonders nützlich. Das Experiment hat eine unglaubliche Kontrolle über einen mittleren Quantenprozessor gezeigt. 2012, 2013 hatten wir Systeme, die 3 der 4 hatten. Und die Chips, die haben wir kaum herstellen können und das zu manipulieren war schwierig und die Algorithmen sind fast nicht gelaufen. Und jetzt haben Sie ein 53-Bit Prozessor, ein Groupit-Prozessor gebaut, der sich so gut kontrollieren lässt. Also das ist ein unglaublicher Fortschritt, insbesondere von diesem Google-Team. Außerdem ist es ein schöner Meilenstein, weil er die Grenzen der aktuellen Systeme zeigt. Und gibt Richtung zur Forschung, in welche Richtung man die unterschiedlichen Aspekte weiterentwickeln kann. Die Forschung ist kritisiert worden von verschiedenen Seiten. Ich bringe die mal hier hoch. Eine Kritik ist, dass es nächstes Nützliches tut. Wenn es auch wahr ist, dass es schwierig von einem einfachen 2-Gubit-Prozessor geht zu einem der Großprodukte in Primzahlen zerlegen kann. Und das Problem war so schwierig, dass man es nicht wirklich ordentlich bestätigen kann. Und damit zeigt Quanten-Supremacy nichts Nützliches. Oh, das ist kein wirklicher Benchmark, weil du eine extrem gute Kontrolle über dein System hast, dass du so viele Gatter mit hoher Düte kontrollieren kannst. Die haben auch ein paar Abkürzungen genommen. Die haben Qubit-Quanten-Gates genommen. Die sind kanonisch, weil wenn man Quanten-Algorithmus darauf laufen will, dann muss man spezielle Gates laufen lassen. Aber weil sie halt nicht kanonischer haben, die immer noch universell sind, können sie das nicht direkt machen. Aber mit Modifikationen sollte das möglich sein. Und die letzte Kritik ist, dass das Problem erzeugt wurde, um eine Lösung zu einer Lösung zu passen. Aber so wie die anderen Punkte, wenn man einen großen Quantenprozess bauen will, dann braucht man Meilensteine, um da hinzukommen, die auch andere Forschungsgruppen anstreben können, um den Fortschritt deutlich zu machen. Und die es einfach macht, das zu vergleichen wie unterschiedliche Gruppen, die im Wettbewerb stehen, sich vergleichen. Wenn wir jetzt einen Murslau für Quantencomputer machen wollen, dann gibt es mehrere Möglichkeiten, wie man das machen kann. Ich zeige euch die Anzahl der Qubits für Superconductingsysteme. Das ist unvollständig. Die Anzahl Qubits sagt jetzt nicht so viel über das System. Wir könnten heute einen Chip mit 1.000 oder 10.000 Qubits machen, aber wenn wir die Verbindungen nicht haben und die Kontrolle nicht haben, dann nützt uns der Chip gar nicht. Das heißt, das andere, was wir hier betrachten müssen, ist die Verbindung und die Koherenzzeiten und die Güte der Verbindungen. Das heißt, das ist nur ein Aspekt von einem großen Problemraum. Aber es zeigt natürlich, dass es Fortschritte gegeben hat. Und es zeigt, die macht diese superconducting Systeme. Die ersten Qubits, die von Nakamura in 2.000 entwickelt worden sind, die hatten schlechte Koherenzzeiten und schlechte Eigenschaften, aber es hat gezeigt, dass man sie überhaupt kontrollieren kann. Und dann hat es nicht so lange gedauert. Und die anderen haben das verbessert. Nach ein paar Jahren hatten wir Qubits mit ein paar Hundert Mikrosekunden. Und dann gab es weitere Fortschritte in Yale, die neue Qubit-Architekturen entwickelt haben, um mit denen man die besser aneinanderbinden konnte, um bessere Kontrolle zu haben. Und dann gab es die Forschungsgruppe in IBM oder Rigetti, die diese Ideen genommen haben und da sorgfältige Ingenieurwissenschaften genommen haben, um das System noch besser zu machen. Das heißt, in 2018 hatten wir 17 oder 18 Qubits drin. Und jetzt hat Google die 50er-Grenze durchbrochen nach nur 20 Jahren und das ist ein schöner Fortschritt. Und wenn ihr mich fragt, wie nah sind wir an einem Quantencomputer, ich glaube, das ist schwierig zu sagen. Wir haben zwar Quanten-Sympremise für einen randomisierten Algorithmus gezeigt, aber nützlich ist das noch nicht. Aber um etwas Nützliches mitmachen zu können, brauchen wir vielleicht weitere 55 oder 100 mehr und eine große Anzahl Qubit-Operationen. Ich glaube, man lieber nicht an dieses Chart, weil viel Energie auch in die Theorie reingesteckt wird. Es werden neue Ideen umgekommen, wie man Simulationen machen kann, um die mittleren Quantencomputern mit 50 oder 100 Qubits nützlich machen kann für Quanten-Simulationen. Das heißt also, die Theorie kann uns Quanten-Algorithmen geben und mit den Ingenieuren kann man bessere Systeme bauen. Also wir werden die ersten Anwendungen in den nächsten 3 bis 5 Jahren sehen. Optimierung bin ich jetzt nicht so der Experte. Ich glaube, das wird mir erst später sehen. Aber die Geheimdienste wollen Krypto damit bearbeiten. Und das ist die größte Herausforderung. Da brauchen wir mindestens 8000 Qubits, um eine RSA-Key zu entspülen. Man müsste auch eine große Anzahl in Qubit-Operationen machen, weil man diese Show-Operationen ausführen müsste. Dafür brauchen wir viele Schritte für unseren Quantenprozessor. Ich würde sagen, von meiner Sicht, ich denke, das ist mal unrealistisch für superleitende Quantencomputern in den nächsten Jahren. Aber wenn jemand einen Quantencomputer bauen würde, dann würde ich davon auch gar nicht wissen, also wer weiß. Um zusammenzufassen, Quantencomputers oder Quantenprozessor werden nach und nach immer komplexer, aber auch immer eindrucksvoller. Wir haben jetzt also wirklich einen Fortschritt in den letzten 5 Jahren beobachten können. Ich denke, dass wir immer noch so 5 Jahre entfernt sind, davon richtig nützliche praktische Quantencomputer zu bauen. Also zum Beispiel Herausforderungen wie Fehlerkorrekturen oder sowas erst zu entwickeln. Und es könnte auch noch weitere Herausforderungen geben, die wir noch gar nicht erkannt haben, also auf die wir noch gar nicht gestoßen sind, die wir erst dann kennenlernen, wenn wir wirklich versuchen, große Quantenprozessor zu bauen. Und den letzten Punkt möchte ich nochmal betonen. Quantencomputer-Forschung ist nicht nur von Google oder von IBM oder es gibt viele, viele Gruppen in der ganzen Welt, die solchen Nachforschung machen, nicht nur in der Theorie, auch in der Praxis und viele von den Fortschritten, die wir heutzutage benutzen. Also gerade das, was wir benutzen, um Quantencomputer zu bauen, das wurde an vielen verschiedenen Orten ganz durch Europa und USA so entwickelt. Also gerade in Europa, wenn man jetzt diese Marketing sieht und die PAP, also die Public Relations von Google und IBM, glaubt nicht alles davon. Glaubt nicht den Hype, den sie da irgendwie erzeugen. Ja, weil, also, ne, das ist nicht nur Arbeit von Google und von IBM, die dahinter steckt. Ja, das wär's. Ich freue mich auf eure Fragen und wenn ihr Feedback habt, das gibt auch mein Twitter-Account, meine E-Mail-Adresse da unten und dann könnt ihr mir auch Feedback geben, aber wir haben bestimmt dann noch Zeit für Fragen hier. Ja, das war soweit schon mal die Übersetzung aus der Übersetzer-Kabine von OS-10000, MLFA und Lucaro. Wenn ihr Feedback zur Übersetzung habt, dann könnt ihr es in den Kommentaren unter dem Hashtag C3T oder an den Account C3Lingo auf Twitter und Mastodon. Vielen Dank für Freunde für eure Feedback. Ja, Fragen und Antworten. Hier sind acht Mikrofone im Raum. Also stellt euch einfach an und wir werden unser Bestes zugeben, um alle Fragen hier zu beantworten nacheinander. Wir fragen mit einer Frage aus dem Internet an. Vielen Dank. Hast du irgendwelche Informationen bezüglich der Energiemenge, die benötigt wird, für die Rechenmenge? Ja, das ist eine interessante Frage. Ich glaube für superleitende Computer, da gibt es viele, viele Koste, die damit anhergehen. Ich denke, die größten Kosten sind momentan, die Systeme zu kühlen. Also man braucht ziemlich niedige Temperaturen, 20 oder 10 Millikel-Win. Und um das zu erreichen, können wir irgendwie ein Kryo-Kühlmittel verwenden. Und die verbrauchen natürlich eine Menge Energie und auch natürlich Materialien wie Helium-Mexturen, die natürlich auch teuer sind und auch ziemlich schwierig zu finden. Also ich denke, das ist der größte Verbrauch, was die Energieverbrauch angeht. Da weiß ich jetzt nicht so viel, aber die Manipulierung der Kubits wird mit Mikrowanen gemacht. Und das ist natürlich ziemlich wenig Energie, mit dem, was man mit der Kühlung des Systemen verbraucht. Also ich glaube, für die absehbare Zukunft sollte wird wahrscheinlich der Power der Stromverbrauch durch die Kühlung und eben auch durch die klassischen Elektroniken, die die Kubits kontrollieren. Also das wird wahrscheinlich die meisten Strom verbrauchen. Der Kubit selber wird wahrscheinlich wenig Energie verbrauchen. Hallo? Ich habe eine Frage bezüglich der Quantensimulation. Ich hätte gedacht, dass mit 53 Kubits kann man bereits irgendwelche interessanten Dinge machen. Ist es nicht so mehr oder weniger an der Grenze bis hin zu exakten Quantenchemie-Rechnungen? Also für 10 noch 20, 10 noch 30 Teile, ist das nicht so viel. Also für 10 noch 20, 10 noch 30 Teilchen, das ist so ein bisschen das, was man für Chemie braucht. Ist da gibt es da noch eine andere Relation hier zwischen Teilchen und Kubits, oder was ist da das Problem? Ja, also in der Veröffentlichung von Google habe ich keine Begründung gefunden, wir haben sehr ausgehend dieses Problem gewählt haben. Ich denke, da sind wahrscheinlich zwei Aspekte. Der erste wäre, dass man keinen System hat. Also man kann jetzt nicht beliebige, beliebige Quantenalgorithmen einfach laufen lassen, weil wir jetzt natürlich mit der Verbindung beschränkt sind. Also ich könnte mir gut vorstellen, dass es deshalb an der Verbindung zwischen den Quanten, also zwischen den Kubits lag und es nicht einfach war, einen Algorithmen laufen zu lassen, den man schon kannte. Ich denke, wenn sie eine Möglichkeit gehabt hätten, eine Quantensimulation zu machen, dann hätten sie das wahrscheinlich getan, weil das natürlich viel eindrucksvoller gewesen wäre für eine zufällige Algorithmus auszuführen. Also ich denke, daran, dass sie es nicht getan haben, erkennt man, dass es wahrscheinlich zu schwierig war oder nicht möglich war, auf den System umzusetzen. Aber da bin ich mir auch nicht sicher. Als Quantenchemiker, das Problem ist natürlich, dass man Kubits nicht einfach mit Atomen verbinden kann. Und man muss ja in der Tat auch die Elektronen simulieren, nicht die Atomen. Mikrofon 2 bitte. Hallo, vielen Dank. Kann man so einen klassischen oder allgemeinen Quantencomputer vergleichen mit D-Wave, einen der Quantencomputer, die auch auf dem Markt sind? Sie haben mehrere Tausend Kubits an sie. Das ist eine ziemlich nisante Frage. Dieses D-Wave-System ist ein besonderer Quantencomputer, soweit ich weiß, in dem Fall ist es nämlich so, dass die Berechnung ein bisschen anders funktioniert. Mit diesem Quantencomputer, den Google gebaut hat, hat man halt so eine Gattasequenz, die man auf den Kubits ausführt. Und dann bekommt man halt eben Ergebnis. Und mit dem D-Wave-System hat man sich eher was ... Ja, es geht vor allem um Lokalintaktion zwischen den Kubits. Und man verändert den Hamiltonischen langsam, um halt eine Lösung für das Problem zu finden. Also, es ist eine andere Art der Berechnung. Es ist ein anderer Ansatz an Quantencomputer. Und sie behaupten, dass ... Also, dass sie auch eine Quantensupposition erreicht haben oder eine Überlegenheit erreicht haben. Aber in meinem Wissen, also ... Der Beweis dafür ist ein bisschen schwammig, also weniger glaubhaft als das, was Google gemacht hat. Aber ich bin da jetzt auch kein Experte von. Also, ich kenne mich jetzt mehr mit diesen Gattavasierten-Systemen aus. Also, ich denke, der Beweis, den Google gezeigt hat, ist viel überzeugender. Also, auch hinsichtlich der Reproduzierbarkeit und ... Ja, auch der Beweis, dass man tatsächlich irgendwas macht, was uns im Klassenkompetent nicht möglich wäre. Ja, sie wird es wahrscheinlich anders betrachten, aber ich sehe es so. Hinten, Mikrofon 7. Hallo, 7. You just wave to me. Hallo, 7. Hallo. Ich habe gelesen, dass dieses Jahr IBM das erste kommerzielle System Q1 oder sowas in der Art veröffentlicht hat. So, meine Frage ist, was für kommerzielles Ergebnis hat IBM hier erzeugt? Ja, also ich habe mit einigen Firmen hier in Deutschland gesprochen, die mit IBM oder D-Wave zusammenarbeiten oder auch mit Google. Und ich habe sie gefragt, was sie genau machen, auch mit den Quantencomputern. Und die, die die anbieten. Und die Antwort war, dass im Moment viele Unternehmen untersuchen, die Quantencomputer als irgendwas, was sehr nutzlich oder relevant in fünf bis zehn Jahren sein könnte. Also, sie möchten schon ein bisschen Erfahrung damit sammeln und anfangen zusammenzuarbeiten. Aber ich glaube oder zumindest kenne ich keine, dass es schon irgendwelche produktive Nutzungen von Quantencomputern gibt, wo die Quantencomputer Berechnungen machen, die nicht auf einem klassischen System möglich wären. Aber natürlich habe ich auch keinen kompletten Überblick. Also, ich denke, im Moment ist es vor allem Experimentierungen und es halt ein bisschen kennenlernen. Und die Unternehmen und auch wahrscheinlich die meisten Kunden erwarten, dass in fünf bis zehn Jahren werden die Systeme stark genug zu sein, um da auf wirkliche Berechnungen draufzumachen. Internet bitte. Mit den Quantencomputern kann man, da kann man Dinge in parallel ausprobieren. Aber da gibt es dieses viel Fireability-Requirement. Wie viel schneller sind Quantencomputern-Verhältnisse zu heute? Ja, das stimmt. Also, wenn man, wenn man klassische Algorithmen umsetzen möchte, muss man das in einem umkehrbaren Weg machen. Aber aus dem Standpunkt der Effizienz, jeder klassische nicht umkehrbare Algorithmus als umkehrbaren Algorithmus umzusetzen, ist ja ein Verlust in Komplexität. Also, man kann immer noch universelle Gatter haben, zum Beispiel, also um halt jegliche Logik auszubrechen, auszudrücken. Man kann natürlich vielleicht mehr Cubits benötigen, im Vergleich zu der Anzahl in klassischen Bits, die man brauchen würde. Aber im Prinzip gibt es nichts, was ein Davon abhält, klassische Funktionen oder Algorithmen auf einem Quantencomputer umzubauen. Was natürlich die genaue Laufzeit angeht, das kommt natürlich darauf an, wie schnell man sich die Operation umführen kann. Also, eine einzelne Cubit-Operation auf diesem Google-System braucht 20 bis 40 Nanosekunden. Also, in dem Moment sind Quantencomputer wahrscheinlich noch viel langsamer als klassische Computer. Aber der Gedanke ist auch, dass man nur die nötlichen Berechnungen, die man nicht auf einem klassischen System machen kann, auf einem Quantencomputer, und dem Rest kann man auf einem klassischen System machen. Also, der Quantenprozessor ist mehr nur ein Co-Prozessor in dem Moment. Ja, also, verglichenbar mit einer GPU oder so. Mikrofon 4, bitte. Auf der Folie, die Richard Feynman zeigt, hast du gesagt, dass Quantencomputer erfunden wurden, um Quantensysteme zu simulieren. Kannst du da noch mal ein bisschen darauf eingehen? Ja, ich habe hier gerade keinen Link zu der Vorlesung, aber man kann die Online sehen. Es ist von 1982, wo Feynman drüber spricht, wie man Quantensysteme anfangen würde zu simulieren. Also, wir haben gezeigt, wenn man jetzt ein komplettes Quantensystem simulieren wollen würde, müsste man so eine dichte Matrix simulieren und das braucht eine exponentielle Zahl an Speicher und Berechnungen. Und natürlich auch im Sinne von der Anzahl an Quantenbits und der Anzahl an Freiheitskarte, die man simulieren möchte. Wenn man das auf einer normalen Maschine machen würde, könnte man es nicht effizient machen, weil jedes Mal, wenn man ein Q-Bit hinzufügt, dann vervierfacht man seinen Berechnungsanforderungen. Das ist der Hintergrund, wo die Idee herkam, also von Feynman über ein System nachzudägen, die Quanten-Mechanik zur Berechtigung oder diese Simulation durchzuführen benutzt. Er hat wahrscheinlich erkannt, dass für großen Quantensystemen wird es niemals möglich sein, oder zumindest mit unserer Verständnis vom klassischen Computer wird es nicht möglich sein, Quantensystemen auf einem klassischen Computer zu simulieren im effizienten Weg. Bambur, da ist die Frage gut. Mikrofon 8, bitte. Als ein Physiker, der jetzt Circle Design durchbeschäftigt ist, ich frage mich gerade, warum alle Präsentationen, die in Quartencomputers durchgeführt sind, warum die alle 0 und 1 verwenden und nicht mehr States. Ist das fundamental oder warum verwenden wir nichts anderes? Also du fragst, warum wir jetzt nicht höhere, höhere, wertige Q-Bit-Zustände verwenden oder mehrwertige Logik zum Beispiel? Im Prinzip, die Quantenbits, die wir verwenden, die sind natürlich jetzt nicht nur 2, also es gibt nicht nur Ebenen 0 und Ebenen 1, aber es gibt auch nicht nur 1, 2 oder 3. Man könnte das natürlich so bezeichnen, aber die Berechnung oder Kraft des Systems ist halt eben bestimmt durch die Anzahl an Zuständen n mit der Anzahl schon von Q-Bits, also auch wieder n, also n hoch n bestimmt. Und wenn man jetzt mehr Zustände hinzufügt, dann ist das ein kleinerer Faktor, als mehr Q-Bits hinzuzufügen. Deshalb ist es mehr interessant, Q-Bits hinzuzufügen, als mehr Zustände zu ermöglichen. Es gibt schon Anwendungsfälle, wo man solche, also höher zuständige Quantencomputer mit Digital, also digitalen Quantencomputer überragen. Also man kann natürlich die Hamilton-Operatur viel besser simulieren, aber es gibt natürlich auch andere Fälle, wo man jetzt einfach nur eine normale Quantenberechnung durchführen möchte, dann ist wahrscheinlich der digitale Quantencomputer der beste Weg. Und ich würde gerne auch noch hinzufügen, dass, wenn man eine Simulation von so einem Quantensystem auf so einem gata-basierten System durchführen wollen würde, das hat ungefähr die ähnliche Art von Komplexität. Dann wird es die Frage, ja, ist, ich glaube, ich habe verstanden, dass die nicht-diagonalen Elemente der dichte Matrix viel schneller größer werden als die diagonalen Elemente. Ja, so kann man es durchaus sagen. Mikrofon drei, bitte. Was hast du zu sagen bezüglich dem, bezüglich skeptischer Stimmen, bezüglich des Inherenten, der Inherentenstörung, die man in Quantencomputern für eine Bezügliche Eskalierung? Ja, ich denke, das ist ein berechtigter Bedenken. Heutzutage können wir noch nicht mal Fehler-Sicherheit für eine einzelnen Cube sich erstellen. Also es gibt natürlich Ansätze dafür, wo man ein bisschen Fehlerkorrektur für einzelne Cube-Systeme zeigen kann. Aber wir haben immer noch nicht geschafft, ein einzelnes Cube endlos lang aktiv zu lassen. Ich denke, das ist berechtigte Kritik, aber in fünf bis zehn Jahren werden wir sehen, dass wir auch diese Fehlermodelle korrekt, also nachweisen können und feststellen können, ob die korrekt sind für alle Fehler oder ob es immer noch welche gibt, die uns davon abhalten, groß skalierende Systeme zu bauen. Aber natürlich klar, valide Kritik. Es gab eine Studie bezüglich der Faktorisierung auf adiabatischen Maschinen, adiabatischen Maschinen, was log n² Cubits braucht, beziehungsweise aber du hast gezeigt log n, weil die adiabatischen Systeme viel größere Cubits zahlen haben. Deswegen konnten sie viel größere Zahlen faktorisieren auf diesen Maschinen im Verhältnis zu normalen Geräten. Aber das ist so ein Aspekt, den man in den Diskussionen nie sieht. Möchtest du vielleicht darauf bezüglich dieser Geschichte kommentieren? Hast du, kennst du irgendwelche Studien, die sagen, dass diese adiabatischen Maschinen blödsinn sind? Oder sind das valide Ergebnisse? Ja, natürlich bin ich jetzt da kein Experte in diesen adiabatischen System, aber ich weiß, das gibt Studien- oder Naheforschung auch vom D-Wave-System, die ich ab jetzt diese Studie genau nicht gelesen habe. Aber ich denke, dass das tatsächlich ein berechtigter Ansatz für Quantencomputers ist, also dieses embedded-quanten-Computing, also eingebettete Systeme. Ich denke nur, dass die Ergebnisse im Moment ähnliche Beweise zeigen, wie fünf Gata-basierten Quantencomputer. Also da müsste ich mir jetzt genau einlesen, um das genau nachvollziehen zu können. Kannst du da vielleicht die Autoren schnell sagen? Ja. Nein, tut mir leid, das weiß ich jetzt grad nicht. Ja, ich glaube aber nicht, dass adiabatisches Quantencomputer berechnen. Also ich denke, es ist ein berechtigter Ansatz, also auch Quantencomputer durchzuführen. Ich kann schnell später nach den Autoren suchen und uns dir dann sagen, ja, das wäre super. Mikrofon 4. Was sagst du bezüglich IBM Statement, dass Google Supremacy Claim nicht valide ist? Ja, ich denke, IBM hat im Prinzip gesagt, wir haben Optimierung gemacht, wie man das simuliert und dann kann man diese Berechnungszeit von 10.000 Jahren auf ein paar Jahre reduzieren. Ich denke, es könnte berechnete Kritik sein. Ich bin mir nicht sicher, ob das jetzt das Ergebnis direkt ungültig macht, weil die Berechnung von klassischen Systemen wird natürlich auch in den Konditionen weiter steigen. Im Moment kann man sagen, ja, wenn man Quantenüberlegenheit noch nicht erreicht hat mit 2019 Geräten, dann sollten wir vielleicht uns die 2015 Geräte anstellen und sagen, okay, da war das wahrscheinlich der Fall. In jedem Fall würde ich sagen, was am meisten, also was am Eindrucksholzen ist, ist, dass wenn wir in diesem Überlegenheitsbereich sind oder nicht, das ist einfach nur abhängig von der Kontrollbarkeit diese Cube zu kontrollieren. Also das ist das, was die Gruppe eigentlich erreicht hat, völlig unabhängig davon, ob sie tatsächlich eine Überlegenheit über normale Computer erreicht hat oder nicht, weil ich denke, das ist eine gute Architektur auch für größere Quantencomputer und allein das ist deshalb sehr viel wert um die zukünftige Nachforschung in eine richtige Richtung zu leiten und so. Also unabhängig davon, ob sie jetzt eine Überlegenheit erreicht haben oder nicht, aber klar, die Kritik kann ich natürlich verstehen. Eine Sache, der Artikel ist called Quantenmanagement for Prime Factorization, ist in Nature erschienen von December 2018 von Briten, Merkowski, Hamel und Case. Vielen Dank. Mikrofon 6, kurze Frage, ist es bekannt, dass es nicht einfach ist, zu verstehen, wie große Quantensuperpositionen in mikroskopischen Zuständen funktionieren. Da gibt es wohl ein paar Dinge, die man nicht genau versteht. Gibt es da was, was du, weißt du da irgendwas, wenn man zu 10.000, 100.000, 1.000.000 Qbits geht? Gibt es da vielleicht Probleme, tut das Quantenverhalten sich, ist das Quantenverhalten vielleicht nicht mehr gefunden oder gibt es da keine Probleme? Das ist kein Problem. Ich bin sicher, ob ich die Frage komplett überstanden habe, aber ich glaube, es gibt eine skalierbare Variante. Wenn man jetzt zu einer größeren Skala geht, dann hat man wahrscheinlich Unumkehrbarkeit. Ich denke, es gibt große Quantensystemen, die auch natürlich vorkommen, z.B. das Bose-Einstein-Konsensat. Da gibt es viele Freiheitskarte, die man nicht kontrollieren kann. Aber es gibt auch quantenmechanische Sachen, da scheint es zu funktionieren. Persönlich würde ich sagen, es gibt kein solches Limit, aber wer weiß, deshalb machen wir nach wie vor experimentelle Forschung, um zu sehen, ob wir es erreicht haben. Aber von der Quantentheorie würde ich sagen, da gibt es keine hindeutenden Anzeichen für so einen Limit. Okay, vielleicht sehen wir dich ja in fünf Jahren. Das war's, vielen Dank.