 Guten Abend. Ich freue mich, dass Sie alle hier sind. Herzlich willkommen zum heutigen digitalen Salon am Humboldt-Institut für Internet und Gesellschaft. Mein Name ist Irina Kühnlein, ich bin studentische Mitarbeiterin in Public Interest AI und ich darf heute das Intro übernehmen. Ich dachte, es würde heute regnen. Also streng genommen habe nicht ich das gedacht, sondern ein Blick auf mein Handy und die Wettervorhersage hat mir das in den Kopf gesetzt. Von der Woche stand er noch, Schauer, 11 Grad und dann gestern bedeckt, 16 Grad und heute stehe ich hier und bin positiv überrascht. Ich frage mich auch, ob wir als Gesellschaft mehr über Wahrscheinlichkeit wissen und reden müssten. Wetter und Klima, um deren Modellierung es heute gehen soll, sind nicht dasselbe. Das Wetter ist so diese wahrnehmbare Momentaufnahme von dem, was gerade in der Atmosphäre stattfindet. Das Klima ist eher so dieses ganze Continuum über einen längeren Zeitraum beobachtet und dann gemittelt. Eine Wettervorhersage umfasst deshalb auch nur so 2, 3, 4 bis 14 Tage. Klima-Modell kann aber schon auch mal in mögliche Zukunft über das Jahr 2100 hinaus schauen. Für eine Wettervorhersage für die nächsten 2 Stunden muss ich nur wissen, was die Luftmassen über Europa für den Fall Berlin gerade tun. Wenn ich aber in ein, 2 Tage in die Zukunft schauen will, dann spielen auch schon die Luftmassen über Nordamerika und Asien eine Rolle. Komplexer wird es dann noch, wenn ich zum Beispiel eine Woche in die Zukunft sehen will, weil dann muss ich auch Prozesse der Ozeane berücksichtigen. Und wenn es noch weiter in die Zukunft geht, dann spielen auch Prozesse in der Kryosphäre, also allem, was mit Eis zu tun hat, und der Biosphäre eine wichtige Rolle. Aber wie fließen diese ganzen Prozesse eigentlich in den Klima-Modell? Wie wird unsere Erde segmentiert, beobachtet und in Code gegossen? Und was ist eigentlich mit Prozessen, die so kleinteilig sind, dass sie diesem Raster des Klima-Modells irgendwie durch die Lappen gehen, aber trotzdem das Klima beeinflussen? Die Physikerin Friederike Otto, die beschreibt Klima-Modelle als etwas zwischen Experiment und Theorie. Klima-Modelle erlauben uns einen vorsichtigen Blick in mögliche Zukunft, und helfen uns dabei zu verstehen, was das Klima beeinflusst und wo wir gerade stehen, zum Beispiel im Hinblick auf Kippungen der Klimakrise. Greifbar wird das beispielsweise bei der Attributionsforschung, wo wir mithilfe von Klima-Modellen nachvollziehbar machen können, welche Wetterereignisse wir wirklich auf die Klimakrise zurückführen. Aber trotzdem stellt sich die Frage, wie gehen wir mit den Unsicherheiten um? Was passiert, wenn wir eigentlich – Entschuldigung – stimm nicht alle diese Projektion miteinander überein? Und woher wissen wir dann eigentlich, dass und wo Klima-Modelle richtig liegen? Und wie versuchen Wissenschaftlerinnen mit den einhergehenden Unsicherheiten umzugehen? Damit sind wir eigentlich auch beim Thema des heutigen digitalen Salons, Quanten statt Quarken, also Hochleistungsrechner statt Wetterfrösche. Klima-Modelle umfassen laut dem Geophysiker Michael Böttinger vom Deutschen Klimarechenzentrum auch mal ungefähr eine Million-Zeit-Code und können trotzdem noch nicht alles abbilden. Das Laufen zu lassen ist auch gar keine schnelle Angelegenheit. Das kann schon mal so ein halbes Jahr dauern. Rechenleistung spielt also durchaus eine Rolle. Und wie können diese Prognosen deshalb schneller und besser werden? Viel Hoffnung wird beispielsweise auf Kantencomputer gesetzt und dazu gibt es auch schon erste Projekte und Forschungsgruppen. Henning Weber vom DVD in Offenbach sagt, dass die Rechenleistung von der ersten mit Computern berechneten Wettervorhersage des DVD von 1966 bis zu heute um den Faktor eine Milliarde gestiegen ist. Jeder Sprung in der Rechenleistung schlägt sich auch in den Prognosenlieder. Beispielsweise ist die Wetterprognose für vier Tage heute so zuverlässig wie die 24-Stunden-Prognose vor 30 Jahren. Wie sieht der Trend dafür die Zukunft aus? Aber nicht nur gesteigerte Rechenleistungen, auch KI-Anwendungen spielen eine Rolle. Wo kann diese hilfreich zum Einsatz kommen? Und was für neue Erkenntnisse erwarten wir uns eigentlich davon, wenn Klimamodelle und Wettervorhersagen immer besser werden, wo wir jetzt auch schon vieles wissen und verstanden haben? Das waren viele Fragen, viele Anfänge. Ich bin gespannt und denke, dass einige davon vielleicht beantwortet werden. Ich freue mich jetzt auf eine spannende Diskussion. Vielen Dank, ihr Irina. Schönen guten Abend. Herzlich willkommen hier vor Ort und im Stream. Ich bin Katja Weber und mal gucken, ob ihr ein paar Antworten rausbekommen. Ich hatte mir eigentlich eine Anmord aufgeschrieben. Dann ging ich hier vorhin durchs HEG diesen Gang lang und las, was da wahrscheinlich schon seit Jahren an der Wand steht. Aber heute fiel es mir ins Auge. Wahrscheinlich, weil mein Hirn irgendwie wahrnahm, kannst du hier heute Abend gebrauchen. Der Mensch beurteilt die Dinge lange nicht so sehr nach dem, was sie wirklich sind, als nach der Art, wie er sie denkt und sie in seinen Ideengang einspeist. Alexander steht runter. Also ich vermute mal hier der Namensgeber des Hauses. Ist gemeint und ich dachte, das passt nicht schlecht, um in diese Runde einzusteigen. Eigentlich wollte ich zu Beginn erinnern an die Flutkatastrophe im Ahrtal im Sommer 2021. 136 Tote gab es allein da. Wenn ich das noch richtig weiß, wurde glaube ich die 136. Person auch erst Ende des vergangenen Jahres identifiziert. Deutschlandweit, es gab natürlich auch Flutkatastrophen und Unwetter in anderen Teilen Deutschlands. Deutschlandweit gibt es mehr als 180 Tote zu beklagen. Und Irina hat gerade über Modelle gesprochen. Natürlich gibt es entsprechende Prognosen, die anhand von Modellen erstellt werden. Seit Jahrzehnten und ob und wie uns diese Modelle helfen beim Anpassen an die Erderhitzung, beim Ergreifen der richtigen Maßnahmen. Ich will jetzt mit drei Sachverständigen reden. Wie immer gilt, stellt gerne eure Fragen. Ich denke, ihr habt welche mitgebracht, die werdet ihr hier los. Wir haben drei Leute vom Fach für euch, wobei das recht unterschiedlich, aber vielleicht an reinende Fächer sind. Ich möchte euch Robert Klein vorstellen. Er ist Professor für Mathematik an der Freien Uni. Von Haus aus ganz ursprünglich mal Maschinenbauingenieur. Seit den 90ern hat er sich dann mehr und mehr interessiert, war zehn Jahre lang Abteilungsleiter für Data und Computation am Potsdam-Institut für Klimafolgenforschung, bis sicherlich einigen von euch ein Begriff ist. An der FU forscht Rupert zur Mathematik von Skalen-Wechselwirkung in physikalischen Systemen. Dabei geht es um Anwendungen auf atmosphäre Ozeanströmungen, um technische Verbrennungen und Moleküldynamik. Ich bin gespannt, ob ich am Ende des Abends annähernd weiß, was damit gemeint ist. Herzlich willkommen, schön, dass du da bist. Barbara Wellmann hat sich einen gefunden. Promovierte Physikerin bei Quantum Link, einem Subunternehmen oder Nahabteilung von die Leute. Sie berät zu Technologien, zu Innovationen. Da geht es um KI, haben wir eben schon gehört, um Blockchain, aber eben auch um das gerade angesprochene Quantencomputing, auch das soll uns beschäftigen. Und lasst not least Frank Kreinkamp, er ist Hydrologe und promovierter Meteorologe. Er leitet das Regionale Klimabüro des Deutschen Wetterdienstes in Potsdam. Der Deutsche Wetterdienst ist uns allen irgendwie, denke ich, ein Begriff, worum handelt es sich bei dieser Organisation, die uns zum Beispiel sagt, wie das Wetter heute wird oder wie es morgen sein wird. Es handelt sich um eine Bundesoberbehörde mit Hauptsitz im schönen Ofebach. Und sie untersteht den Ministerium für Digitales und Verkehr. Herzlich willkommen, Frank. So, mal gucken, was der DVD ausgegeben hat für morgen. Ich zitiere, am grünen Donnerstag wolkig bis stark bewölkt. Zunächst im Norden noch Regen, auch im Westen, bereits am Vormittag neuer schauerartiger Regen. Im Laufe des Tages über die Mitte hinweg ostwärts ausweitend, im Osten allerdings nur wenig, niederschlag. Das scheint unumstritten zu sein, kann man abrufen. Welche Prognosen machen denn dir und deiner Zunft mehr Schwierigkeiten? Im Wesentlichen, die Prognosen, die entweder mehr Tage in die Zukunft sind, also sagen wir mal, drei, vier Tage ab, da wird es dann immer schwieriger. Oder aber das, was wir nicht prognose, sondern Projekzion, dann die nächsten Monate, Jahre und Jahrzehnte, da haben wir dann deutlich mehr Schwierigkeiten. Ah, okay, das ist schon vielleicht schon mal die erste wichtige Unterscheidung. Eine Prognose bezieht sich immer auf, einige von euch wollen vielleicht noch ein Urlaub. Was packe ich in meinen Köfferchen in den nächsten Tagen? Und eine Projekzion ist eher das, was Versicherungen interessiert. Ja, nicht nur, also die Wissenschaftler sagen, ich habe eine Anfangsbedingung. Also ich habe den Zustand der Atmosphäre und von dort aus modelliere ich los. Und bei vielen der Dinge, die ich für die nächsten Monate und Jahre habe, ist dann wichtig, die Randbedingungen. Ich habe gerade bei den Klimaprojektionen, muss ich wissen, wie handelt der Mensch, also wie viel Treibhausgrase, positive Atmosphäre und solche Dinge. Mhm, vielleicht nochmal ganz simpel. Welche Daten werden denn gebraucht, um das Wetter voraus zu sagen, zu prognostizieren und welche werden für eine Projekzion gebraucht? Also der Startpunkt für eine Wettervorhersage ist der Zustand der Atmosphäre. Also sprich, wir gucken am Boden nach, wir gucken an Stationen, wir gucken in der Atmosphäre nach mit Flugzeugen, mit Radiosonden, aber auch mit Satelliten, aber auch mit Bohien auf den Meeren, die dann auch uns mehr eintauchen und wollen bestmöglich den Startzustand haben. Also was ist in dem Meer, was ist in der Atmosphäre gerade los, wenn ich bei den Klimaprojektionen rein schaue, dann ist es eher, brauche ich die Daten, um ein Modell zu entwickeln, um dieses Modell bestmöglich so zu entwickeln, dass sich die Erde reproduzieren kann und dann stecke ich, lasse ich das Modell laufen und verändere die Randbedingungen, so wie zum Beispiel der Sonnenfleckenzyklus war oder wie die Vulkanen ausgebrochen sind, um die Historie zu reproduzieren und dann andere Randbedingungen, was mache ich für Treibhausgase, was bricht für Aerosole in der Zukunft, in die Atmosphäre und dann zu schauen, wie geht es in der Zukunft weiter? Barbara, vielleicht auch an dich nochmal die Frage, nach den Daten in Paar, hat Frank ja jetzt schon genannt, aber welche Qualitäten sollen denn da noch rein, welche interessieren dich vielleicht in deinem beruflichen Alltag? Also ich glaube, den Sprung kann man jetzt erstmal nicht machen, weil ich keine weder Klimamodelle aufstelle, noch Wettervorhersagen mache und tatsächlich eher andersrum, also wenn ich Daten bekomme, sozusagen, gucke, ob die sich eignen, also für welche Technologien sozusagen, die sich eignen und was man damit machen kann, aber es läuft jetzt nicht so rum, dass ich irgendwie sage, hallo das und das brauche ich sozusagen. Okay, dann schlüssel uns doch das vielleicht mal auf. Du sagst je nach Datenqualität eignet sich das für unterschiedliche Technologien. Ich verstehe, was du sagst, aber kannst mir konkret noch nicht vorstellen, welche Daten würdest du wo reingießen oder welche Daten würdest du auf keinen Fall in irgendetwas reingießen? Gut, also ich beschäftige mich ja hauptsächlich mit Quantencomputing. Ich weiß nicht, ob ich jetzt erst mal grundsätzlich erklären soll, was das ist sozusagen. Ich glaube, diesen Erklärbärteil machen wir später hier. Genau, aber um es dann ganz kurz zu fassen, es ist eine alternative Form Berechnung eben anzustellen, also alternativ zum klassischen Computing, was eben auf Binealogik funktioniert und dementsprechend ist es so, eben je nachdem, was ich für Daten habe, brauche ich auch für meine Berechnungen mit welcher Berechnungsmethodel ich eben etwas machen möchte, unterschiedliche Daten zu einander transferieren. Aber wie gesagt, ich glaube so ganz den Sprung jetzt von Klima zu dem, was ich mache, kann man an der Stelle noch nicht ganz so ziehen. Vielleicht kommen wir da später nochmal drauf. Genau, dann würde ich den Ball weiterspielen und fragen, welche Daten interessieren dich in deinem beruflichen Alltag? Mit Mikrofon wäre zauberhaft. Ich verstehe es, aber alle anderen finden es vielleicht nicht. Ein Beispiel. Und gerne viel näher an den Mund, sonst schimpfen die Techniker. Ja, super. Wir haben über die letzten Jahre hinweg ein theoretisches Modell für die Entwicklung von Wirbelstürmen entwickelt. Und an der Stelle hat uns natürlich branden interessiert. Wir haben rein mathematisch mit Heerleitungen aufgrund der Basis der strömungsmechanischen Gleichungen haben wir eine Theorie entwickelt und jetzt kommen da Vorhersagen aus. Vorhersagen über Wechselwirkungsmechanismen heraus, die dann dazu führen können, dass ein Wirbel stärker wird oder schwächer wird. Und auch Muster darüber, wo eine Wolkenbildung und Niederschläge in dem Wirbel stattfinden müssen, damit das passiert, diese Verstärkung. Und jetzt haben wir natürlich sehr genau hingeguckt in den vorhandenen Daten und haben zusammen mit Kollegen in Florida, die dort hauptberuflich Hurricane Forschung machen, hingeschaut. Da gibt man diese Wolkenbildung da, wo wir sie für unser Modell bräuchten, damit der Wirbel sich verstärkt. Also in dem Sinne, wenn ich Theoriebildung mache, was einer meiner Haupttätigkeiten ist, dann brauche ich Daten, um die Theorie sozusagen abzugleichen mit der Realität, um zu gucken, habe ich noch was ausgelassen, habe ich da was missverstanden, ist die Theorie nah dran an dem, was ich beobachte. Und wie ist das jetzt im Hinblick auf die Wirbelsturmtheorie? Wie ist sie nah dran an, so funktioniert ein Wirbelsturm oder ist euch beim Abgleich mit real existierenden Wirbelstürmen aufgefallen und nee, irgendwas stimmt nicht in unserer Theorie? Das war recht interessant. Insofern, als man bei diesen Wirbelstürmen eben unterscheiden muss, das Stadium, in dem die sich befinden, nämlich wenn das noch mehr wie ein Sturm in unseren mittleren Breitengraden ist, dann zieht unsere Theorie noch nicht. Wenn das schon voll ausgebildeter Wirbelsturm ist, der mit Stärke 3 bis 5 über die Meere zieht oder aufs Land läuft, dann sind wir schon jenseits unserer Theorie. Und es hat sich rausgestellt, gerade der Übergangsbereich zwischen noch ein starker Sturm und einem wirklichen Wirbelsturm, das ist die wissenschaftlich am wenigsten verstandene, sagen wir mal, Zone in dem Bereich. Und da hat sich rausgestellt, sieht unsere Theorie sehr, sehr gut aus. Ich stelle mir vor, was für diese Theorie Unmengen Daten braucht. Sind das Daten, die in Stürmen erhoben wurden oder arbeitet ihr sozusagen mit Normalbedingungen, um daraus einen Wirbelsturm und wie er entsteht, abzuleiten? Die Verifikation oder das Abgleichen von Theorie und Daten passiert ganz gezielt an real existierenden Stürmen, die ja auch sehr intensiv beobachtet werden. Die Leute sogar mit Flugzeugen durch und schauen sich das tatsächlich von innen an. Oder es gibt Satellitenbilder, auf denen man sehr schön sehen kann, wo das Wirbelzentrum ist, wo die hauptsächliche Wolkenbildung und die Niederschläge stattfinden und so weiter. Also das sind die Daten, die wir da brauchen. In der Tat ist es aber bei der Entwicklung des Modells so gewesen, dass wir eigentlich die Daten überhaupt nicht angeguckt haben, sondern wir haben Hypothesen da drüber aufgestellt, wie die Struktur dieses Wirbels aussehen könnte. Wir haben die in mathematische Formeln gegossen und haben dann geguckt, sind diese Strukturanahmen kompatibel mit den Gleichungen, die die Strömung im Allgemeinen beschreiben und konnten dann rausfinden. Erstens sind die kompatibel und zweitens haben wir Regeln gefunden, wie jetzt sagen wir mal die Zutaten dieses reduzierten Modells, Wirbelmodells, wie die sich tatsächlich in der Zeit entwickeln müssen aufgrund der physikalischen Wechselwürde. Du hast aber so eine Lehrstelle angesprochen, diesen Moment, wo ein erwachsener, kräftiger Sturm, mit dem man aber Masomenos klarkommt, was anderes wird, nämlich ein Wirbelsturm in Hurricane, der ganz andere Schäden und Bedrohungspotenziale birgt. Gibt es Daten, die du dir herbeivünschen könntest, die dir helfen zu verstehen, was ihr da noch nicht versteht, diesen kleinen Moment, wo zwei Wahrscheinlichkeiten im Raum stehen und eine wird Realität? Nein, das habe ich, glaube ich, ein bisschen falsch ausgedrückt. Vor unserer Forschung komplett war dieser Bereich des Übergangs von, ich sage es mal einfach, in Metern pro Sekunde Geschwindigkeit, also von 10 Meter pro Sekunde bis hin zu Winden von 35 Meter pro Sekunde, was man die schwächste Stufe von Hurricanes nennt. Die Zone dazwischen, wie sich den Wirbel da entwickelt, war nicht verstanden. Da gibt es eine Menge Hypothesen davon, aber keine ist so wirklich zufriedenstellend und es sieht so aus, als wäre unserer Theorie ziemlich präzise. Ah, okay, also das zu erklären. Und haben euch da bestimmte Daten beigeholfen oder was war entscheidend, um das klarzukriegen? Eben nicht, sondern wir haben eine Hypothese aufgestellt. Verdammt. Wie könnte die Struktur dieses Wirbels eigentlich aussehen? Dann haben wir diese Hypothese in Mathematik gegossen und haben dann die Gleichungen befragt. Wenn die Struktur so aussieht, nämlich so fast axensymmetrische Wirbel, der irgendwie so geneigt in der Atmosphäre liegt, wie bewegt sich dieser Wirbelzentrumslinie im Raum und wie verstärkt sich dann diese Stirkulationsströmung? Das haben uns die Gleichungen dann gesagt und jetzt haben wir eine geschlossene Theorie dafür und die sieht im Vergleich mit den Daten ziemlich gut aus. Okay, doke, jetzt habe ich es, glaube ich, auch geschneit. Wir kommen aber noch an anderer Stelle auf die Daten. Ich nehme mit, in dem Fall war Hypothese first und mit der wurde gearbeitet und guckt, wie passt das denn und was erklärt es denn? Ich habe es eingangs gesagt, Frank, der Deutsche Wetterdienst kümmert sich ums Wetter. Logisch naheliegend die Klimaforschung ums Klima. Natürlich sind aber beide Gebiete eng miteinander verstrickt und verwoben und wenn du jetzt das regionale Klimabüro des Deutschen Wetterdienstes in Potsdam leitest, dann heißt das, der Deutsche Wetterdienst betreibt auch selbst Klimaforschung. Ist das richtig? Ja, also natürlich greifen wir im Wesentlichen darauf zurück, dass andere Forschungseinrichtungen viel im Klima machen und wir bestimmte Produkte, die die Forschungseinrichtungen entwickelt haben, nutzen und zum Beispiel operativ betreiben. Also, wenn eine Gruppe ein Klima-Modell entwickelt hat, dann sind wir auf die Gruppen, die dann sagen, okay, wir nutzen das für den Fall im Rahmen zum Beispiel dieser Modellrechnung, die nach dem IPCC-Rechnung kommen, also der IPCC oder eigentlich eine Zimmel-Community, rechnet globale Modelle für unterschiedliche Zukunfte aus und wir sind zum Beispiel die Gruppe, die dann aus den Globalen sehr grob aufgelösten Informationen, Informationen für Deutschland erstellen. Das machen wir aber nie allein. Wir sind immer ein Teil einer großen Forschungskommunity in Deutschland oder international. Jetzt haben wir oft gehört, dass der menschliche Eingriff ins Klima dazu führt, dass auch Wettervorhersagen schwieriger zu treffen sind, vor allen Dingen, wenn es ins lokale oder regionale Meinung geht. Woran liegt das? Was ist der Zusammenhang dahinter? Also, dass wir wirklich schwieriger werden, würde ich jetzt sozusagen vorsichtig sein. Also, weil das, was wir in den Wettervorhersagen Modellen machen, sind eben, dass wir von den Forschungsleuten entwickelte, sozusagen Modelle haben, die mit einem Startzeitpunkt betreiben und dann schauen, wie es die nächsten Tage wird. Noch befinden wir uns im Wesentlichen in dem, was die Physik ziemlich gut beschreiben kann. Daher haben wir selten Probleme. Es gibt schon Probleme, wo man mal in komplett neue Zustände kommt, aber das ist eigentlich auf Erde nur ganz, ganz selten mal dabei. Weil das, was wir hier in Europa an Wetter haben, und wenn man das global sieht, ist das meiste, sozusagen wir irgendwo mitten drinnen. Die Schwierigkeit ist eher, dass dann die Nutzenden von uns eine sehr, sehr präzise Vorhersage haben wollen. Die wollen für morgen wissen, ob der 157- oder 163-Liter-Proquatrat meterunterregnet. Und das kann man mit Wettervorhersagen-Modellen nicht machen. Man kann sagen, es wird sehr viel regnen, und das scheint sehr viel Sonne. Aber ob das nun gerade hier runterfällt oder an der Friedrichstraße oder am Alexanderplatz, das nicht. Ich habe mir da so ein Beispiel ausgedacht, genau zu der Frage, warum das so schwer ist, zu sagen, wo eigentlich der Niederschlag fällt. Wenn man sich vorstellt, wir stellen einen Topf mit Wasser auf den Herd und schalten den an. Und jetzt wissen wir, dann fängt da, was Wasser drinnen anzuströmen, wird langsam heißer und heißer, und jetzt fängt es an zu kochen. Das, was man gut kann, ist dieses Durchmischen beschreiben und wie das dann langsam wärmer wird und das Richtung kochen geht, was man nicht gut beschreiben kann, genau zu sagen, wann und wo die nächste Blase am Boden des Topfes entsteht. Das kann man sich vorstellen, dass das nicht möglich ist, weil das hängt von den Details der Boden-Mikro-Physik da ab, wo das jetzt genau als Nächstes passiert und von ganz vielen anderen Einflüssen. Und das ungefähr ist auch, was Regen ausmacht. Das nämlich lokal, man nennt das lokale Instabilitäten, die können hier mal losbrechen, da mal losbrechen, abhängig von ganz, ganz kleinen Details. Das ist, wo der berühmte Schmetterling zuschlägt. Das kriegt man nur schwer hin. Aber die Gesamtentwicklung eines Sturms, weil im Wesentlichen der Mittelwert überall die Effekte ist, kann man ziemlich gut. Das heißt, wir haben kein großes Problem mit Unsicherheiten? Das ist die Frage, was Sie als Unsicherheit definieren. In der Wettervorhersage wissen wir, dass wir, umso dichter wir an dem Ereignis dran sind, relativ gut vorhersagen können, abgesehen davon, ob das Gewitter nur links oder rechts von uns soweit sieht und uns doch trifft. Das wird sehr viel schwieriger, umso weiter ich in die Zukunft schaue. Weil da reichen schon ganz kleine Fehler in den Anfangsbedingungen und ich bekomme eine etwas andere Zukunft draußen. Was sind das für Fehler? Also wo liegen die? Also ich nehme Beispiel, ob ich nun 10,45 Grad gemessen habe oder 10,35 Grad. Das ist weit unterhalb der Messgenauigkeit von den Systemen, die wir haben und wir messen ja nur am Boden und in der Atmosphäre weht unsere Radiesonde durch oder die Satelliten geben uns eine Information relativ grob. Aber diese kleinen Unterschiede reichen aus, um in ein, zwei Tagen ziemlich deutliche Unterschiede in der Vorhersage zu produzieren. Und deswegen sind wir ganz dankbar, dass wir sehr gute Rechner haben, die auch alle paar Jahre sozusagen erneuert werden, weil wir rechnen nicht mehr eine Vorhersage, sondern wir rechnen dann teilweise mehr und nicht nur wir rechnen, sondern viele Wetterdienste in der Welt rechnen das. Und mit den kleinen Unterschieden können wir dann ein Korridor abschätzen, wo und etwa das langgeht. Und das ist bei den Klimaprojektionen das gleiche. Es gibt nicht ein Klimamodell in der Welt, sondern es gibt ganz viele und die rechnen nicht einmal, sondern sehr oft. Stichwort Modell oder Modellierung, da würde ich jetzt gerne nochmal hinschauen mit dir, Barbara. Ich wage mal die These, dass viele von uns dieses Modellieren eigentlich erst in der Pandemie so begriffen haben, wo das ja ein sehr gebräuchliches Wort war in den Nachrichten häufig vorkam, Physikerinnen viel zu hören waren und so weiter, obwohl wir diese Art der Modellierung, also das Prinzip ja in der Klimaforschung schon sehr viel länger haben. Vielleicht kannst du noch mal beschreiben, das ist ja so quasi auf Partygesprächsniveau. Was macht eine Modellierung wie? Wiederum, ich mache keine Modellierung. Ich glaube, das wäre tatsächlich ja eine Frage, für die ich frage. Aber Barbara, ich will dich ja hier auch nicht setzen lassen, bis wir zum Quatsch von Computing kommen. Wenn wir erst den Fachmann zu die Modellierung sprechen lassen, da ich tatsächlich keine Modellierung mache. Also es gibt hier zwei. Also ich glaube, der in der theoretischen Modellierung viel weiter ist, als ich. Aber Modellversuchungen, wie ja zu beschreiben, den sozusagen die Welt mit sehr vereinfachten Mitteln. Und das ist teilweise sehr grob. Also ich nehme mal ein Klimamodell, das ist aufgelöst mit 100 Kilometern. Und wenn ich jetzt einen Hörer kennenmodellieren will, dann bin ich viel, viel feiner, weil die Strukturen oder die Prozesse sonst nicht funktionieren. Okay, vielleicht magst du noch ergänzen, aber sag bitte nicht, das kann jetzt Katja noch viel besser erklären. Das stimmt nämlich definitiv nicht. Nein, nein, da nehme ich schon Stellung dazu. Wenn man mit der Wettervorhersage anfängt, da steht ganz vorne natürlich, dass das in der Atmosphäre passiert. Die Continuummechanischen Gleichungen, die Strömungen beschreiben, die kennen wir sehr gut. Und wir können die auch tatsächlich mit numerischen Berechnungsverfahren sehr gut approximieren, also die Lösungen dieser Gleichungen. Wenn man sich auf das Niveau einlässt, dass man annimmt, man könne so feine Gitter auflösen, dass man alles, was passiert, wirklich im Detail darstellen kann. Jetzt ist das aber gottse... Die Gitter vielleicht, um das nochmal zu beleuchten, das ist das Gitternetz, das sozusagen die Forschung über den Erdbeer gelegt hat. Ich glaube, in Rastern von 40 Quadratkilometern. Und deswegen ist es dann so schwierig zu sagen, ist es eher irgendwie französische Straße oder Friedrichsstraße, wo es so richtig abgeht. Oder ist es eher Berlin-Mitte oder ist es Potsdam? Das ist das Gitter, was gemeint ist. Jetzt sind aber offensichtlich Strömungen um Bäume nicht auflöstbar, wenn man Gitter von 10 x 10 Kilometern hat. Also braucht man Beschreibungen der Prozesse, die darunter liegen. Was aber die Physik handhabbar macht, ist die Tatsache, dass, egal ob ich auf der kleinen oder auf einer größeren Skala bin, Masseimpuls und Energie sind immer erhalten. Das kann ich ausnutzen mathematisch und kann auch eine Rechtfertigung dafür liefern, dass ich auf diesen großen Gitterboxen so eine Bilanz aufstelle von Masseimpuls und Energie. Das liefert mir dann schon gute Aussagen über die großgarligen Strömungseffekte. Alles, was darunter liegt und kleinprozessig ist, das ich nicht auflösen kann, das kann man trotzdem hoffen, an der Stelle kommen wir in die Unsicherheiten, die in dieser Modellierung drin liegen, kann man hoffen, mit intelligenten physikalischen Teilmodellen zu beschreiben, die sagen, wenn zum Beispiel der Wind aus einer bestimmten Richtung weht und eine bestimmte Scherung hat, also von Ost nach West schneller wird oder so, unter gewissen Außenbedingungen um die Gitterbox herum, passiert da drin mit hoher Wahrscheinlichkeit dieser und jener Turbulenzprozess oder eine Instabilität oder so was. Und dann kann man deren Nettoeffekt auf die Box hochrechnen. Das ist eine Kunst, das muss man sagen, da geht jede Menge physikalische Intuition rein und Intelligentes ausrechnen von dem, was noch ausrechenbar ist. Und an der Stelle sehe ich übrigens auch die große Chance für datenbasierte Modellierung uns da weiter zu helfen. Weil man dort hergehen kann und sagen, ich rechne jetzt mal im Detail, was in einer Box passiert, wenn ich außen mit einem gegebenen Strömungsfeld antreibe und dann nehme ich die datenbasierte Modellierung und condensiere das in ein Eingabe-Antwort-Mechanismus. Und der sagt, wenn das außen passiert, gibt es diesen Nettoeffekt für die Gesamtbox. Bevor wir zum Thema Zukunftsmusik kommen, wie groß ist die Rechenleistung, die hinter den herkömmlichen Modellierungen steckt? Oh, da weißt du, Frank, vielleicht mehr als ich. Ja, das sind auf jeden Fall alles Großrechenzentren und das, was wir in Rechenzentren haben, ist sozusagen das Kurz- und der Militär. Also sprich, was in Deutschland an Klimarechenzentrens Leistung ist, ist gewaltig groß. Wird oft dadurch ausgebremst, wie viel Strom wir an den jeweiligen Ort bekommen. Also es gibt in Hamburg das Deutsche Klimarechenzentrum, da gibt es Leitungen hin und wenn die Leitungen klühen, dann wissen wir, der Rechner darf nicht größer werden. Auf dem Telegrafenberg gibt es das System auch mit ein paar Mehrleitungen, aber es ist nicht wirklich größer. Und das ist eigentlich immer das Limit. Die sind riesige Rechenzentren. Das Potsdam Institut für Klimafolgenforschung heizt sein Gebäude damit. Wir machen das in Offenbach auch, weil sozusagen die Abwärme so ist, dass man ganzes Gebäude damit heizen kann. Wenn wir einen neuen Rechner hinstellen oder das Klimarechenzentrum ein Rechner hinstellt, dann sind wir bei dieser Top-Liste, der das Top 500 immer ziemlich weit vorne im zweistelligen Bereich. Man könnte sagen, um es mir noch einen anderen Vergleich aufzubringen, dass in so einem Rechenzentrum sind, da ist eine Ordnung von Zehntausenden von einzelnen Rechenleistungen von einem PC zusammengeschaltet und interagieren gleichzeitig, rechnen sozusagen gleichzeitig. Und um jetzt noch einen schönen Begriff in die Runde zu werfen, Attributionsforschung, auch ein Begriff, den wir häufig hören, der besagt was, ich vermute mal Frank. Ja. Der Punkt ist, bis vor wenigen Jahren, sagen wir mal bis ins Jahr 2003, hat die Klimaforschung immer gesagt, also bevor ich was dazu sagen kann, ob der Klimawandel da irgendwie was verändert hat, müssen wir 30 Jahre abwarten. Und dann kam jemand von der Universität Oxford und hat gesagt, ja, aber eigentlich haben wir ein paar Grundlagendaten dafür schon. Und es ist ein Konzept entwickelt worden, das sagt, ich kann ja in den Klimamodellen reinschauen und mir eine Welt anschauen, mit den Menschen, so wie es jetzt ist, und eine Welt anschauen, in dem der Mensch nicht da ist. Also entweder aus der Vergangenheit bis heute gerechnet, ohne den kompletten menschlichen Einfluss, oder ich nehme eine Modellrechnung aus dem Zeitraum 1850. Und dann kann ich das beides miteinander vergleichen. Und dann kann ich schauen, ist so ein Ereignis früher häufiger, jetzt häufiger, früher intensiver, jetzt intensiver, das hat sich gar nichts verändert. Ich muss aber gleich dazu sagen, wir reden dort über extremen, großräumige Ereignisse, weil die Modelle, wir reden ja über Klimamodelle, was wie 100 Kilometer, wenn wir Glück haben, wenn wir sozusagen den regionalen Modellen, so was wie 12 Kilometer, und dann kann ich nicht ein, so eine Gitterbox nehmen, sondern ich muss ganz viele nehmen. Das heißt, wenn wir zum Beispiel Attributionsanalysen machen, wie im A-Tal, haben wir uns nicht das A-Tal angeguckt, sondern haben wir das Region angeguckt, die war viel, viel größer, als das Einfluss der A. Und dann, wenn wir das A-Tal mitreihen, bekommt man etwas andere Antworten. Die Tendenz ist bei allen sehr ähnlich, aber ich bekomme nicht raus 7, sondern ich bekomme dann so ein Korridor raus, Faktor 1,29, und dann muss man das politisch übersetzen, oder zumindest nicht auch für die Bevölkerung übersetzen. Und das ist dann immer der spannende Teil, und das ist auch der Teil, in dem wir uns, ich sage jetzt mal so hart, versuchen, weil der Spruch, der da vorne steht, ist genau der richtige, dass wir das Fantasie im Hintergrund haben, dass bestimmt das, wie ich es verstehe, oder verstehen möchte. Das klingt nach einer gewaltigen, also noch mal größeren Rechenleistung, die für Attributionsstudien nötig ist, weil da ein angenommener Zustand minus Mensch mit dem, was wir bislang so fabriziert haben, abgeglichen wird, oder? Nein. Nein, okay. Das Wort andersrum ist richtig. Wir rechnen zu dem Zeitpunkt nicht. Das können wir gar nicht. Sondern wir drehen uns um und sagen, Klima-Community habt doch riesige Datenberge produziert. Das heißt, wir greifen auf die Datenberge zu. Die haben wir ja meistens schon, oder die anderen Gruppen, die jetzt machen, haben diese Datenberge schon, und schauen uns das für diese Seignisse in der Region an. Also das Rechnen zu lassen, das dauert Monate, das dauert Jahre, also das könnten wir nie machen. Das Modell hat ein Weichen laufen lassen. Das war dann aber so, was vielleicht viele kennen, CD-Atom, ich weiß nicht, ob das CD-Atom im Begriff ist. Da wurde nach außerirdischer sozusagen Informationen im All in den Geräuschen gesucht, und es wurde ein Programm geschrieben, und dieses Programm hat das, was man von da draußen aufgenommen hat, auf irgendwelche Rechnern, die sich dafür angeboten haben, von Privatleuten kopiert, und dann wurde da was gerechnet. Dann die sich Wetter atmen. Das heißt, es war ein ganz kleines Teil eines Klimamodells, was auf ganz vielen Rechnern zu Hause gerechnet hat, wenn die gerade sozusagen nicht zu tun hatten. Und da hat man das mitgemacht. Das reicht aber auch nie. Also wir greifen eigentlich immer zurück auf die Klimamodelle, die Daten, die da sind. Barbara, jetzt gucke ich nochmal, ob ich dich ins Boot reinbekomme. Brauchen wir bessere Klimamodelle? Oder stehen wir ganz gut da mit dem, was die beiden Herren entwickelt haben? Also wenn ich das so höre, würde ich sagen, wir brauchen oder es wäre natürlich vorteilhaft, wenn wir bessere Klimamodelle hätten. Klar. Okay, da gibt es auch Daumen hoch von dahinten. Was wäre denn an denen besser? Also in welchem Bereich wäre denn qualitativ etwas zu verbessern? Das ist jetzt aber leider schon wieder eine Frage. Alles, was mit diesen Klimamodellen zu tun hat, glaube ich, sind die Herren tatsächlich hier die besseren Antwortgeber, als ich. Vielleicht, ich habe ich dann auch aber gehört, Rupert, will du das noch ausführen, bevor wir gucken, was zu verbessern wäre? Ja, das ist mir schon wichtig, das zu sagen. Im Auftakt oder in der Ankündigung dieser Veranstaltung und oft in der Presse und so weiter, wird ja immer wieder davon gesprochen, dass die Klimaforschung ist so unsicher, da stand sogar Schwammig im Text und so weiter. Und ich würde gerne einfach mal den Start brechen für die Klimaforschung und die Wettervorhersage. Ich bin ja Ingenieur von Hause aus und in dem Ingenieurwesen habe ich die Möglichkeit, das Objekt meines Studiums zu verkleinern im Labor zu untersuchen und dort dann ein Wechselspiel zu machen zwischen Experiment und Theorie und Computerberechnung und die alle so zu lange zu iterieren, bis ich das wirklich das Modell im Griff habe. Die Erde können wir nicht in Labor verkleinern. Das heißt, wir können eigentlich mit der Erde nur einmal vorwärtsrechnen und die beobachten. Und deswegen ist die Computerberechnung erstens per se schon mal auf viel wackeligeren Füßen, weil wir diese Daten nicht zur Verfügung haben, mit denen wir einfach das Gesamtsystem abtasten können, experimentell. Und zweitens ist das Erdsystem natürlich so unglaublich viel komplexer als alles, was man im Ingenieurwesen oder normalerweise in Physik, Chemie, Biologie anguckt. Das ist einfach viele, viele Größenordnungen komplexer. Und zu sagen, das sollen wir jetzt präzise vorhersagen, wie ich sage mal den Flug eines Startpfeils zur Scheibe ist, ich sage mal, gelindegesagt ungerecht. Was da aber schon geleistet worden ist, ist seit inzwischen fast 50 Jahren rechnen die Modelle konsistent vor, die sich nicht viel geändert haben, die Balken werden ein bisschen geringer, aber die Vorhersage bleibt. Und die Detailgetreue oder die Detailauflösung dessen, was vorher gesagt hat, wird auch immer besser. Und man kann ja jetzt zurückgehen und die Daten der letzten 50 Jahre angucken und schauen, wie gut waren die Modelle denn damals eigentlich schon. Und wenn man das tut, stellt man fest, klar, es gibt immer dieses Fenster, wo wir nicht wissen, wie die Menschheit eigentlich agiert und wie viel CO2 ausgestoßen wird. Aber innerhalb dieses Fensters liegt tatsächlich die Beobachtung unglücklicherweise am oberen pessimistischen Rand. Aber das ist geleistet worden. Und wenn wir jetzt mal zurückgehen und würden fragen, wenn eine Industriefirma sagt, ich habe über 40 Jahre Modell übertrieben, die immer den richtigen Trend vorhergesagt haben, dann würde die doch darauf ihre Entscheidungen beruhen lassen. Und wenn wir vor 30 Jahren angefangen hätten, ernst dafür über das Problem nachzudenken und wir sagen ernst zu nehmen und nicht die Unsicherheiten nach vorne zu stellen, dann müssten wir heute gar nicht mehr darüber reden. Dann hätten wir nämlich schon einen Plan. Also Rupert sagt, wir haben keinen Erkenntnisproblem, wir haben einen Umsetzungsproblem. Du hast aber von den Daumen hochgegeben, Frank, bei der Aussage, dass wir ja bessere Klimamodelle brauchen. Wofür denn? Wo wünschst du dir eine bessere Qualität oder meinetwegen höhere Treffgenauigkeit? Wenn wir mit unseren, mit den Personen reden, die von uns Daten haben wollen, dann sind die Wünsche immer ziemlich ausgeprägt, also so von wegen, ich möchte gerne für meine Haustür, für den Block und so weiter wissen, wie sich der Trend entwickelt oder ich möchte, nehmen wir mal die Forstdeute für mein Waldstückchen was wissen. Oder in der Wettervorhersage ich möchte vielleicht doch besser wissen, wo und in so bestimmte Dinge auftreten können. Und da sind wir dann schon in dem Bereich angekommen, bei Klimamodellen, wir wissen, dass wir bestimmte Dinge nicht gut können. Wir wissen, dass wir das Prinzip sehr gut können, also die Richtung ist vollkommen eindeutig. Aber wir würden gerne viel, viel feiner aufgelöst, rechnen, um bestimmte Prozesse besser verstehen zu können, zum Beispiel bestimmte Trends, zum Beispiel Hurricane oder bei anderen Dingen. Und da kommen wir dann genau bei Quanten Computing oder bei allen drum und dran an, weil mit den Rechnern, die wir jetzt haben, sind wir irgendwann am Limit angekommen, was eigentlich noch machbar ist mit dem, wo die Forschung gern hin möchte, nämlich nicht 100 Kilometer aufgelöst, sondern Kilometer aufgelöst global in der Atmosphäre und im Boden und dann noch ganz viele chemische Prozesse und Pflanzen und alles drum und dran. Da sind wir dann irgendwann bei dem Punkt angekommen, was mit der konventionellen Rechentechnik wahrscheinlich irgendwann nicht mehr so gut funktionieren wird. Und da ist dann doch die moderne andere Technik da und vielleicht einen zweiten Punkt. Wir sind gerade, sag ich mal so, wir schauen als Wetterdienst in Europa gerade zu, dass die künstliche Intelligenz die Modelle ganz viel plötzlich in den letzten Jahren gelernt haben und die Vorhersagen von solchen Modellen mittlerweile ziemlich gut das reproduzieren können für die nächsten Tage das, was bei uns die großen Rechenzentren machen. Und da gucken wir auch gerade zu und versuchen das zu verstehen und versuchen uns auch daran einzuarbeiten, weil wenn ich kein großes Rechenzentrum mehr dafür brauche, sondern es vielleicht mit anderen Dingen einfacher machen kann, worum nicht, das ist wahnsinnig teuer, was wir dort betreiben. Okay, und jetzt aber ernsthaft Spot auf Barbara und auf Quantencomputing. Ich zitiere mal zu meiner und vielleicht auch eurer Entlastung den Physiker und Nobelpreisträger Richard Feynman Niemand versteht Quantenmechanik trotzdem die Frage was ist und wie funktioniert ein Quantenrechner. Also erstmal das ist natürlich ein ganz tolles Zitat von Herrn Feynman, was immer gerne gesagt wird nur weil wir das nicht verstehen heißt es nicht, dass wir das nicht benutzen können das sei mal ganz vorne weggesagt es gibt sehr viele physikalische Prinzipien, die man nicht bis ins kleinste Detail versteht und die man trotzdem einsetzen kann um Maschinenberechnungen was auch immer anzustellen und auch bei den Quantenmechanischen Prinzipien also ein Quantencomputer ist eingesagt ein Computer der Berechnung anstellt auf Basis von Quantenmechanischen Prinzipien und eines dieser Quantenmechanischen Prinzipien hat bestimmt auch jeder schon mal gehört Quantenverschränkungen das andere ist Quanten, also Superposition für diese Quantenverschränkungen die Erkenntnis also dass es diese Quantenverschränkungen gibt und auch wie man sie bewusst manipulieren kann gab es den Nobelpreisatz das heißt wir können auch wenn wir sie nicht verstehen können wir sie sehr gezielt nutzen und beeinflussen und damit Berechnungen anstellen also man muss Dinge nicht verstehen um sie einsetzen zu können die Superposition würde ich aber doch gerne nochmal hier ein bisschen erhellen weil du gehst damit so um und hast jetzt gesagt ist so und vielleicht kaufen dir das die Leute auch ab aber womöglich gibt es auch welche die sagen was war das nochmal genau es ist auch tatsächlich das dann auch nochmal bevor ich das jetzt gleich erkläre tatsächlich so Dinge wie Magnetismus dass es niemand genau was das ist trotz man lernt davon der Schule man kann das anfassen sozusagen oder beobachten selbstständig deswegen genau das sagt jeder so ah ja hab ich schon mal gehört irgendwie in der Schule gelernt alles gut kenne ich und tatsächlich gehen wir so ein bisschen davon aus dass Begrifflichkeiten die Superposition das ist auch soweit kommt also soweit irgendwie die die Physiklehrer in der Schule auch anfangen solche Begriffe zu verwenden und auch in den Physikunterricht einzubringen in der Superposition da vielleicht die dann zurückführend was machen Binealogik also klassische Rechner wir haben Bits und jedes Bitt kann zu jedem Zeitpunkt entweder 0 oder 1 sein und wenn ich nichts mache also wenn ich nicht manipuliere dann bleibt dieses Bitt auch immer in diesem Zustand 0 oder 1 ich kann weggehen, Kaffee trinken wie auch immer das bleibt für immer so und das heißt ich kann zu jedem Zeitpunkt in der Superposition kann ich nicht zu jedem Zeitpunkt eindeutig sagen was der Zustand ist das heißt bei einem Quantencomputer da ist die kleinste Einheit ein Q-Bit nennt man das das ist eine analoge Bezeichnung zu eben diesem Bitt das heißt ein Quantumbit und diese Quantenbits wenn ich die in Superposition versetze dann kann ich eben nicht mehr zu jedem Zeitpunkt eindeutig sagen ist das 0 oder 1 ist es runtergebrochen mit einer gewissen Wahrscheinlichkeit eine 0 und mit einer gewissen Wahrscheinlichkeit eine 1 gleichzeitig so und das ist jetzt die Denksportaufgabe finde ich für den heutigen Abend du sagst das hier in aller Gelassenheit jetzt sind wir aber natürlich im Laufe der Digitalisierung darauf konditioniert worden oder mehr oder minder in einer nicht nur was Digitalisierung betrifft auch darüber hinaus die näheren Kultur sozialisiert es ist entweder oder und es ist nicht so wohl als auch und entscheidet sich später so oder so oder anders kannst du das noch mal erklären wieso du das so mit Leichtigkeit begreifen kannst mir fällt es ehrlich gesagt schwer also es ist nicht so wohl als auch also das ist so ein bisschen es hat beide Potenzialitäten genau es ist so hier kommt so eine Wahrscheinlichkeitsrechnung in Spiel man sagt so ein bisschen umgangssprachig das ist das gleichzeitig aber das ist tatsächlich nur eine Anarchie sozusagen wirklich ist es nicht so es könnte ein Teilchen zwei Sachen gleichzeitig sein das ist nicht so das Beispiel was glaube ich jeder kennt ist dieses mit Schrödinger's Katze wo man einfach zu einem gewissen Zeitpunkt nicht mehr eindeutig sagen kann in welchem Zustand sich etwas befindet also das Beispiel ist das ist ein Gedankenexperiment von Schrödinger eben gewesen es ist ein sehr grausames Gedankenexperiment muss man vielleicht vorweg sagen Triggerwarnung man packt die Katze in der Box tut da einen radioaktiven Stoff mit rein und weiß eben dass der irgendwann zerfällt in dem Moment wo es dieser Zerfall passiert wird ausgelöst jedenfalls dass die Katze dann stirbt so und da ich nicht genau weiß wann dieser radioaktive Zerfall passiert ist wenn ich so lange ich nicht in die Box gucke kann ich nicht wirklich mehr eindeutig sagen lebt die Katze noch ja oder nein aber die Katze lebt ja trotzdem entweder ja oder nein ich kann nur nicht mehr sagen ob es so ist also natürlich kann die nicht in zwei Zuständen gleichzeitig sein ich kann es nur nicht mehr wissen okay und wenn wir in diese Box die Klimamodellierungen packen beziehungsweise die mit Quanten Computing betreiben was haben wir dann gewonnen wo kommt da eine höhere Qualität eine bessere Projektion raus ja wir packen die Klimamodellierung nicht in der Box also wir nehmen die Daten und machen damit Dinge auf einem Quanten Computer und hoffen dadurch dann schneller in dem Fall zu Ergebnissen zu kommen oder halt diese ganze Parallelität der Rechnung die wir jetzt auf verschiedenen on the edge, auf verschiedenen Kurs auf verschiedenen in verschiedenen Rechenzentren machen müssen auf einen Quanten Computer machen müssen also das heißt die grundsätzliche Berechnung ist eine andere die da passiert, wir machen aber jetzt nicht verschiedene Klimamodelle in super Position ich weiß nicht ob ihr wohl Fragen habt zum Thema ich denke eigentlich schon wenn dann gibt mal gerne ein Zeichen ansonsten habe ich noch etliche und sehe mit Entsetzen dass die Zeit gar nicht mehr reicht für alle Fragen aber euch will ich nicht abwürgen ihr welche Entschuldigung es kommt ein Mikro dann haben alle was davon, bitte schön ja vielen Dank, also ich hatte vorhin eine weil ich mich gefragt habe, weil sie erzählt haben dass sie erst das Modell aufgestellt haben und dann ist anhand der bei dem Wirbelsturm überprüft haben anhand der Stürme ob ihr Modell funktioniert wären sie jetzt anders vorgegangen wenn sie Quantenrechner zur Verfügung gehabt hätten auch nicht weil ich würde doch immer sagen man geht erstmal von dem aus die Daten die man hat von der Realität und macht sich dann das Bild davon Sie haben sich zuerst das Bild gemacht und es dann an der Realität überprüft und da habe ich mich gefragt ob künstliche Intelligenz oder Quanten Computing andere Vorgehensweisen dann an geboten hätten ich sollte vielleicht noch dazu sagen die Hypothese wie diese Struktur beschreibbar die haben wir natürlich nicht ganz aus der Luft gegriffen sondern man kennt ja Bilder von Wirbelstürmen und wenn man da oben drauf guckt dann weiß man das strömt alles immer schön ringsherum um den Wirbel die Abweichungen von Kreisbahnen sind nur klein und das haben wir natürlich mit benutzt das waren schon Voraussetzungen die ja auch Daten basiert sind also Beobachtungsbasiert und in der Zeit sehe ich auch eine Stärke oder ein Potenzial in der Daten basierten Analyse dass man wenn man es gut macht dass einem die künstliche Intelligenz oder das Maschinenlernen Hypothesen über für Theorien nahe legen können zum Beispiel hat ein Kollege von mir hat ein Linio Vorhersage rein Daten basiert gemacht und hatte Temperaturfelder über dem Pazifik über viele Jahre hinweg beobachtet hat dann versucht aus Temperaturfeldern über ein paar Tage hinweg vorher zu sagen ob 24 Monate später ein El Nino passiert oder nicht das klappt da erstaunlich gut und er konnte dann rausfinden das gewisse wenn man diese 100 Temperatur Messungen über dem Pazifik da in gewisse Moden zerlegt also in Felder die langsam schwingen und schnell schwingen die Temperaturverteilung bestimmte Verteilungen der Temperatur oder Teilkomponenten des Temperaturfeldes sind wichtig für die Vorhersage und andere sind es nicht und jetzt können wir als Theoretiker hergehen und sagen ah warum ist denn dieses Muster warum hat das einen starken Einfluss auf El Nino erscheinen und ein anderes eben nicht insofern finde ich da kann als anderes Beispiel zu dem was ich eben gesagt hatte die Maschinen die Lerntechnologie und die intelligente Datenanalyse eine Menge beitragen dazu wie wir zu unseren Startpunkten kommen wenn wir solche Theorien entwickeln jetzt würde ich gern nochmal fragen ab wann wäre denn so ein Quanten Computing Modell einsatzbereit weil du hast gesagt dass wir nicht richtig verstehen wie es funktioniert es wurscht es bei anderen Phänomen auch so kommt uns jetzt nur ein bisschen strange vor weil neu oder noch nicht so verbreitet in den Köpfen oder im Schulunterricht es wird prognostiziert das kann Anwendung finden in der Arzneimittelforschung in der Logistik überall, überall uns fehlt aber ja derzeit auch einfach noch die Hardware wenn ich das richtig gelesen habe also ab wann werden Klimamodelle per Quanten Computing ob jetzt zu El Nino oder anderen Phänomen zu treffen sein also wir haben schon Quanten Hardware die ist aber noch einfach im Prototypen-Status also die ich frage ja eben von den Cubils eben von den kleinsten Einheiten es gibt Quanten Computer heutzutage also in Deutschland gibt es von IBM einen in der Nähe von Stuttgart der hat glaube ich 127 Cubils wenn ich jetzt richtig informiert bin der größte den IBM jetzt vorgestellte sind über 1000 Cubils um aber tatsächlich sinnvolle Berechnungen damit machen zu können braucht man aber natürlich also wenn man so ein bisschen gelernt hat wie man jetzt 1000 macht dann die Chance dass es so weit kommt, dass man auch auf diese Millionen kommt ist gegeben und wird immer wahrscheinlicher also die in den letzten Jahren vor allem die Weiterentwicklungen der Hardware sind so reisant gewesen dass es tatsächlich eigentlich noch eine Frage der Zeit ist bis wir eben da sind traust du dich mit einer Jahreszahl raus zurück? machst du es trotzdem? bitte ich hätte auch eine Frage dazu man liest immer wieder dass die Quanten Computer da wo sie jetzt schon funktionieren gewisse Aufgaben extrem schnell lösen können dass aber diese Aufgaben ein bisschen der Struktur dieser Quanten Computer wie sie heute gebaut werden entgegen lehnen sozusagen im Umkehrschluss ist wie weit ist man auf dem Weg so einem Quanten Computer so allgemein programmierbar zu gestalten wie wir das mit der heutigen Hardware natürlich haben? ja also das das tielt so ein bisschen auf die universellen Quanten Computer eben ab genau also da sind wir noch nicht also das ist so ein bisschen dieses mit den einem also jetzt muss man noch sagen dass wenn man von einem Millionen die Kubels die wir heute haben das sind dann physikalische Kubels man braucht logische Kubels um universelle Rechnungen zu machen einfach um eine Fehlerkorrektur da auch drin zu haben also bei es kann man sich vorstellen bei den Bits also auf klassischen Computern den Fehler den ich machen kann ist halt ein Bitflip also ich flippe von der 0 zu einer 1 Wegenstöreffekten oder umgekehrt und das wird heutzutage gelöst dass ich ein einzelnes Bit immer mit einer 3er Kombination machen und dann so ein Minority Majority Voting also ich kudiere einen Bit eben nicht einfach nur als 1 sondern als 1, 1, 1 zufällig irgendwo ein Bitflip passiert habe ich trotzdem noch 1, 1, 0 sozusagen und dann sagt er halt aha da ist das stimmt nicht mehr dann flippe ich diese 1, 0 wie er passiert ist zurück so das kann man eben auf klassischen Computern einfach mit dieser mit dieser Verdreifachung leicht lösen das geht auf Kantenkomputer nicht man braucht um ein Kubel tatsächlich error corrected also ein logisches Kubel dann zu haben braucht man so irgendwas zwischen je nachdem was man machen möchte 9 bis 27 physikalische Kubels das heißt die Anzahl der physikalischen Kubels zu den logischen Kubels sozusagen ist nochmal ein Vielfaches dessen es gibt aber Varianten wo man Hardware Software Co-Design macht das heißt also für sehr spezielle Probleme sich der Fehler der der da passiert dass man guckt also wie wie passiert der Wand passiert und nutzt das aus sozusagen das heißt man für sehr spezielle Probleme keine universellen Rechenarten sondern wirklich für sehr spezielle Probleme kann ich mir die Architektur dieses Quantencomputers und eben die intrinsischen Fehler von denen ich dann weiß wann sie wie und wo passieren zu Nutze machen und eben daraus ein Feature statt ein Back sozusagen zu machen okay für mich ehrlich gesagt schon viel zu advanced wo ihr euch jetzt tummelt ich weiß nicht wie es euch geht ich würde einfach nochmal mit einer etwas volkstümlicheren Frage und zwar gerne erfragen also angenommen wir haben das und das funktioniert und das spuckt ganz tolle Modellierungen aus ändert das was an unserem Umsetzungsstau also letzten Endes geht es ja darum all diese Erkenntnisse umzusetzen in gesellschaftliche Information und politische Entscheidungen wird die anders aussehen wenn dieser Korridor von dem Rupert Sprach sozusagen auf eine Linie verdünnt wird kein Korridor mehr ist entscheiden wir dann klüger wäre schön aber die Erfahrung der letzten Jahrzehnte sagt hat nicht viel bewegt aber Barbara du brauchst ja natürlich um das Ding zu pitchen eine Vision die da mit einher geht und wenn jetzt schon sozusagen der Nebensitzer sagt wäre schön glaube ich aber ernsthaft nicht dran wenn ich das nämlich ableiter aus den Erfahrungen die ich in den letzten Jahrzehnten gewonnen hab dann sieht es eher nicht so aus als weg von Lydianze von Quantencomputer naja also wir reden ja jetzt hier über Klimamodell das ist ja wirklich was also aus meiner Perspektive einfach eine sehr spezielle Anwendung die man dann irgendwann in Zukunft hoffentlich schneller lösen können mit Hilfe von Quantencomputern als eben heutzutage in diesen ganzen parallelen Rechnungen auf dem klassischen Rechner also wir haben zumindest eine Energieeffizienz gesteigerte beim Berechnen ja das ist schon d.h. in Außenbach der DVD wird nicht mehr geheizt mit der Abwärme der muss sich da eine Heizung einbauen oder eine Wärmepumpe im besten Fall also auch eine Heizung ja gut genau also das ja aber tatsächlich warum Quantencomputing daran geforscht wird ist ja tatsächlich auch viel dann private Wirtschaft einfach und die wenn die präzisere Ergebnisse haben das ist ja auch danach also wo Geld ist da wird dann auch mal eher eine Entscheidung getroffen ob das jetzt für Klimamodelle und die Politik zutrifft ja mag da einer von euch zwei beiden eine Prognose wie viel klüger und wissenschaftlich informierter dann künftig Entscheidungen getroffen werden also da kann ich nochmal wiederholen was ich eben schon gesagt habe wir haben schon so viele Erkenntnisse um Entscheidungen treffen könnte dass das eigentlich getan werden müsste wenn wir dann noch bessere Klimamodelle haben können wir noch besser vorhersagen was in einzelnen Regionen passiert und mit welcher Intensität es vielleicht passieren wird das heißt man könnte sich dann auch noch bessere Entscheidungen überlegen aber abzuwarten bis wir auch das letzte bisschen noch genau durchleuchtet haben bevor wir irgendeine Entscheidung treffen ist fahrlässig also die Zeit ist genau jetzt weil wir wissen schon genug und wenn da neue Informationen reinkommen dann bitte gerne auch berücksichtigen bei den nachfolgenden Entscheidungen jetzt würde ich gerne euch in der letzten Runde das machen wir immer gerne hier nochmal bitten ein paar Tipps rauszuhauen entweder zum Thema Klima oder zum Thema Quantencomputing ich würde oder bei mir ist es so ich habe zum Beispiel als die Pandemie los ging mir nochmal Contagion angeguckt das schiel mir damals sehr gut passend zu sein in Sachen Klima und Klimafolgenforschung wo kamen glaube ich Ende 2021 der und Lookup raus aber vielleicht gibt es ja Bücher Blogs, Podcasts, Artikel wo ihr sagt da werdet ihr auf jeden Fall schlauer wenn ihr euch informieren wollt zu Klima und Klimaforschung oder zu Quantencomputing also muss nichts Fiktionales sein kann aber ich fange mal an ich glaube die anderen triggeln sich gerade nicht vor die anderen scheinen sich nicht größere ich mache Werbe für unsere eigene Veranstaltung wir haben tatsächlich im Moment eine Quantum Climate Challenge laufen das machen wir bei den Leuten seit 3 Jahren dieses Jahr ist es das dritte Jahr dieses Jahr ist das Thema Quantum Machine Learning wir machen Flut vorhersage vorhin wohl das Alta wir sind bei der Wuppau also nebenfluss aber in der Nähe da haben wir Daten auch vom deutschen Wetterdienst die dann eingehen in ein Machine Learning Modell das ist kein Klimamodell es ist wirklich eine sehr präzise Vorhersage an einen Fluss wie der Pegelstand am nächsten Tag wie heißt die Veranstaltung nochmal? Quantum Climate Challenge das nehmen wir mit und jetzt bitte ich um kurze Einlassung so ihr noch welche habt vielleicht ist auch das Problem eurer Zunft dass es keine populär wissenschaftlichen Formate gibt also willst du zuerst? also ein Buch das mir gut gefallen hat das populär wissenschaftliche ist das ist von Ramsdorf und Schellenhooper und ich weiß den Titel jetzt nicht auswendig findet man aber ist schon ein paar Jahre alt aber da werden die Grundlagen dieser Forschung sehr schön erklärt und ich habe da eine Menge rausgezogen und Leute mit denen ich gesprochen habe die nicht wissenschaftlerInnen sind was ist denn das Problem wenn man jetzt zum Beispiel in die Attributionsforschung schauen will da wurde schon ein Name genannt das ist Friederike Otto die versucht sehr intensiv gerade dieses Thema auch den Leuten zu erklären und hat vor einigen Jahren auch ein Buch geschrieben das nennt sich Wütendes Wetter das ist ein sehr allgemeines Buch über was die Attributionsforschung leisten kann ist auch noch aus einer Zeit wo bestimmte Modelle noch gar nicht da waren wo man vielleicht Dinge anders gemacht hat aber das Grundprinzip ist schon relativ gut erklärt aber um jetzt nochmal auf einen anderen Punkt zu kommen dieser Film Don't Look Up der hat schon für viele Leute die in der Klimaforschung arbeiten und das Umsetzungproblem sehen wir sehen uns ziemlich gut abgebildet also man erzählt seit Jahrzehnten was auf uns drauf zukommt und das ist da mit dem Ding genau das gleiche vielen Dank für eure Empfehlung und für eure Ausführungen davor danke dass ihr hier wart heute Abend euch auch vielen herzlichen Dank ihr wisst jetzt was ihr zu gucken zu lesen oder welche Veranstaltungen ihr im Volumen zu besuchen habt und gerne würde ich euch noch darauf hinweisen dass wir uns am 24. April so ihr wollt hier wiedersehen und dann sprechen wir über Demokratie und Digitalisierung im Supervall ja das wird glaube ich auch spannend danke dass ihr hier wart und ihr auch schönen Abend noch