 Ausstrengend kann also David Ludweiler, der Titel ist sehr lang und der Titel ist eben on the prospect and challenges of weather and climate modeling at Convexion Resolving Resolution. Puh, das ist, das ist, das versucht, komplexe Zusammenhänge etwas leichter, verständlich zu machen. Bitte gebt David einen warm Applaus und lasst es loslegen. Ja, wir kommen also auch von meiner Seite. Es ist wirklich erschreckend hier zu stehen. Ich bin sehr nervös, aber ich glaube, das habt ihr ja schon ein paar Mal gehört. Bevor ich anfange, möchte ich einen ganzen Haufen Leute danken. All den Freiwilligen, die diese Konferenz möglich machen. Es war so erschauend, ich hatte so viele interessante Vorträge und Diskussionen. Und zweitens möchte ich einmal meinen Koord-Toren danken, meinem Team, mit dem ich täglich zusammenarbeitet. Und insbesondere für diesen Vortrag möchte ich Christoph Scheer, Oliver Föhrer und Hannes Vogt danken, die einige Folien beigetragen haben, die erlaubt haben, ein paar Tage in der letzten Woche wird meine Familie zu verbringen, statt Folien vorbereiten. Ich arbeite zurzeit in der ETH in Zürich, in einer Gruppe, die darin interessiert ist, das Sommerklima in Europa zu modellieren. Und ich arbeite an der Interface zwischen den atmosphären Wissenschaften und der Modellierung und Computer Science. Das ist im Wesentlichen die Zusammenfassung der letzten, zweiten Hälfte des letzten Vortrags. Das Klimasystem erwärmt sich und der menschliche Einfluss auf das Klimasystem ist klar. Jetzt, dass wir festgestellt haben, dass das Klima wärmer wird, ist es Zeit, darüber hinaus zu gehen und zu gucken, was kommt in der Zukunft. Wir wissen, dass das Klimasystem wärmer wird und wir sind sehr darin interessiert, wie eine zukünftige Welt aussehen kann. Aber an der gleichen Zeit ist die berühmte Sage vorhersagen machen ist hart, insbesondere wenn es um die Zukunft geht. Der Weg, den wir es versuchen, ist, numerische Modelle zu versuchen, das Klimasystem in Gleichungen zu packen und Klimamodelle zu erstellen, um Vorhersagen zu machen. Wir stellen Modelle auf, um sehr spezielle Fragen oder Hypothesen zu testen. Wir wollen keine, nicht die Erde in einer virtuellen Welt bauen. Alle Modelle sind falsch, aber manche Modelle sind nützlich, insbesondere wenn man die richtigen Fragen stellt. Das hier ist eine zusammenfassende Folie vom letzten Vortrag. Es sagt uns im Wesentlichen, dass wir eine Auswahl haben. Je nachdem, wie viele Kohlendioxid wir emitieren, können wir entweder in einer Welt leben, die eine Temperatur Veränderung hat, wie die Grafik auf der linken, oder wir können in dem weiter bisher Szenario bleiben und wir erhalten eine Welt, die mehr so aussieht wie die auf der rechten Seite. Das ist eine Grafik der Oberflächentemperaturänderung und enthält einige sehr nützliche, sehr robuste Eigenschaften, die in der Vergangenheit untersucht wurden. Wir sehen zum Beispiel, dass die Kontinente schneller wärmer werden als die Ozeane, die Pole stärker als die gemäßigten Breiten, mittleren Breiten und wir haben diese seltsamen schwarzen Punkte, wo alle Modelle, die zu diesem Platz beigetragen haben, auf das Vorzeichen beeinstimmen. Worauf wir gucken, ist der globale mittlere Temperaturänderung. In dem unteren Panel sehen wir die historischen Daten. Unter dem großen Szenario sehen wir auf die Zukunft. Wir haben das rote, weiter so bisher Szenario und wir haben das Szenario mit Gegenmaßnahmen, dass etwa die Welt ist mit zwei Grad mehr, die ich eben gezeigt haben. Die gerade rote Linie, die ihr sehen könnt, von einer großen Menge von Modellen hergesagt werden, etwa 40 verschiedene und die rote Fläche zeigt die Spreizung, die diese Modelle haben, die Ungewissheit, die unsere Modelle vorhersagen. Es wurde viel Aufwand gemacht, um diese Spreizung zu unterstehen, woher sie kommt und natürlich wir würden sehr gerne diese Unsicherheit reduzieren, damit wir besser wissen, wohin wir uns bewegen. In diesem Vortrag möchte ich auf einige Ideen angucken, wie wir denken, dass wir diese Unsicherheit verringern können, indem wir unsere Klimamodellen verbessern. Denn wir denken, dass ein Großteil dieser Unsicherheiten daherkommt, dass wir sehr große Unsicherheit haben in der Antwort der Wolken. Und wenn wir die Darstellung von Wolken verbessern können, glauben wir, dass wir diese Unsicherheiten reduzieren können. Also ein Outline für meinen Vortrag. Zuerst möchte ich über Wolken und Klimaten-Empfindlichkeit sprechen und dann möchte ich eine kurze Einleitung darüber geben, wie Klimamodelle im Prinzip funktionieren. Und ich möchte über neue Klimamodelle sprechen, die dazu fähig sind, andere Sachen zu berücksichtigen. Und ich möchte auch die Modelle, die dann halt gewisse Probleme einfach umgehen. Und ich möchte darüber sprechen, welche Herausforderung es auf Komput-Berechenbarkeit gibt, wenn man Klimamodelle berechnen möchte und auch, was wir halt die nächsten fünf Jahre erwarten können. Lasst uns mit den Wolken anfangen. Ich habe euch bereits erzählt, dass ein Großteil der Unsicherheit kommt durch die Repräsentation und Modellierung von Wolken. Und Wolken können sehr verschiedenartig sein. Also ich habe hier ein paar Beispiele aufgezeigt. Diese Wolken können entweder die Erwärmung begünstigen, es wäre dann ein positives Feedback, so dass die Wolken halt ein positives Feedback machen, das alles immer wärmer macht, aber auch sie können ebenfalls Kühlungseffekten führen. Sie können also sowohl positiv als auch negativ wirken. Und in der Zukunft wäre es möglich, dass wir mehr hohe Wolken haben, die dann auch positives Feedback haben. Oder wir könnten mehr tiefe Wolken haben, die dann das gegenteilige Effekt hatten und alles kühlen würden. Wolken könnten höher gehen, positives Feedback. Sie könnten ein weniger Eisanteil mehr Wasser haben und dadurch halt negatives Feedback haben. Sie könnten ihre Position verändern, wenn sie näher zu den Polen gehen, wäre das positives Feedback. Und ihr könnt sehen, dass es einen ganzen Sog gibt, wie Wolken reagieren können und das Modell und auf das Klima beeinflussen können. Und ein Problem in den aktuellen Klimamodellen ist, ist, dass Wolken halt nicht explizit aufgelöst sind. Aber wir parametrisieren sie und wir nutzen semi halb parametrisierte Sachen, um die Sachen ungefähr zu beschreiben. Wir haben eine Modellwelt und wir können diese Welt verändern. Und eine Art, sie zu verändern, ist sie zu vereinfachen, dass sie auch einfach zu verstehen ist, was die Leute hier gemacht haben, ist, dass die Erde von allen Inhalten entfernt ist. Es gibt nur das Wasser und die Landmasse. Und was wir hier sehen können ist, es gibt in der Mitte eine intratropische Konvergenzzone. Und das System, das man hier uns anschaut, ist hier einfach zu verstehen. Und jetzt hat man diese idealisierte Welt und man kann sie einige Jahre simulieren und man kann das ja erhöhen um einige Grad und dann kann man es weiter laufen lassen und dann kann man sich anschauen, wie die Modelle und die Simulationen sich unterscheiden, wenn man verschiedene Sachen durchlaufen lässt und durchbrechen lässt. Und man kann sehen, dass diese vier verschiedene Modelle hier jeweils in den Vertikalen spalten, dass halt verschiedene Sachen, dass halt verschiedene Muster auftauchen und die Niederschlag ändert sich auch bei den Modellen sehr drastisch. Und unsere Hypothese ist das, diese Unterschiede sind im Wesentlichen, liegt im Wesentlich daran, dass die Wolken halt nicht explizit dargestellt werden oder reponsiert werden. Und deswegen gibt es hier sehr viel Unsicherheit. So, um kurz zu erklären, was eine Parametrisierung ist, ich möchte eine sehr kurze Einführung dargeben, was Klimamodelle sind. Also was macht ein Klimamodell? Es sind zwei wichtige Aufgaben. Das erste Aufgabe ist verteilt Wärme horizontal. Also wir haben differenzielle Erwärmung. In den Tropen ist es wärmer als in den Polen. Und die erste Aufgabe ist es, diese beiden Zustände zu mischen. Und die Art, wie es das tut, ist der folgende. Dies ist eine hochauflösende Simulation auf 13 Kilometer Auflösung von Oliver Stepper. Das ist im Wesentlichen, wie ein Klimamodell aussieht, von außen, von oben gesehen. Also dies ist kein Satellitenbild. Das ist eine vollständig virtuelle Welt. Und man sieht viele von den Features. Wer in den Tropischen haben wir eine starke Konvektion, tiefe Gewitterströme. Hier haben wir die ausertropischen, zyklonische Liefdrucksysteme, die nach Europa kommen. Viele von euch kennen die sehr gut. Irgendwo sind tropische Störme hier unten. Das ist ein tropischer Sturm. Und diese Wirbel, diese Vermischen, die Wärmegradienten zwischen den Tropen und den Polen. Das ist eine Aufgabe. Der andere Aufgabe ist, in der Vertikalen zu mischen. Das ist ein ähnlicher Grafik wie vor dem letzten Talk. Also hier, die Atmosphäre erwärmt die Oberfläche und irgendwie muss ein guter Teil der Energie von der Oberfläche in die Atmosphäre zurückgehen. Typischerweise geht das über die Wolken. Aber diese Wolken sind sehr schlecht dargestellt. Wir haben einen Wärmeenergie- und Massentransport, der seit den 70ern sehr gut repräsentiert wird. Die haben schon in den 70ern einen sehr guten Arbeit gemacht für die Horizontale. Aber in den vertikalen Richtungen sind wir noch sehr unsicher. Also ein paar Gleichungen. Was ein Klimatmodell macht, das löst im Wesentlichen ein paar Differenzialgleichungen. Also das Detail ist nicht so wichtig. Oben sieht man die Nivea Stokes-Gleichen, unten die ideale Glasgleichung. Das ist der atmosphärische Teil eines Klimamodells, das Klimamodell Cosmo, das wir benutzen, das auch vom Deutschen Wetterdienst benutzt wird für die Wettervorhersagen. Und unglücklicherweise, also wir möchten diese Gleichungen lösen, um diese netten Bewegung kriegen, die wir in der Animation gesehen haben. Aber leider kennen wir keine analytischen Lösungen für diese Gleichungen. Also können wir sie nur numerisch lösen, durch numerische Methoden auf einem Gitter. Und das ist sehr, sehr teuer. Also wir haben ein numerisches Gitter, das die Erde in drei Dimensionen umhüllt. Und wir lösen diese fünf Gleichungen am jeden Gitterpunkt. Und sobald wir diese Gleichungen überall gelöst haben, haben wir einen neuen Zustand. Und von dem können wir dann in Zeitschritten weiter nach vorne gehen. Je nachdem, wie viel Rechenleistung man zur Verfügung hat, kann man die Zahl der Gitterpunkte verändern, oder die Auflösung des Gitters verändern. Es gibt Prozesse, die auf diesem Gitter sehr gut dargestellt werden. Und es gibt Prozesse, die darauf nicht gut dargestellt werden, oder die längeren Skalen haben, die überhaupt nicht auf das Gitter passen. Typische Klimasubmodelle heutzutage haben Gitter weiten zwischen 100 und 25 Kilometern. Jetzt nehmt an, ihr habt zwei Gitterpunkte, in dem Abstand ein Prozess, der genau dazwischen passiert. Das ist sehr schlecht abhilden in diesem Gitter. Daher gibt es Prozesse, die sogenannte Untergitterprozesse sind, wie zum Beispiel Chemie, Wolken, Mikrophysik. Und wir haben ein paar Prozesse, die wir als neue Modellmodule hinzufügen, wie zum Beispiel das Oberflächenmodul oder Ozeanmodul. Und dann haben wir viele Prozesse, die haben längere Skalen, die zu klein sind, um auf diesem Gitter dargestellt werden. Das ist hier zum Beispiel die Tiefe und die flache Konvektion bei den großen Gewitterstürmen in den Tropen. So hier möchte ich ein bisschen mehr Detail darauf gucken. Hier haben wir ein sehr wunderbarer Foto eines Gewitters über dem Bodensee. Das war im April 2016. Und es ist ein wunderschönes Bild, weil wir sehr viele von den Prozessen, die vorgehen, sehen können. So zum Beispiel hier haben wir die hohe und abströmenden Regenden, wo die Luft sehr schnell aufsteigt, bis zu 10 Meter pro Sekunde. Hier oben haben wir die Amwos-Region, da ist viel Eis. Und direkt darunter, da sind wir als sehr Interessanteres Regen aus der Brücken, aus dem Rapp stürzen. Und wir können es hier wirklich in diesem Bild sehen können, weil es hier aus Eispartikeln sehen. Normalerweise sind sie aus Regen, aber dass sie aus Eis sind, können sie besser fotografiert werden. Nehmen wir an, wir wollen es in einem Modell auflösen. Und wir legen ein Gitter darüber. Und das Gitter hat eine Gitterweite von 10 Kilometer. Also wir haben Informationen an diesen Gitterpunkten und an diesem Gitterpunkt. Und wenn was eine physikalische Parametrisierung macht, ist, ist versucht alle diese Prozesse, die überall dazwischen passieren. Und das ist eine extrem schwierige Aufgabe. Und daran wird seit den 70er Jahren gearbeitet und einige der brillantesten Wissenschaftler, die ich kennen, haben über dieses Problem gearbeitet. Und bis heute haben wir immer noch die Unsicherheiten, die ich euch gezeigt habe. Also schlagen wir einen anderen Weg vor. Vielleicht ein einfacherem Weg. Wir schlagen vor, einfach die Auflösung des Gitters zu vergrößern. Denn jetzt haben wir ein paar Punkte, die die Wolke darstellen. Und wir können tatsächlich anfangen, die Bewegungen, die mit diesem Prozesszusammenhängen aufzulösen. Wir können sogar noch weitergehen und sogar wirklich viele Eigenschaften dieser Wolke erfassen. Wir haben das gemacht. Wie gesagt, wir müssen das Cosmo-Wetter- und Klimamodell. Und wir haben das für eine Simulation über Europa getan. Wir haben drei Simulationen gemacht. Eine bei 50 Kilometern, eine bei 12 Kilometern, eine bei zwei Kilometern. Und wir konnten diese zwei Kilometer-Version benutzen, weil wir eine sehr spezielle Version von Cosmo benutzt haben. Eine Version, die aus den GPU-Beschleunigungen ausnutzen können. Das ist eine Projekte von Oliver Furer gemacht wurde. Dafür könnten wir eine Auflösung von 1.500 mal 1.560 Gitterpunkten ausführen für eine Periode, für etwa 10 Jahre gemacht. Und wir können auf 144 Noten ein Jahr in etwa zweieinhalb Tagen berechnen. Ich könnte euch jetzt ein Haufen Statistik zeigen, aber das ist langweilig. Also zeige ich euch lieber ein paar Beispiele. Einige von euch erinnern sich vielleicht an diesen Sturm Kürel. Es war ein sehr starker Sturm der Deutschland im Januar 2007. Und die weiße Farbe bedeutet Wolken. Und die blaue Farbe sind Niederschlag und die roten Farben sind starker Niederschlag. Und der Wind pustet von lang dieser weißen Linien. Und der Sturm ist hier in Norddeutschland. Und es hat die gleichen Eigenschaften wie ein tropischer Sturm. Man sieht hier halt diese typischen Niederschlags-Moster und man sieht die kalte Front. Und hier haben wir weitere Niederschlags, also Niederschläge bis zu fünf Millimeter pro Stunde. Und man kann die Auflösung dieses Modells erhöhen. Und dann sieht man sieht man viel mehr Details. Aber man sieht hier auch viel mehr Niederschlag entlang dieser Grenze. Aber auch quantitativ sind diese Simulationen sehr ähnlich. Und jetzt versuchen wir die Konvexion und diese Parameterisierung auszuschalten. Und wir verändern die Gattaseils, also Drittaseilsgröße auf zwei Kilometer. Und wir sehen dann, dass wir Eigenschaften sehen, die man vor nichts sehen konnte. Zum Beispiel hier diese engen Teile hier, die waren halt vor nicht in den Modellen drin. Und wenn man sich das genau anschaut, ist das halt sehr, sehr interessant, weil dieser Wind geht entlang dieser sehr dünnen Linien. Und der Winkel ist auch relativ seltsam. Und man sieht auch, dass das Ganze etwas aufgebrochen ist. Wenn man das jetzt wirklich zum Radarbild vergleicht, was über einem tropischen Zyklon im Pacific aufgenommen worden. Und dann sieht man, dass die Modelle sich ähnlich sehen wie diese Beobachtung. Und das sieht jetzt halt viel deutlich mehr aus wie die tatsächlichen Observierung. Also Simulationen gegenüber tatsächlich Beobachtung. Und hier noch einmal die gleiche Art von Abbildung. Wir haben Juli 2006, wir haben Donnerstürme und Regen. Und auf der linken Seite sieht man die 12 Kilometer Simulation auf der rechten Seite, sieht man die 2 Kilometer Simulation, wo wir die Gewitter explizit und die Gewitter explizit berechnen und betrachten. Und wenn man jetzt sich auf die linke Seite fokussiert und auf den Niederschlag konzentriert, man sieht, dass es eine sehr große Region abdeckt, sodass wir grün und blaue Farben haben, die erscheinen. Man sieht, dass die höchsten Ausschläge ungefähr um Mittagszeit sind. Wenn ich jetzt auf die rechte Seite wechsle, und dann hat die Animation leider aufgehört. Und wir können halt sehen, dass oder identifizieren, die einzelnen Blasen identifizieren. Wir können die einzelnen Gewitter in der Simulation erkennen, weil es explizit behandelt werden. Und man sieht halt, es gibt sehr kleine, aber sehr intensive Bereiche von Niederschlag. Und wenn man sich die großen Ausschläge anschaut, also die Ausschläge, genau, jetzt im Nachmittag, wenn man darüber nachdenkt, wann hat man normalerweise Gewitter? Und meistens ist es halt eher später Nachmittag, Anfang Nacht. Und jetzt das Timing, also der Zeitpunkt des Niederschlags in der Simulation ist viel realistischer und viel besser. Also um das zusammenzufassen, für den ersten Teil, also wir wollen die Parametrisierung der tiefen Konnexion ausschalten, denn können wir das Modell viel näher an elementare, physikalische Prinzipien heranführen. Und die Darstellung von Konvexion und Niederschlag extrem. Also das Problem ist natürlich, diese Berechnungen sind sehr teuer zu berechnen. Also wenn man jetzt die Auflösung verdoppeln will, dann braucht man ungefähr acht Mal mehr Rechenpower. Wenn man von zehn Kilometer Bereich gehen will, zum zwei Kilometer Bereich gehen will, Anmerkungsübersätze, ich habe die Zahlen nicht genau verstanden. Und ich möchte jetzt ein paar Sachen zeigen, die wir in diese Richtung versucht haben. Klimamodell berechnen ist sehr teuer und dafür benutzen was Supercomputer. Was ein Supercomputer super macht, ist das Netzwerk. Wir haben einen Haufen Notes und Haufen Sockel, die von CPUs oder GPUs belegt werden. Aber was wichtig ist, sie sind mit einem sehr, sehr schnellen Netzwerk verbunden. So können wir unser Problem in kleinen Häppchen zertreilen und sie auf die individuellen Notes, also CPUs oder GPUs, verteilen. Das ist der Computer, den wir benutzen. Er heißt pit-stained in Logano, in dem Supercomputer-Center. Und es besteht aus ungefähr 5300 Hybrid-Notes. Jede Note enthält ein Intel-Hassball-CPU und eine Nvidia-Tesla-GPU. Es ist eine der größeren Maschinen auf dieser Welt. Ein paar kennen die Top 500-Liste. Im Moment ist es Nummer 3. Und das ist auch die Nummer 1 auf der Liste der grünsten Computer der Welt. Es ist eine beschlossene Maschine. Um Zugang zu haben, muss man im Wesentlichen ein Proposal schreiben, der dann reviewed wird. Und wenn die gut achters einen Vorschlag mögen, kriegt man Zeit. Das Wichtige ist, dass 90 Prozent von Hybrid-Notes kommt, die enthalten CPUs und GPUs. Und wir glauben, dass die GPUs sehr gut sind für die Berechnung von Wetter- und Klimamodellen. Und das ist deshalb, weil Grafikkarten, also GPU Accelerators oder wie man sie mal nennen möchte, substanziell parallel sind und durchsatzorientiert sind. Und vor allem stellen sie eine große Speicherbandbreite zur Verfügung. Und das ist sehr wichtig für Wässer- und Klimamodellen, dass sie viele der Operationen in diesen Modellen von der Speicherbandbreite beschränkt werden und nicht von den vorhandenen, zur Verfügung stehenden Fließkommerzahl-Operationen. Was ich mit Speicherbandbreite meine, wir gucken auf eine dieser Operationen, die wir in dem teuersten Teil des Klimamodells machen, in dem dynamischen Kern. Und viele Operationen sind dadurch charakterisiert, dass sie Information von ihren Nachbarn benötigen. Also um diesen orangenden Punkt zu aktualisieren, brauchen wir Daten von dem Nachbarn-Links und von dem Nachbarn-Rechts für diesen einfachen Fall. Und wenn wir es niederschreiben, dann sehen wir, wir haben a von i plus eins und dann a von i und dann a von i minus eins. Und so, deshalb müssen wir sehr viel Daten hin und her schieben, um einen einzelnen Datenpunkt zu aktualisieren. Und wir nennen das die arithmetische Intensität. Das heißt, wie viele Rechenoperationen oder wie viele Daten wir benötigen, um eine arithmetische Operation durchzuführen. Daher zählen wir all die Fließzahl-Operationen 1, 2, 3, 4, 5. Also wir haben fünf Flops. Und dann zählen wir alle Datenzugriffe. Wir sind sieben, plus sieben mal acht Beiden in einfacher Auflösung. Also wir haben 0.1 Flops pro übertragenden Beid. Und jetzt gucken wir, ob wir Speicher oder Flops limitiert sind. Dadurch gucken wir ein ganz einfaches Modell, das von Williams aus Berkeley aufgestellt wurde. Das sagt im Wesentlichen, die erreichbare Fließkomperleistung kann in zwei Bereiche aufgeteilt werden. Die eine ist durch Flops beschränkt und die andere ist durch Speicherbare Breite beschränkt. Also wenn wir mehr Flops als beid machen, dann sind wir in dieser Region rechts und wir sind von der Peak Floating Point Performance limitiert. Und wenn die arithmetische Intensität niedrig ist, dann sind wir hier in dem Speicherbare Breite limitierten Regime. Und wenn wir gucken, wir sind bei 0.1 Flop pro Beid, dann sind wir hier ganz am linken dieser Kurve. Und das ist ganz typisch für diese Operationen, die wir in den dynamischen Kernen von Klima- und Wettermodellen finden. Wenn wir die Speicherbare Breite erweitern, wird unsere Zeit, die wir bis zur Lösung kriegen, runtergehen. Und deshalb denken wir, dass GPUs gut für unsere Modelle sind. Also haben wir unseren gesamten Code. Also die gesamte Sache ist sehr ... Also Cosmo ist ungefähr 300.000 Zahlen von Fortrancode und der Teil der Dynamiken berechnet ist in C++ geschrieben und wurde mit der Domain-Spezifischsprache Stella portiert. Das Gute an dieser Sprache ist, dass diese Sprache die Hardware-Architektur vor den Operationen abstrahiert und dadurch können wir halt verschiedene Berechnungseinheiten wie CPUs und Grafika nutzen können. Und so könnten wir halt sehr tiefgehende, technisch tiefgehende Performance, also Leistungsoptimierung durchführen können. Und wir haben halt eine Einheitlichstündung und die Physikberechnung wurde mit Compiler-Direktiven portiert. Und wir haben den Zeitschrittsalgorithmus komplett portiert auf die Zielberechnungseinheiten und portiert so, dass man halt nicht Dateien transferieren musste. Und das macht alles viel schneller. Und was haben wir halt dann erhalten? Also wir haben hier ein starkes Skalierungsexperiment gemacht und hier ist halt die Größe der Menge oder der Dimension. Und dann schauen wir, wie inwieweit, wenn wir jetzt das Problem entsprechend vergrößern, wie verändert das dann halt die Berechnungszeit. Und was wir halt hier sehen können, ist halt auf der Y-Achse haben wir die Zeit pro Zeitschritt, die gebraucht wird. Und auf der X-Achse sind die, wenn man halt auf, also auf der X-Achse, wenn man nach rechts geht, dann reduzieren wir die Anzahl der Knoten oder die Anzahl der Gridpunkte pro, ja, für die Simulation. Und hier rechts sieht man ein lineares Skalierungsregime. Und die Zeit, bis man die Lösung hat, erhöht sich das Proposional zu den Ressourcen, die man hat. Aber hier unten sieht man auch eine Sättigung. Und das kann anmerken, was du besetzt hast, das soll ich leider nicht verstanden. Und wir kriegen hier etwa den Faktor 6 an Geschwindigkeitsgewinn. Aber was noch wichtiger ist, dass wir den Faktor 8 an Ressourcen gewinnen. Und was wir halt hier wirklich haben, ist ein sehr effizientes Modell. Und die Frage ist nun, und wie weit können wir das voranbringen? Wie weit können wir das nutzen, also ausnutzen? Also das Problem von Klimaempfindlichkeit ist, dass das Ganze ein globales Phänomen ist und wir wollten wissen, wie weit wir kommen können. So, also jetzt machen wir die andere, der anderen Teil. Wir versuchen sogenanntes schwache Skalierung des Problems. Und beim schwachen Skalierung meinen wir, das wäre die Zahl der Knotenotes. Nein, okay, lasst mich nochmal anfangen. Wir verändern die Größe unserer Berechnungsdomäne und die Anzahl, wir verändern die Zahl der Knoten, die wir auf das Problem werfen, entsprechend. Und wir versuchen, dass die Zahl zur Lösung konstant ist. Das ist nicht selbstverständlich, aber wir meinen damit bei dem Experiment hier, bei dem wir die über den ungefähr 10 Noten für den Alpenbogen, für die europäischen Demäne nehmen wir ungefähr 100 Knoten. Und die Frage ist, wird dieses ganze Modell bis auf dem Planeten skalieren. Das wäre etwas wie 5000 Knoten. Und jetzt die Frage, die wir beantworten ist, erstens skaliert ist, zweitens, was ist die Zeit bis zur Lösung? Also sind wir da? Und wir wollten die Basislinie bei 1 km etabliert und dann wollen wir die Effizienz des Kosmomodells überprüfen. Wir haben diese ganze Sache gemacht und wir haben hier wieder die Zeit pro Zeitschritt auf der Y-Dachse, was die Maß ist für die Zeit bis zur Lösung ist. Und nach rechts haben wir die Anzahl der Knoten. Das ist für die ganze Maschine, was über 5000 Knoten ist. Und was wir sehen, dass die Zeit bis zur Lösung tatsächlich konstant bleiben. Das ist das, was wir erwartet haben aufgrund der Numerik im dynamischen Kern. Also okay, jetzt haben wir ein Modell, das auf sehr hohen Auflösungen, auf globale Größe skalieren kann. Und wir können jetzt viele machen. Wir können testen, ob wir schnell genug sind, um globale Simulationen zu machen. Dafür haben wir einen Experiment gemacht für die idealisierte barometrische Welle. Das ist ein sehr wichtiger Testkelfall für Klimamodellen von 2006. Und hier simulieren wir die Entwicklung einer baroklinischen Welle. Eine baroklinische Welle könnt ihr etwa so denken wie der extra tropische Zyklon, den ich euch gezeigt haben, also eine Art Herbststurm. Und weil wir ein regionales Modell haben, müssen wir ein paar Tricks anwenden. Zum Beispiel in der Ost-West-Richtung haben wir Domäne periodisch gemacht. Wir haben sie so aneinander geklebt. Und wir haben ein kleines Problem an den Polen. Weil wir ein regionales Modell haben, gehen die Abstände in den Polen sehr, sehr klein. Also am Ende haben wir am Polen eine Singularität. Wie wir das machen, wir schneiden einfach die Domäne bei 80 Grad Nord und Süden ab, weil wir hier ein Berechnungs-Experiment machen. Aber wir decken hier immer noch 98 Prozent der Erdoberfläche ab. Dann benutzen wir dieses Setup, um Simulationen zu machen, die etwa zehn Tage dauern. Also über zehn Tage laufen. Und hier können wir jetzt sehen die Druckwelle oder das Druckdiagramm, das Drucksystem für jedes System. Und wir können hier das Tiefdrucksystem, diese kalte Front, die sich um diesen Kern rumwickelt. Und wenn man genau hinschaut, dann sieht man sehr seltsame Sachen. Also das sind kleine Ausbuchtungen. Und wenn man da reinsumpt, dann sieht man diese Ausbuchtung. Und das ist eigentlich eine neue Eigenschaft. Dieser Fall wurde immer und immer wieder betrachtet. Aber nur mit Grit, also Gittermodellen, mit 20 Modellen oder ein Kilometer, dann sehen wir diese neuen Phänomene und können halt neue Fälle beschreiben. Also wie lange dauert das jetzt zu berechnen? Wenn wir eine Klimasimulation machen, wir können viele Berechnungen machen. Aber zwei sehr berühmte sind, also die wir häufig machen sind. Wir machen nur eine 30-Jahres-Lange-Simulation. Man kann z.B. die letzten 30 Jahre bis heute simulieren und dann halt 30 Jahre bis zum Ende des Jahrhunderts oder halt bis in die Zukunft simulieren. Also das andere wäre eine Jahrhundert-größte ordnungsmäßig-Simulation. Und natürlich, um eine Jahrhundert-Simulation zu machen, braucht man natürlich, muss man zehn mal so schnell sein wie sonst. Man muss also, man muss also Monate an einem Tag simulieren können. Und wenn man dann die Geschwindigkeitsvergleiche anschaut, dann sieht man halt diese simulierte Jahre pro Tage, dass die halt ungefähr sind bei also bei der Gritzei ist von zwei Kilometern, wenn wir das realieren, dann dann anmerken, dass du übersetzt hast. Ich bin mir gerade nicht sicher, wo jetzt auf den Folien ist. Und wir brauchen einen weiteren Faktor zehn, um die Simulation mit einem Kilometer berechnen zu können. Also wir haben noch ziemlich viel zu machen. Und natürlich, diese Simulation haben einen Kosten. Wir haben die Energie, die wir brauchen, also die Energie in megawatt Stunden pro simulierten während des Modell. Und wir teilen das nenne ich durch die erreichbare Bandbreite, er tapiert durch hochoptimierte Mikro-Bandschmarks. Die andere Idee ist, wir haben vielleicht die Aussage gehört, Fließkommar-Operationen sind umsonst. Was kommt daher, dass Fließkommar-Operationen auf heutigen Architekturen viel billiger sind als Speicherzugriffe, etwa 100 mal so billig wie im Bereich von Time und über 1000 mal billiger, relativ zur Energie. Also die zweite Idee ist es, um die Energie zu reduzieren, müssen wir die, den Gesamtmenge an Datentransfers reduzieren. Wir können einfach die Zahl der Speicherzugriffe zählen, die wir in unserem Modell tatsächlich machen. Und dann kommt die schwierige Sachen, wir müssen die unteren Grenzen wissen, wie viele von diesen Speicherzugriffen oder zweiter Übertragung sind tatsächlich nötig. Dazu gibt es ein Performance-Modell, es ist etwas schwierig in zwei Minuten zu erklären. Im Wesentlichen, was es tut, man hat eine Operation, wie die, die ich euch vorhin gezeigt habe. Und dann erhuckt ihr, welche Daten braucht man für die Operation und dann guckt man, was hat man tatsächlich im Code geschrieben. Und dieses bildet man dann auf die Architektur ab, um zum Beispiel die verschiedenen Cash-Liffel abzubilden. Und dann kann man es damit vergleichen, was man tatsächlich tut. Die wichtige Teil ist, dieses Leistungsmodell guckt nicht nur an eine einzelne Operation zurzeit, sondern was wichtig ist, wenn man eine Operation macht, das hat Operationen davor, Operationen danach und sie können die gleichen Daten benutzen. Und dieses Performance-Modell guckt darauf, wie der gesamte Algorithmus oder die Implementation des gesamten Algorithmus geschrieben ist und guckt einem dann eine untere Grenze für die nötigen Datenübertragungen. Das haben wir unser Modell gemacht. Die Nummer ist ein wenig nicht sehr informativ, aber wir können sehen, dass wir relativ gut sind bei dem ersten Ausdruck. Also das heißt, unsere Implementation passt gut zur GPU-Architektur, aber wir können vermutlich etwas besser zu und besser werden bei der Speicherbandbreite. Und wir hoffen, dass andere Gruppen diese Metrik aufnehmen und so Bezieher voneinander lernen können. Also hier sind meine Schlussfolgerungen. Ich hoffe, dass ich euch zeigen konnte, dass wir einige und coole Physikberechnungen hier machen konnten und dass wir einige interessante Computer, also Berechnungsprobleme, die wir gelöst haben und auch die Klimaempfindlichkeit berechnen konnten. Aber es gibt immer noch sehr viel Verbesserungen, die gemacht werden können, sehr interessante Wissenschaft, die betrieben werden kann. Und wenn euch das interessiert, dann sprecht mit mir oder stellt mir das alles, was ich gemacht habe, falsch ist. Und wir können alles viel, viel besser machen. Und viel, vielen Dank für eure Aufmerksamkeit. David Lloyd-Valje, vielen Dank für diesen wunderbaren Vortrag. Ich kann verstehen, dass viele Leute leidendisch sind darauf, dass du diese Supercomputer nutzen kannst. Einige Fragen. Ein Moment, bitte. Wenn ihr Fragen auf Deutsch, also wenn ihr Fragen auf Deutsch stellen wollt, ist das auch okay. Danke für den hervorragenden Vortrag. Habt ihr jemals versucht, die Gitterzeit größe, dynamisch zu anzupassen, wie es etwa in der italienischen Sache ist? Wir selber haben sowas nicht gemacht. Das ist ein Forschungsfeld in meiner Forschgemeinschaft, das momentan auch untersucht wird. Nicht so wenig eben, nicht so viel in Klima-Vorhersage gab, in Wetter-Vorhersage. Denn man muss halt noch effektiver sein in der Wetter-Vorhersage als in der Klima-Vorhersage. Und wenn man jetzt Hurricanes oder tropische Zyklonen betrachtet, wenn man die zu dem Zeitpunkt, wo man sich detektiert, dann kann man das Grip direkt anpassen auf die Zyklohne. Für das Klima selber ist das jetzt nicht so interessant, meiner Meinung nach, weil die Energieausgleich oder Gleichgewicht ist durch diese tiefen schmalen Wolken halt eher bestimmt. Und man braucht halt ein Grid-Spacing von ein Kilometer und weniger. Und wenn man diese Wolken berücksichtigen will, braucht man eine extrem kleine Resolation überall. Und das wäre halt nicht so realistisch und deswegen erstmal auf die Wetter-Probleme eingehen, bevor wir auf die Klima-Probleme eingehen. Hilft Beobachtenden der Wolken dabei sie zu simulieren, etwa mit Flugzeugen oder das machen wir sogar sehr viel. Und wir persönlich haben viele Mess-Experimente und Leute fliegen mit Flugzeugen durch Wolken, um das Ganze noch genauer zu beobachten und sie verfolgen, wie Wolken miteinander verbinden, wie sie wachsen. Und es gibt halt Jahrzehnte von Wolkenbeobachtungen und eines der interessantesten Dingen, die passieren oder das jetzt auch gerade wahrscheinlich in den nächsten Monaten ist die Normal 2-Kampagne vom Max Planck Institute in Hamburg. Und sie machen halt sehr interessante Kopplungsexperimente, wo sie hoch auflösende 1 Kilometer Messungen machen und sie wollen halt die zwei Felder zusammenbringen. Anmerkung des Übersetzers, ich habe nicht genau verstanden, welche zwei Felder er meint, mögliche. Also es gibt sehr viele Beobachtungen von Cloudern, aber das Problem ist sehr, sehr schwierig. Ich komme aus einem etwas anderen Feld, ich habe medizinische Bildverarbeitung gemacht und ich bin etwas überstaut, dass die Speicherband breite bei eurer Anwendung der wichtige Grenze ist. Ist das wirklich, geht es darum billige Speicher bei Großarm oder geht es mehr darum, A6, also spezielle Hardware für eure Anwendungen, Klimamodelle zu entwickeln? Also nun die Anwendung, warum wir das benutzen hängt von den Eigenschaften der Anwendung an und du erinnerst dich daran, dass dieses Modell, das ihr sehen konntet und der Anstieg von dem Unterschied zwischen den zwei Zeilen war halt so groß wie die Erweitung der Speicherbrandbreite und es ist eine andere Perspektive, die du hast und wenn wir jetzt Matrix Multiplikation machen, ist das etwas anderes als was wir machen, aber es ist an für sich, also warum diese Sachen gewählt wurden, ich weiß es nicht, also eigentlich ich weiß es schon, aber ich habe die Entscheidung nicht gemacht und die haben das dann übernommen und haben eine sehr genaue Analyse gemacht und ein Grund ist, dass diese Supercomputer, also wenn man sie bauen will, dann macht man sich dazu Nutze, was im Konsumentenmarkt schon vorhanden ist an Hardware und was auf dem Markt ist und man kann diese Sachen dann neu kombinieren und ich habe auch schon gesehen, dass es einen Vortrag gibt zu solchen neuen Chips, die neu entwickelt werden, das ist sehr teuer, aber es gab trotzdem Ansätze mit FPGAs Sachen selber zu entwickeln und Sachen dann irgendwie weiter zu entwickeln, aber das ist etwas, was wir wahrscheinlich in Zukunft machen können, aber es ist etwas, was jetzt realistisch gesehen momentan einfach nicht passiert und es gibt auch einige Forschungsergebnisse in Berkeley und wir haben noch ein paar weitere Fragen. Danke für den interessanten Vortrag. Im Moment zur Zeit werden Wolken in radiativen Transfermodellen als 2D modelliert. Überlegt ihr auch der radiativen Transfer zu machen? Ja, also momentan ist unser Ansatz, also es ist eine Frage, an welchem Prozess man interessiert ist, wenn man sehr daran interessiert ist, auf einem sehr hoch aufgelösten Strahlungstransfer hat, dann ist das das richtige Weg, aber Strahlungstransübertragung ist halt sehr teuer und das nächste ist, also wenn man strahlenden Strahlungsübertragungen berechnet, dann macht man halt jede Viertelstunde eine Simulation und wenn man das halt so macht, dann beeinflusst das Ergebnis unserer Simulation nicht zu sehr und ich würde gerne die Frequenz, wie wir das Modell abfragen, erhöhen, bevor wir 3D modellieren. Es ist aber im Endeffekt einfach eine Abwägung. Wir denken es ist momentan okay, aber wenn man was anderes, also wenn man es genauer simulieren will, es gibt Leute, die das bereits erforschen und sich damit beschäftigen. Ich habe eine Frage aus dem Netz. Der Vortragcode, über den du geredet hast, gibt es schon sehr lange, wie es mit der Paralysierungskode, wenn sich die Architektur ändert. Ja, also man hat einige Ansätze, wie man das Problem angehen kann, aber das hängt davon von den Politik, also von der Politik in deiner Forschungsgemeinschaft an, was versucht die Gemeinschaft zu sein, woher sie gehen. Es gibt eine Idee, dass, um diese Kotbasis zu neuen Architekturen zu portieren, braucht man einen Hauptzweig und so sauber und so getestet wie möglich. Und wenn man dann eine Architektur hat, dann macht man eine Abzweigung und fokussiert diesen Koten auf die neue Architektur und lässt eine Menge Doktoranden daran arbeiten. Und Cosmo, das was für uns ist Cosmo halt eine Community, da sind 15 Wetterdienste drin und es sind mehr 160 Universitäten und ich weiß nicht was noch alles drin ist und sie haben alle verschiedene Maschinen, sie haben alle verschiedene Architekturen und wir haben einen Weg, wo wir, also Olli hat das entschieden, weil er der Mastermind ist, also wir haben uns entschieden für einen Weg, so dass wir eine identische, also eine einzigartige Sündtags auf einem hohen Level haben, so dass wir die Änderungen zwischen Architekturen nicht durchführen müssen und das ist mit diesem Stellar Library halt möglich, was tiefgehende elementare Optimierung erlaubt, automatisiert und mit Hilfe von Compiler, Direktiven kann man diese Sachen dann halt nutzen und ohne den Code selber zu ändern. Praktisch gesehen gibt es natürlich immer noch einige Details, wo man tatsächlich Sachen ändern muss, aber wie ... Also hier ist eine Liste von Literatur und dieses Paper beschreibt es ganz gut in Detail. Ich habe noch ein paar Fragen. Danke für den Vortrag. Du sagst es, dass die meisten Eure Berechnungen für Klimamodelle ist, denkst du, dass es diese auch auf kurze Wettermodelle anzuwenden? Okay, also um die Grafik-Kartenversion zu entwickeln, das wurde halt von der Metis Swiss vom Wettersdienst aus der Schweiz vorangetrieben und auch der Wetterdienst hat halt auch viele Entwickler bezahlt für das Projekt und die Initiative für das Projekt wurde auch dort ursprünglich entwickelt und heute verwenden sie auch diesen Code tatsächlich und sie nutzen ihn auch. Sie machen etwa 30 Kilometer Simulation und zwar jeden Tag und momentan wird das Code zurückintegriert in den Hauptentwicklungszweig und ich weiß, dass einige andere Wetterdienste das ebenfalls nutzen wollen, weil für sie ist es weniger über ihre Anwendungsgebiet, sondern es ist für die Energieverbraucht dieses Codes, dieses Programms, weil er einfach viel effizienter ist. Wenn man die Architektur ändert, dann spart man halt viel Energie und vor allem wenn man Strom selber bezahlen muss, kann man halt hier echt eine Menge Geld sparen. Danke. Ich habe vier Fragen. Zuerst, die Zeit bis zu einer Lösung ist relativ hoch. Was ist das praktische Limiter bei? Und zweitens, was ist die mittlere Zeit zwischen Fehlern bei den Maschinen, auf denen es läuft? Die dritte Frage ist, was ist die kleinste Auflösung von dem Glaubst, dass es nutzbar ist? Gibt es eventuell ein qualitatives Plateau? Und viertens, wie über den Wettbewerb zwischen Modellen und der Parametrisieren, wie viel spielt Politik dabei eine Rolle? Im Sinne von internationaler Politik oder der Konkurrenz zwischen verschiedenen Klimamodellen aus verschiedenen Staaten? Ich werde die ersten drei beantworten. Die letzte Frage dauert länger. Wir besprechen das nach dem Talk. Also die minimale Zeit zur Berechnung der Lösen ist die Datenz. Also es gibt einige physikalische Grenzen, wie schnell man den Speicherbereich auf den Speicherbereich zugreifen kann. Deswegen ist es schwierig auf 10 oder mehr Simulationen pro Tag zu kommen, denn die Verzögerung der Datenübertragung ist für unsere Zwecke groß, also kurz genug. Was ist der meantime zwischen Fails für Supercomputer? Ich weiß nicht, wie viele Supercomputer versagen. Also wir haben das immer monatlich, also in monatlichen Blöcken gemacht. Also ungefähr 10 Prozent. Es waren halt Festplattenzugriffe, die gescheitert sind. Und MetaSwiss hat halt zwei Computer und wenn einer halt versagt, dann wechseln sie zu dem anderen. Und sie haben auch Backup-Systeme. Und die dritte Frage war was? Also die ultimative 10, hoch minus 10 Meter ist die Auflösung, die wir erreichen wollen, ganz am Ende. Das ist das woran wir arbeiten. Eine weitere Frage. Danke für den Vortrag. Das ist gerade etwas Unruhe im Saal. Danke für den Vortrag. Meine Frage ist für die Gittergröße, für kleinere Gitterweite muss man den Zeitschritt auch verlängern. Ihr benutzt so weil ich das verstehe ein Wettermodell um Klimatmodellierung zu machen. Und euer Problem ist, euer Zeitschritt geht immer kleiner und eure numerischen Fehler addieren sich. Und wenn man das über 30 Jahre macht, dann sind dann eure Reservate voll von numerischen Fehlern. Warum versucht man nicht eine sehr gute Simulation für ein Jahr und macht dann eine Parametrisierung und benutzt dann diese Parametrisierung wieder für das Klimamodell und macht dann adaptive Grittsachen. Das ist eine nette Frage. Vielen Dank. Haben wir genug Zeit dafür? Wir haben eine Minute. Also in numerischen Schema-Teile gibt es explizite und implizite Schema. Und der Zeitschritt, den man simuliert mit der Gittarsch-Abstand, also die Methoden sind nur lokal und das annähernd lineare Skalieren ist und das verwendet halt nur lokale Kommunikation. Aber viele andere Modelle haben halt globale Kommunikation. Und wenn man jetzt über die Energiefrage nachdenkt und die Energie verbraucht, ist auch nicht höher. Und die numerischen Fehler, also was die numerischen Fehler angeht, es hängt von dem Gritt-Space ab und zu einem geringeren Grad von den Timesteps. Also erst mal, wir haben einen sehr, sehr viel Forcing. Also wir haben Berge, die Forcing induzieren. Wir haben große dynamische Systeme, die Forcing erzeugen. Und wenn man diese starken Forcing mit den Fehlern vergleicht, dann sieht man, dass das Forcing stärker ist. Und wenn man jetzt so was wie ein kaustrisches System hat, wenn man jetzt die Lorentz-Dynamik anschaut, dann also, okay. Und jetzt haben wir einige Methoden, um dieses Chaos-Problem anzugehen. Und die Lösung ist, einfach eine Menge Simulation zu machen und sie dann halt ein bisschen auskombinieren. Anmerkungen zu übersetzen, ich habe es nicht genau verstanden. Also das, und man schaut dann halt die verschiedenen Anfangszeitpunkte an und ich kann auch einige Papers empfehlen. Okay David, vielen Dank für diese fantastische Vorlesung. Wir sind sehr froh.