 Ich habe es gelesen, das hast du mir irgendwie erzählt. Bei mich, die den Unterschied cancel lernen. Also das werden wir alle letzt lernen. Den Unterschied zwischen einem Packmodel und einem Klimamodell von Calabarint. Bitte. Danke. Hallo und willkommen alle. Ich würde gerne mal in den Slides sehen. Ah, okay, nice. Willkommen zu meinem Talk über Klimamodelle und die Wissenschaft hinter der Klima Borts. Ich erst mal was vorstellen und sagen, wer was ich so mache. Ich arbeite beim UFZ, das Helmholtz Center für Umweltforschung in Leipzig und arbeite für ein ESM Projekt, das ist Fortgeschrittenes Erzsystem Modeling. Und ich bin PhD an der Universität Potsdam. Hier ist das Mesoscale Hydrologic Models, das ich mitgemacht habe. Das ist ein Impactmodel. Ich bin bei Science History Future und bin auch Künstler. Der Talk ist in drei, sechs Sektionen unterteilt. Die Einführung, Borte einführe, ein bisschen Glosser mache, z.B. was ist Wetter, was ist Klima. Ein bisschen über Vorhersagen reden, z.B. warum wir das Wetter in drei Jahren nicht vorhersagen können, aber schon. Dann, das zweite Teil, bitte, längste, die Wissenschaft hinter Wärmungsgrafen. Wo ich euch erkläre, was sie braucht, wenn über Klimawandel über Wasser gerät wird. Der dritte Teil ist, hier ein Impactmodel auf euren eigenen PC installieren könnt, wenn sie Zeit haben. Am Ende gibt es eine kleine Zusammenfassung und einmal die Einleitung. Wetter wird definiert als der physikalische Status der Atmosphäre an einem bestimmten Zeit und Klima ist das durchschnittliche Wetter meistens über 30 Jahre. Aber auch andere Zeitperiode werden genauer. Die große Frage ist, wenn wir Wetter nicht an einem bestimmten Datum in einer Dekade bestimmen können, warum acht ist es dann trotzdem Sinn, generelle Trends fürs Klima zu finden. Das ist die Frage, die da immer kommt. Die beantworte ich euch gerne. Zuerst gibt es ja durchschnittliche und die durchschnittliche Decke gibt uns Informationen über die durchschnittliche Reflexion. Das hat einen Einfluss auf die Wärme. Noch ein Beispiel, durchschnittliche Niederschlag, die Temperatur, also Regenstehen. Die Temperatur hat einen Einfluss auf Vegetation. Das hat einen Einfluss auf den Kohlenstoffzyklus. Das wiederum auf Wärme und Kühlung, Eisdecke, Reflexion. Ihr seht alle, das ist alles miteinander verbunden. Wenn wir die durchschnittliche, bestimmte physikalische Statie der Atmosphäre wissen, dann können wir was über Klima Trends sagen. Die Frage ist also, was ist ein Klima-Modell? Das AI-5 definiert ein Klima-Modell als eine mehrrische Repräsentation des Klima Trends. Das ist die ganze Rührung aus dem IPCC-V213. Sie ist das intergovernmentale Forum über Klima, Wandel, IPCC-Panel und Climate Change. Das ist der Hohl, das ist das ganze Teil. Ein Klima-Modell könnte ein GCM sein, ein generelles Zirkulationsmodell, ein globales Klima-Modell, wo es meistens um Ozean-Unsphäre Zirkulation geht. Ein regionales Klima-Modell ist ein GCM, aber es ist ein regionales Klima-Modell. Das ist ein regionales, also auf einer begrenzten Größe. Vielleicht ist es wahrscheinlich auch höher auflösen. Der begrenzte Bereich heißt, da gibt es das Input und Output, weil es halt kein Geschossenssystem ist. Ein Input-Modell ist kein Klima-Modell, sondern simuliert extreme Wetter-Ereignisse, guten oder so, falls du irgendwie Darm bauen willst und dir wissen wollt, wie hoch sollte dieser Darm sein, dann mach dir ein Input-Modell. Das gibt dir dann Informationen darüber, welche Höhe, wenn ein paar Dekaden zu erwarten werden könnte. Dafür werden Infect-Modells benutzt. Das ist so die Einführung, das kann ich zum Hauptteil kommen. Dann werde ich anfangen mit der Frage, ist das beweisbar, ist es bewiesen? Als erstes zeige ich euch einen typischen Graf, den euch Menschen zeigen möchten, wenn sie über Klimawandel reden. Der Graf hat auf der X-Achse die Zeitschale in Jahren, auch erweitert in die Zukunft, und wir sehen drei oder vier Regionen. Und die graue Region ist schon der Vergangenheit. Wir reden hier von der globalen Veränderung der Oberflächentemperatur der Erde. In Celsius oder in Kavine ist bei Differenzen kein Unterschied. Und dann seht ihr verschiedene Farben in verschiedenen Farben. Mit RCP und dann der Nummer. Und ich werde euch erzählen, was die Zahlen und die Grafen euch sagen wollen. Ich zeige euch erstmal was über die Zahlen und die Unsicherheiten da drin. Die transparenten Flächen. Ich erzähle euch was über die repräsentativen Konzentrationsfade, kurz RCP. Ich definiere die Farben der Grafen. Dann möchte ich euch was dazu erzählen über die Quellen dieser Grafen, nämlich wo die herkommen. Und ob sie bewiesen sind und ob es dafür wissenschaftliche Evidenz gibt. Insbesondere gibt es wissenschaftliche Beweise dafür, dass es klatsächliche Klimamande gibt. Mal zuerst nehme ich hier die Definition aus Wikipedia für wissenschaftlichen Beweis. Die Stärke von wissenschaftlichen Beweis ist im Allgemeinen basiert auf statistischen Analysen und der Stärke wissenschaftlicher Kontrollen. Das bedeutet, man macht Experimente wieder und wieder. Man verändert den einen oder anderen Einfluss im Experiment, um dann zu klären, dass dieses oder jenes keinen Einfluss auf das Ergebnis hat. Um einzuschränken, was eine Quelle des Resultats ist und was damit nichts. Ich betiere hier insbesondere ein Comic aus X-Cathedie, weil das eine gute Darstellung davon ist. Jetzt sehen eine Person, die einen Schalter zieht. Ich kriege einen elektrischen Schlag. Es passiert etwas Schlechtes. Das könnte auch Klimawandel sein. Da gibt es im Wesentlichen zwei Szenarien. Da würden sich normale Personen entscheiden. Okay, ich ziehe den Schalter nicht mehr. Aber WissenschaftlerInnen wagen wohl häufige Frage. Hm, passiert das immer, wenn ich das tue? Denn das ist im Wesentlichen genau, wie man experimentell Dinge beweist. Und gerade im Klimawandel sagen die WissenschaftlerInnen, auch wenn es wissenschaftlich interessant ist, wir sollten das wirklich nicht überprüfen. Wir haben nur eine Erde, wir können das Experiment nicht häufig machen. Außer, wenn wir eine Zeitmaschine halten. Das ist etwas, was WissenschaftlerInnen schon vor langer Zeit gesagt haben, nämlich etwa schon 1957. Menschen machen nun ein großräumiges Experiment geophysischer Natur, das in der Vergangenheit nicht hätte passieren können und in der Zukunft nicht reproduziert werden kann. Wenn man also die Frage stellt, ist es beweisbar. Bei Klimawandel-LognerInnen werden die sagen, ja, nee, das passiert hier nicht. Und die anderen könnten antworten, naja, gut, wenn ihr jetzt auf dieser Straße steht, würde ihr über diese Straße gehen, wo gerade ein Auto entlang kommt. Es könnte ja sein, dass das Auto stoppt. Aber normalerweise wird das das nicht tun. Und wir wissen leider viel über dieses Experiment. Es wird häufig ausgeführt und wir wissen, dass es gefährlich ist. Also lasst uns ein bisschen die Faktoren verändern. Was, wenn hier ein Wuffel mit hoher Geschwindigkeitsaufentzug kommt, was auf etwas, was nicht eine Straße ist, würdest du natürlich trotzdem noch über dieses Etwas bewegen? Die Antwort ist, naja, wahrscheinlich nicht. Wir wissen praktisch nichts über die Situation, aber wir wissen, dass Momente schwung erhalten bleibt. Also, dass der Wuffel in Bewegung bleiben wird. Wir haben keine Erfahrung damit und haben trotzdem eine Idee, was da passieren wird wegen der physikalischen Gesetze. Das ist etwas derselbe, was wir tun, wie mit Klima. Das sagen wir, wir haben die Erde und die Sonne. Die Sonne hat eine gewisse Strahlung, die teilweise abgestrahlt wird. Also teilweise reflektiert wird. Und die Erde selbst strahlt etwas ab. Wir wissen von der solaren Insulation, der solaren Abstrahlung, die hat eine gewisse Größe. Und wie viele Anteile dieses Lichtes wieder zurückreflektiert werden, das nennen wir Albedo. Also, die reflektierte Energie ist dann in Albedo mal der solaren Insulation. Und dann wissen wir, dass das Licht, was aufgenommen wird von der Lichtenergie, die von der Erde aufgenommen wird, ist halt genau eins minus das Mal der solaren Energie. Und mit der Stefan-Bolzmann-Gesetz für Energie-Emissionen und der Stefan-Bolzmann-Konstante können wir ausrechnen, bei welcher Oberflächentemperatur die Energie-Balance erreicht wird, bei minus 19,5 Grad Celsius. Wir wissen, dass die Erde deutlich wärmer ist, weil unser Modell in diesem Fall viel zu einfach ist. Also müssen wir was an dem Modell ändern, nämlich die Atmosphäre. Die Atmosphäre hat einen interessanten Einfluss. Es hat ein paar Treibhausgase in Spuren, etwa Stikoxide, Methan, Sauerstoff, Wasser, Ozone, Kundschaftdioxid. Und diese Treibhausgase reflektieren die Abstrahlung der Erde wieder zurück auf die Erde zum Teil. Und das hängt mit der Transparenz bei der Atmosphäre zusammen, die irgendwo zwischen 15 und 30 Prozent sitzt und insbesondere ist sie nicht konstant und auch das ist ein interessanter Faktor. Die Atmosphäre gibt Energie ab, die nennen wir J-Atmos, und das geht ab in den Weltraum und es gibt Teile, die zurückgehen zur Erde. Und die Energie, die in die Atmosphäre geht, ist 1 minus Transparenz mal diesen Surface-Energie. Also haben wir zwei Gleichungen, nämlich Energie, die in die Atmosphäre geht, geht auch aus der Atmosphäre wieder raus. Das andere ist, die oberflächende Energie der Erde ist 1 minus Albedo dieser solaren Insulation, plus den Anteil der von der Atmosphäre reflektiert wird zurück auf die Erde. Also haben wir zwei Gleichungen mit zwei Unbekannten und finden mit dem Stefan Boltzmann gesetzt, dass die oberflächende Temperatur 15 Grad Celsius ist. Das ist nicht so weit weg von dem, was wir wissen. Was wir in 2000 gemessen haben, war die oberflächende Temperatur 14,5 Grad. Das habe ich für ein spezifisches T gerechnet, nämlich bei einem T von 22,5%. Und wenn wir das T ein bisschen verändern, etwa zu 20%, also mehr CO2 in der Atmosphäre etwa zu lassen, durch eine Fabrik, die CO2 von sich gibt, dann geht die Transparenz runter und die Temperatur geht hoch zu etwa 16,6 Grad. Das ist ziemlich altes Wissen. Das ist vielleicht erst das Viel auf einer Folie und trotzdem sehr interessant zu sehen. Das kommt aus einem Paper von 20 Ahenios aus 1896 und dagegen ist, um den Einfluss von Kohlen Säure in der Luft, nämlich so, ja, das ist der alte Begriff für CO2. Er hat sich angesehen, was wir mit einem Anteil des CO2 an der Atmosphäre verändern. Was wäre der Einfluss auf die Temperatur? Sagen wir, das CO2 würde sich verdoppeln in unserer Atmosphäre. Was passiert dann? Dann würde die durchschnittliche Temperatur Erhöhung in Dezember etwa in Leipzig bei 6,1 Grad Celsius oder Kelvin liegen. Das ist vielleicht etwas hoch, aber schon Ahenios in der Zeit wusste, dass es saisonalen und regionalen Einfluss auf das Klima gibt. Also nicht nur auf durchschnittliche Temperaturen über die sämtliche Erdkugel. Ahenios hat also sowas gesagt, wenn CO2 Anteil sich verdoppeln würde, dann reden wir von etwa 4 bis 6 Grad Erwärmung und die aktuellen Modelle sprechen etwa von 2 bis 4 Grad Erwärmung. Vielleicht gibt es da also schon die Überschneidung. Also das ist das alte Modell. Jetzt kommen wir also zu der Frage, ein Klimamodell repräsentiert physikalische Gesetze, wo kommen Unsicherheiten her? Wenn wir alle physikalischen Gesetze wissen, könnten wir alles damit kalkulieren, warum gibt es dann Unsicherheiten? Und dafür gibt es verschiedene Gründe. Zum Beispiel sind die Eingangsbedingungen jetzt anders. Wie schnell bewegt sich etwas, wo sind die Wolken genau? Wir wissen, dass nicht so präzise und so entstehen einfach Fehler. Das zweit ist die Auflösung eines Modells, die temporale und räumliche Schrittenlänge. Wir rechnen unsere Klimamodelle immer mit Differenzialgleichung und wir können damit nicht die Bewegung des Moleküls da reingeben, sondern halt immer bestimmte Durchschnittle. Deshalb sitzen wir da rein, was normalerweise passiert und so gehen Unsicherheiten runter. Für manche Fragen ist es dann wichtig, sich eine niedrige Auflösung zu haben, aber meistens vor allem eine höhere. Es gibt auch Truncation, das sind Limits der Berechnungen, also Computerbegrenzen und mangelndes Verständnis. Wolken in Klimamodellen regnen meistens zu früh. Ja, wenn wir das alles wissen, aber diese Quellen der Unsicherheit, warum gibt es dann nicht das eine beste Klimamodell? Warum können wir nicht einfach die höchste Auflösung nehmen und den besten Kopfhüternehmen kriegen und einfach alles am besten machen? Und dann haben wir unser bestes Klimamodell. Da gibt es einige Gründe für, zum Beispiel den dynamischen Kern. Es ist die Methode für Differenzialgleichung, wie zum Beispiel das Netz da rein zu tun. Wir können zum Beispiel ein Dreiecksnetz haben oder ein recht eckiges. Mit dem Rechtecken können wir schneller rechnen. Mit dem Dreieckigen können wir eine größere Auflösung machen. Da könnten Unterschiede sein entstehen. Beide haben Vor- und Nachteile. Auch die Parameterrisierung, Parameter wie Zeit oder Albedo, die sind wahrscheinlich nicht die letzten Parameter, weil sie aus allen Parametern hergeleitet werden. Die können meistens so geschätzt werden. Werden dann kalibriert mit verschiedenen Fehlergrenzen und das gibt dann andere Unsicherheiten. Dann gibt es Schemas, Schemata, verschiedene Formulationen, physikalische Prozesse, zum Beispiel von Wolken. Und wieder die Truncation. Wie begrenzen wir die Rechnungskraft unserer Computer? Vor allen Dingen Rundung gemeint. An welcher Stelle runden wir? Was machen wir also? Wir gucken uns alle Modelle an, die wir haben. Die verschiedenen Klimamodelle. Sie können unser Klima repräsentieren. Wir nehmen die alle, die bestimmte Bedingungen erfüllen. Da komme ich gleich zu. Und den Output nehmen wir einfach den Durchschnitt von. Und wir kriegen eine Klimaprojektion. Und diese Weite der Unsicherheit, die du dir da seht. Welche Modelle gucken wir uns an? Das sind koordinierte GCMs. Die Klimamodelle werden verglichen mit einem gekoppelten Modell. Und dieses Projekt, das das vergleicht, heißt ZIMIP 456. Und im Moment für die AR6, das 6. Assessment Group Report, wird jetzt gerade ZIMIP 6 erstellt. Und auf der Karte sind die Forschungszentren, die bei ZIMIP 6 mitmachen. Diese Forschungszentren sind größtzeit spezialisierte Universitäten und meteorologische Büros. Aber jede Institution kann mitmachen, wie solange sie ein Protokoll für ihre Verteiligung folgen. Diese Institutionen müssen variablen für ein Set von definierenden Experimenten und einer historischen Simulation aus 1850 bis heute produzieren. Das blaue Ding ist ein Link. Wenn ihr nachher meine Slides anguckt, dann könnt ihr da drauf klicken. Und dann könnt ihr so was machen. Wir haben hier wieder ein Graph. Auf der X-Achse sehen wir wieder eine Zeitschaler von 1850 bis heute. Auf der Y-Achse haben wir wieder Temperatur-Anamoli, also Temperatur-Unterschiede. Also die Temperatur-Differenz, also wie sehr die Erde sich erwähnt hat. Wir sehen es hier mit 3 und 5 im Vergleich. Das waren die Modelle, die für AR5 angeschaut wurden. Also sehen wir einen Band von Unsicherheiten mit diesem gelben und blauischen. Und die liegen zwei Linien, blau und rot, von hier mit 3 und 5. Die schwarze, das ist was tatsächlich beobachtet wurde. Wir sehen, das ist ein großer Unterschied. Das ist nur die natürlichen Kräfte beobachtet wurden. Und wenn wir auch die menschlichen Unterschiede rein tun, dann passiert das hier. Und das ist der beste Beweis, den wir eigentlich überhaupt kriegen können. Und wir haben uns die physikalischen Gesetze eingeschaut. Und die physikalischen Gesetze sind Resultate von Wissenschafts- und Experimenten. Und das hier ist dann der Beweis. Also eine kleine Hinzufügung. Hier gibt es auch andere koordinierte Modellvergleichsprojekte. Auch außerhalb der APCC. Zum Beispiel der Fokus auf Landoberfläche ist. Das mache ich. Und es gibt auch veröffentliche Werke außerhalb der APCC. Zurück zum Grafen. Wir haben über den Teil gesprochen, ist es bewiesen? Ich hoffe, ich konnte euch beweisen, dass das so ist. Jetzt rede ich über die Quellen dieses Grafen. Ich habe über die APCC sehr viel geredet. APCC ist das Intergovernmental Panel on Climate Change, das intergovernmentale, das inter... Zwischenregierungen, Forum oder ein... Ja, Überkriegmerwandel. Das hier ist der Cover des Reports. Da gibt es da vorgabt schon vier. Wieder Name sagt, der fünfte. Das erste Report FAR wurde 1990 veröffentlicht. Der zweite SA in 1995. TAR 2001. AR4 2007. Ja, Sie haben die Namen geändert. Dieses ist AR4. Und 2007 und jetzt ist es AR5 2013. APCC besteht aus mehreren Arbeitsgruppen mit Arbeitsgruppe 1 bis 3. Und ich fokussiere besonders den Report von Gruppe 1 über die wissenschaftlichen Aspekte vom Klimasystem und Klimawandel. Aber es gibt auch die Wunderhabilität von soziale, inhonomischen, natürlichen System. Und das dritte, wie diese Emission begrenzt werden können. Ich habe euch schon ein bisschen eine Geschichte gezeigt der Klimamodelle. In der Mitte der 70er Jahre haben Klimaforscher untersucht. Was haben nur CO2-Emissionen, Regen und Sonne untersucht, aber keine Wolken. In der Mitte der 80er wurde das Eis mit hinzugefügt zu den Modellen, auch die Wolken. Und die Landoberflächen wurden berücksichtigt. Man sieht hier hübsche Berge. Aber zu der Zeit war die Auflösung so gering, dass die Alpen nur eine oder zwei Knotenpunkte in dem Netz hatten. Also wir hatten nicht so viel über Landflächen, aber es wurde zumindest hinzugefügt. Und für den ersten Assessment Report wurde ein Ozean hinzugefügt. Also ein Ozean aber hat keine Tiefe. Für den zweiten Assessment Report wurde der Ozean auch, wo die Tiefe des Ozeans mit berücksichtigt. Und es wurde Vulkanaktivität hinzugefügt und Ausstoß von Fabriken. Für den vierten Report wurden weitere Prozesse hinzugefügt. Es gab vorher schon Climate Reports, die diese komplizierteren Prozesse untersucht haben. Aber in diesem Report wurden diese Prozesse mit weiter berücksichtigt. Und unter anderem wurde auch die Zirkulation im Ozean mit berücksichtigt. Errosolo wurden hinzugefügt und der Kohlenstoffkreisloh wurde auch hinzugefügt. Für den Rf4 wurden chemische Elemente in der Atmosphäre hinzugefügt und die Vegetation. Und für den Rf5 wurden Ozone hinzugefügt und Biomasse, die verbrennt und die Emotionen, die dabei entstehen. Es gibt auch eine sehr lange Geschichte von der Geschichte der Modellierung von Klima auf Computern. In 1904 wurde von Bill M. Birkins wurden Gleichungen entdeckt, die verwendet werden konnten, um den zukünftigen Zustand der Atmosphäre zu berechnen. Er hatte sich das so vorgestellt, dass die Berechnung dieser Sachen auf mehrere Menschen aufgeteilt werden sollte, damit das überhaupt geschafft werden könnte. In 1922 hat Lewis Frye Richardson einen sechs Stunden Wettervorhersage geschafft, indem er Handisch die Gleichung gelöst hat. Er hat dafür 42 Tage gebraucht und diese 42 Tage wurden über zwei Jahre verteilt. Das heißt, er war natürlich ein bisschen hinter dem Wetter hinterher, um herauszufinden, schlussendlich, dass er nicht das richtige Ergebnis dafür bekommen hat. Das wurde wussten Leute gar nicht, es wurde vergessen, weil sie gedacht haben, das ist ja nicht sehr praktisch. Aber dann, 1950, als Computer da waren, wurde das 1940 der erste erfolgreiche Wetter, das erste erfolgreiche Wettermodell ausgerechnet, auf dem Computer. Und 1955, heutzutage verwendeten wir Supercomputer, die viel größer sind. Zum Beispiel, Julich Wizard for Reapian Leadership Science Computer. Das ist ein Supercomputer in Julich und ich zeige euch ein Bild. Aber man ist leider nicht da zu erlaubt, das zu tun. Aber da solche Computer eh shiny sind, dachte ich mir, das Bild ist hinreichend. In diesen Covers gibt es Einschübe und in dem diese Einschub heißt Standard Note und da besteht aus 2x24 Kern mit jeweils 2,7 GHz und der Hyperthreaded ist. Das heißt, man kann da 69 Threads oder Prozesse auf diesen Notes laufen lassen und diese Notes haben 12x8 Gbit RAM, die jeweils mit 2666 MHz getaktet sind. Das ist ziemlich viel, würde man denken, weil es, wenn man klein ist. Und im Fall von Jewels hat man 2.271 von diesen Standard Notes. Man hat 240 große Memory Notes und 56 beschleunigte Notes, die dann auch noch GPUs haben. Und ich möchte euch über Jewels erzählen nicht, weil es der schnellste ist. Es ist auch nicht der schnellste in Deutschland. Es war es, als er gebaut wurde, aber das ist auch schon ein bisschen her. Ich möchte euch darüber erzählen, weil Jewels Rechenpower bereitstellt für das Advanced Earth System Moduling Capacity Model. Was ich euch vorher erzählt habe, es gibt leider nicht so viel Memory auf diesen Notes. Das heißt, was muss man machen? Man muss dein Problem zerteilen und verteilen auf die verschiedenen Notes. Und zwischen diesen Notes muss es dann Kommunikation geben. Und wenn die Aufgabe einfach ist, dann kann man sein Grad zerteilen und man zerteilt das und zwischen diesen einzelnen Teilen muss dann Kommunikation an den Boundaries. Wo wir gerade über Grids reden, möchte ich ein bisschen über die Geschichte der Auflösung von solchen Grids reden. Für den ersten Assessment Report war die Auflösung 400 Kilometer mal 400 Kilometer. Und wie ich bereits gesagt habe, wir sehen, man sieht diese zwei gelblichen Fähke in der Mitte. Das sind die Alpen. Für den zweiten Report wurde die Auflösung, wurde sie verhalbiert auf 250 mal 250 Kilometer, verdoppelt oder halbiert, die nachdem, wie man es formulieren möchte. Und für TH-180 Kilometer für den R5 ist es etwas ein bisschen anders. Das möchte ich euch auch zeigen. Und ich zeige euch auch hier zwei Auflösungen. Es gibt Auflösungen für höhere Models, wo die Auflösung 87,5 Kilometer beträgt und für sehr hohe Auflösungen beträgt die Auflösung 30 Kilometer. Der Grund dafür ist, dass Climate-Model nicht irgendwelche Models sind, sondern sind Modelle, die gekoppelt sind. Das ist also mehr dieses Bild. Wir haben also ein Modell für Eis, wir haben ein Modell für Atmosphäre, wir haben ein Modell für die Erde, wir haben ein Modell für Ozeane und wir sind verkoppelt miteinander. Ausgaben von dem Einmodell sind Input für die anderen Models und genau andersrum. Und jedes dieser einzelnen Modelle hat verschiedene Layers, zum Beispiel in diesem Fall haben wir ein Grundwasserteil und ein Atmosfernteil und dann haben wir Input wie die und dann haben wir das Erde- und Pflanzensystem und dann haben wir Wasser, was unter eines versickert und Wasser, das in die Flüsse kommt und dann haben wir zum Beispiel hier bei den Flüssen Wasser, das rausläuft. Wenn ihr ein Modell Flüsse paralysieren wollt, dann ist das nicht so einfach, weil es gibt halt irgendwo eine Quelle und was an der Quelle passiert, hat einen Einfluss auf den Verlauf. Jetzt muss man sich den ganzen Weg gehen, bis zur Meer und hier komme ich dazu. Ich zeige euch den Donau, könnt ihr wahrscheinlich mehr unter dem Namen, nicht den Noob, auf der Auflösung von Kilometern. Ich habe die Donau in kleine Flüsschenteile zerteilt und um das zu berechnen, müsst ihr die Sachen, die weit weg vom Ausfluss zuerst vergleichen. Die gräulichen Sachen werden zuerst berechnet und dann geht es so runter bis zum Abfluss. Einfach mal was ich mache. Jetzt können wir zurück zur Hauptfrage. Jetzt habe ich gesagt, wo die Grafen herkommen. Was ist der repräsentative Konzentrationsfahrt? Die ganze Sache, was wir vorher gemacht haben, war nur zu sagen, wie kommen wir zu dieser schwarzen Linie in der ersten Teil und wie kommen wir zu diesem bunten Teil, wo es mehr Grafen gibt als ein? Arbeitsgruppe 1 testet generell eine Auswahl von gekoppelten Klimamodellen mit spezifischen Bedingungen und sehen sich dann das Output unter verschiedenen Emissionsszenarien an. Hier haben wir verschiedene Grids und das die Input-Daten dazu. Die Input-Szenarien sind zum Beispiel das erste, wo wir es einfach so weitermachen wie immer und nichts machen. Wir können die Carbon-Kohlenstoffemission nicht ändern. Das Zweite ist, wie wir heute anfangen, so langsam, langsam auf erneuerbare Energien zu schwenken. Das Dritte ist, wo wir einfach jetzt sagen, lass uns das machen. Das sind Input-Szenarien, die wir in dieses Thema reintun und dann kriegen wir Modell-Outputs raus, die was über die Zukunft sagen. Das sieht bisher aus und von da an haben wir drei Szenarien und von oben nach unten ist das der Weg, wenn wir nichts machen und so weiter. Das machen wir in unseren Szenarien so ungefähr. Die SCPs sind Szenarien, representative concentration pathways, Szenarien, die Zeit-Serien von Emissionen und Konzentrationen von allen Trepphausgasen, Erosionen und chemisch-aktiven Gasen usw. Landbenutzung und Landbedeckung kommen auch mit rein. Auf der X-Achse wieder die Jahre, gleiche Zeit-Scalar, auf der Y-Scalar haben wir jetzt Radiative-Forcing, Strahlung, die einen Einfluss auf der Klima hat und die SCP-Szenarien haben hier so ein Equivalent. Wir haben also vier Szenarien ungefähr. Die Daten für diese Szenarien werden koordiniert vom Input-ForMits, den Input-Datasets für Modellvergleichsprojekte von den letzten habe ich schon geredet. Ihr könnt euch Eignis auch bauen auf diesem Link. Jetzt werde ich das letzte Teil erklären. Und da reden wir über Zahlen und die Unsicherheiten da drin. Die Zahlen hinter den SCPs beziehen sich auf den Strahlungseinfluss zum Ende der Modellperiode zu 2100. Und also ansehen zum Jahr 2100 dann ist halt RCP 8,5 genau bei 8,5 Strahlungseinfluss. Und dann sehen wir Zahlen in diesen verschiedenen Abschnitten, das sind die Zahlen, die wir in den Modellen für die Szenarien in diesem Zeitabschnitt haben. So wie ich gesagt habe, gibt es hier verschiedene Modelle, die wir verglichen haben und wir haben sogar verschiedene Modelle für die verschiedenen Zeitabschnitte. Also bis 2100 gibt es 39 Modelle für RCP 8,5 und für den Rest danach gibt es nur noch 12 Modelle und das ist auch der Bruch, den ihr in dem Jahr seht. Nämlich dadurch, dass man das Modell dann wechselt. Und dann gibt es noch einen anderen Anteil, der interessant ist und das könnte der Wichtigste sein. Wir haben ziemlich große Modellunsicherheiten da drin. Insbesondere wenn man all die Modelle vergleicht, kommen da halt große Bänder dabei raus. Aber die menschlichen Unsicherheiten sind viel wichtiger hier drin als die Modellunsicherheiten. Denn wir sehen eine kleine Überlappung bei den Modellen, aber wir sehen sehr deutlich in den verschiedenen Modellen, dass der menschliche Einfluss, den viel größeren Einfluss macht bei den unterschiedlichen Kurvenverläufen. Also die Modellunsicherheit ist vernachlässigbar im Vergleich mit der Unsicherheit durch menschlichen Einfluss. Jetzt bin ich mit dem Wichtigsten Anteil durch. Jetzt könnte ich euch zeigen, wie ihr so ein Einflussmodell auf eurem lokalen PC einrichten könntet. Wir haben nur noch ein paar Minuten übrig, also werde ich direkt zur Zusammenfassung und dem Abschluss springen. Wenn es als Frage kommt, kann ich euch dazu was sagen. Was haben wir gelernt? Wetter ist der physikalische Zustand, der Atmosphäre zu einem gegebenen Zeitpunkt, während Klima gemitteltes Wetter ist. Typischerweise über 30 Jahre. Ein Klimomodell ist eine numerische Repräsentation dieses Klimasystems. Wir haben gelernt, eine der großen Unsicherheiten in diesen Klimamodellen ist die Atomweise, wie wir der Fernsehergleichung lösen. Ich hätte euch mit noch einem anderen Foto erzählen können, was die Differenzahlgleichung in einzelnen sind. Klimawandel ist nicht bewiesen dadurch, dass man ein reales Experiment ständig wieder durchführt, denn wir haben nur eine Erde, sondern darüber, dass wir Modelle haben, die unser vergangenes Klima sehr gut simulieren. Und die wahrscheinlich wichtigste Botschaft ist, das menschliche Verhalten ist die primäre Quelle für Klimawandel. Das heißt, wir reden von Vorhersagen in ... Das heißt, wir müssen irgendwie davon reden, wie Menschen sich entscheiden. Also tatsächlich von Projektionen im Sinne von menschlicher Entscheidung im Unterschied zu Vorhersagen auf Basis von Zahlen. Wenn wir also jetzt verschiedene Zahlen reinwerfen in die verschiedenen Input-Szenarien, kriegen wir verschiedene Output-Szenarien und können damit dann aber sagen, wenn wir uns so benehmen, dann passiert das. Was wir halt, woran wir das gesehen haben, war, dass die menschlichen, der Unterschied durch menschliches Verhalten, die Modellunsicherheiten erheblich dominiert. Also ist die Frage, was wollen wir? Die Antwort ist normalerweise Klimagerechtigkeit. Vielen Dank.