 Herzlich willkommen zu den Datenspuren. Jetzt haben wir auch unseren ersten Vortrag hier und damit auch im Prinzip den ersten Blick auf unser Thema berechnete Welt. Denn wenn wir sehen, wie die Welt berechnet wird, dann ist das ja schon über die letzten hunderte Jahre passiert im Rahmen von Ingenieurwesen, Rahmen von Wissenschaft durch physikalische Modelle. Und wie sich diese physikalische Modelle entwickeln und wie sie auch aktiv weiterentwickelt werden, würde uns jetzt Simon erzählen. Simon ist vielleicht bekannt als Mitwirkender beim PENTA Radio, als Korrespondent im PENTA Radio Studio Ost. Und nebenher machst du so ein bisschen Physik, habe ich mitbekommen. Man behauptet es. Dann viel Spaß bei Simon's Vortrag. Vielen Dank für die Einführung. Genau, das Thema heißt ja berechnete Welt. Und ich sage mal so alle, die die letzten zwei Jahre nicht unter einem Stein verbracht haben, den bin ich zu nah an dem Lautsprecher? Okay, alles klar. Den sollte aufgefallen sein, dass sich sozusagen so Modelle ja auch in unseren Alltag geschlichen haben. Zum Beispiel mit prognostizierten Infektionszahlen. Und dann gab es wieder viele Experten, die gesagt haben, dass es natürlich totaler Blödsinn ist. Und dann wurde wieder begründet, dass das richtig ist. Und genau, meine Idee ist es, euch einen kleinen Einblick zu geben, wie sich denn so etwas entwickelt. Und was man dabei vielleicht beachten sollte für Leute, die sich schon mal näher damit befasst haben, ist wahrscheinlich nicht so viel Neues dabei, aber schon wenn man. Also erstmal würde ich mal die steile These wagen, dass auch jede physikalische Formel, die uns jetzt erstmal so sehr analytisch und korrekt aussieht, am Ende auch ein Modell ist, die jeweils ein Gültigkeitsbereich hat und bestimmte Annahmen, die ihr zugrunde legen und die man deswegen wahrscheinlich nicht überall einfach so benutzen kann. Und dann spiegeln Modelle natürlich auch den Kenntnisstand ihrer Zeit wieder, weil Dinge, die wir noch nicht kennen, können wir schlecht beachten. Und genau, da werden wir gleich auch noch ein Beispiel sehen, wo sich das zeigt. Und was auch ein wichtiger Punkt ist, dass man kann wunderschöne Modelle bauen, aber zumindest wenn die sich im Bereich der Physik bewegen, dann ist das Modell definitiv falsch, wenn es ein Experiment gibt, was dem widerspricht. Das heißt nicht, dass es schon falsch ist, wenn irgendwer in seiner Garage irgendwas gemessen hat, was dem widerspricht, aber zumindest, wenn das ein reproduzierbares Experiment ist, wo immer wieder herauskommt, dass was die Lichtgeschwindigkeit doch unendlich ist, dann muss man das irgendwann, sozusagen, akzeptieren und die Modelle dieser neuen Erkenntnis anpassen. Dann würde ich mal grob vier Arten von Modellen unterscheiden. Mit den analytischen Modellen meine ich tatsächlich so klassische Formeln, wie wir sie kennen, gleich im C² oder so, mit numerischen Modellen meine ich mathematische Hilfsmittel, die uns helfen, komplexe Gleichungssysteme zu lösen, die wir nicht willens oder in der Lage sind, sie analytisch zu lösen. Mit effektiven Modellen würde ich sowas beschreiben, dass es zum Beispiel ein komplexes analytisches Gleichungssystem gibt und wir das im Prinzip auch lösen können. Allerdings gibt es vielleicht zum Beispiel einen Term darin, den wir nicht analytisch behandeln können und deswegen dann für den ein Modell entwickeln und dadurch dann ein analytisch lösbares System finden, was wir dann benutzen können. Und rein empirische Modelle würde ich als sowas betrachten, wo uns sozusagen kein wirklich zugrunde liegender Mechanismus bekannt ist. Wir haben sozusagen Ausgangsdaten, unten Ergebnis und offensichtlich kann man zum Beispiel eine Funktion zwischen den Fitten, aber wir haben noch nicht wirklich eine Idee, warum diese Größen in der Weise verbunden sein sollten. So, als Erstes zu der Frage, dass Modelle den Stand ihrer Zeitspiegeln. Und gehen wir zurück in das Jahr 2007, das war als ich das erste Mal sozusagen im Rahmen einer physikalischen Betrachtung Kontakt zu Neutronensternen hatte und dabei hatten wir halt Messwerte für Neutronensterne, die bewegten sich so zwischen 1,2 und 1,8 Sonnenmassen. Und dann gibt es eine sogenannte Zustandsgleichung, das ist sozusagen dieses Ruhe von R und das beschreibt sozusagen, wie sich die Dichte dann innerhalb des Sterns verhält. Und wenn wir die bis zum bestimmten Radius aufsummieren, dann wissen wir, wie viel Wasser sich in diesem Volumen befindet und wenn wir die ganze Sternmasse wissen wollen, dann integrieren wir natürlich bis zum Radius des Sterns. Und es gab halt so ältere Modelle schon für nukleare Materie. Und wenn man die einfach da so integriert hat, dann kam da halt Neutronensterne raus, die konnten auch mal 2,5 Sonnenmassen haben oder 3 oder so. Aber so einen Neutronensternen hatte halt niemand gesehen. Deswegen war damals ganz klar die Position, also diese einfachen Modelle für die Zustandsgleichung, da muss was falsch sein. Die richtige Zustandsgleichung muss sozusagen steifer sein, sodass man innerhalb eines Sterns nicht so viel Materie, also nicht so viel Masse aufsammeln kann. Und deswegen hat man dann hybride Zustandsgleichung gebaut, die halt steifer waren und mit denen man dann Neutronensternenmassen eben im Bereich von 1,2 bis 1,8 Sonnenmassen sehr gut erklären konnte. Dann gab es aber ein Problem. 2010 gab es dann das Paper von Demores und Co. und die haben mit einer sehr präzisen Messmethode einen Neutronensternen gemessen, der 2,01 Sonnenmassen hatte. Und der sich im Rahmen der Modelle, die dann in den letzten fünf Jahren oder so entwickelt worden waren, überhaupt nicht erklärbar war, weil der war zu schwer. Der hätte schon kollabieren müssen nach diesen Modellen. Und in den folgenden Jahren ist dann noch ein Neutronensternen mit 2,08 Sonnenmassen dazugehören und im Rahmen meiner Recherche für den Vortrag habe ich gerade gesehen, dass es jetzt ein neues Paper aus dem Juli gibt. Was behauptet, dass sie da einen Neutronensternen mit 2,35 Sonnenmassen gemessen haben? Das würde ich jetzt mal noch in einem Fragezeichen versehen, ob sich das wirklich so bestätigt. Aber genau, auf alle Fälle, mussten da in dem Bereich die Modelle, die wieder revidiert werden und zum Teil werden jetzt wieder Zustandsgleichung diskutiert, die vor 2007 auch schon diskutiert wurden und die eben schwere Neutronensterne zulassen. Genau, und zum Teil wird sogar an noch weicheren Zustandsgleichung die noch höhere Massen zulassen gearbeitet. Es gibt da so eine, im Rahmen der Gravitationswellenastronomie, die sich ja in den letzten, sagen wir, fünf, sechs Jahren entwickelt hat, haben wir beobachtet, dass es da eben Zusammenstöße von schwarzen Löchern gibt und Zusammenstöße von Neutronensternen und Zusammenstöße von schwarzen Löchern und Neutronensternen. Und da ist es tatsächlich etwas über, also ist die Wissenschaft derzeit noch überrascht, dass wir bis jetzt eigentlich nur eindeutig eine Neutronensternen, Neutronensternenverschmelzung gesehen haben und bei den anderen entweder immer ein oder zwei schwarze Löcher beteiligt sind und das hat auch die statistischen Annahme über die Verteilung dieser Objekte, sage ich mal, über den Haufen geworfen, weil vorher war man sich eigentlich relativ sicher, dass es deutlich mehr Neutronensternen als schwarze Löcher gibt und die deswegen auch deutlich öfter kollidieren sollten. Genau und in dem Rahmen gibt es auch eine Beobachtung, die sozusagen eine Neutronensternen, ich glaube, mit 3,1 Sonnenmassen beschreibt und da ist man sich derzeit sozusagen noch sehr unsicher, ob das jetzt nur der schwerste Neutronenstern ist, der jemals gesehen wurde oder ob es das leichteste schwarze Loch ist, was man beobachtet hat, also zumindest schwarze Loch im Sinne von astronomischen Objekten. Es gibt ja noch diese ganz kleinen, die man eventuell mit Teilchenbeschleunigern erzeugen kann. Die werden natürlich deutlich leichter, aber genau, es ist halt eine andere Kategorie. Und dann haben wir noch ein Beispiel, was sozusagen die Modellbildung im Rahmen der, sozusagen als Spiegel der Kenntnis ihrer Zeit widerspiegelt, das ist die Energieproduktion der Sonne. Da sind wir uns jetzt inzwischen sehr einig, dass da Kernfusion stattfindet. Aber so im 19. Jahrhundert war das halt überhaupt keine Idee. Waren uns zwar vielleicht schon einig, dass es Atome gibt, aber dass es Atomenkerne gibt und dass man die irgendwie fusionieren kann. Damit hat in dem Sinne niemand gerechnet. Dafür war da gerade die große Zeit der Thermodynamik, die hatte man relativ gut verstanden. Kranoprozess, Dieselmotor, Kühlschrank sozusagen. Und des Weiteren hat man gerade überall Dampfmaschinen gebaut und alles mit Kohle angetrieben. Und deswegen gab es auch Leute, die haben ein Modell berechnet, wo sie, man konnte ja schon messen, wie groß die Sonne ist, man konnte auch abschätzen, wie schwer sie ungefähr ist. Und da konnte man natürlich auch annehmen, dass sie sozusagen mit der Technik der Zeit läuft. Und zwar, dass so Kohle verbrannt wird. Ja, wenn man das annimmt, dann kommt man auf eine sehr kurze Lebensdauer der Sonne. Und es war auch den Leuten, die das damals mal kurz als Idee sich halt angeguckt haben, sehr schnell klar, dass die Sonne offensichtlich nicht durch das Verbrennen von Kohle funktioniert. Und dann, wenn man so Modelle entwickelt, dann hat man ja für das vorherige Modell normalerweise sichergestellt, dass es die bis dahin bekannten Phänomene korrekt beschreibt. Und daher ist es wichtig, dass wenn man ein Modell dann erweitert, dass es weitere Dinge erklärt, muss es natürlich immer das, was es vorher erklären konnte, wieder korrekt erklären. Das versteht man darin, dass es sozusagen die vorherigen Modelle als Spezialfall beinhaltet. Das können wir uns auch gleich nochmal an einem Beispiel angucken. Und dann gilt auch die These, dass man natürlich immer nur so viel einem Modell hinzufügen sollte, wie unbedingt notwendig ist, um das zu erklären, was man erklären will. Und zum Beispiel gibt es Leute, die die Gravitationstheorie anders erklären wollen. Und bei der Gravitationstheorie ist tatsächlich so, dass wir in Nährung erstmal annehmen, dass diese ganzen Himmelskörper und so, dass die im wesentlichen Punkt für mich sind. Also, dass man die genauso berechnen kann, indem man annehmen würde, dass die gesamte Masse der Erde in ihrem Mittelpunkt vereinigt ist. Und genauso ist es auch bei den Elementarteilchen, also die elementarsten Elementarteilchen, die wir kennen. Also zum Beispiel Elektronen, die haben in dem Sinne keine Ausdehnung oder keine Form. Und da gibt es zum Beispiel einen Vorschlag, dass man ja statt dieser punktförmigen Elementarteilchen hexagonale Prismen einführen könnte. Also stellt sich so ein Sechseck vor und dann geht es heute nach oben. Und das sollen die Elementarteilchen sein. Das sollen dann auch mit einer bisschen anderen Kraft miteinander wechselwirken. Aber dieses Modell, wenn es überhaupt irgendetwas erklären kann, wirft natürlich sofort eine Menge Fragen auf. Denn wenn ich diese punktförmigen Elementarteilchen nicht mehr habe, dann stellt sich ja schon die Frage, wo greift jetzt eigentlich meine Kraft an dem Teilchen genau an, also wahrscheinlich im Schwerpunkt. Aber wenn ich davon viele habe, dann kriege ich ja plötzlich Scherkräfte, die meine Elementarteilchen zerreißen wollen. Bei welcher Kraft gehen die dann kaputt oder so? Ja, keine Ahnung. Also von daher sollte man das immer so, erstmal so einfach halten wie möglich und nur so kompliziert wie nötig. Und das mit der Erweiterung, können wir uns hier an einem ganz einfachen Beispiel angucken. Da gibt es ja die allgemeine Formel von Newton für eine Kraft. Das ist halt die Masse mal eine Beschleunigung. Und dann haben wir als weiteren Fall die Gravitationskraft. Die ist halt gekennzeichnet von den beiden Massen, die wechselwirken und ihrem Abstand. Und dann gibt es noch die Gravitationskonstante Gamma. Und das können wir natürlich auch als eine Kraft im Sinne dieser allgemeinen Formel darstellen, wenn wir nämlich wie hier unten unsere Beschleunigung definieren. Und ja, die Masse ist halt eine von unseren beiden Massen, auf die eben die Gravitationskraft gerade wirken soll. Und dann habe ich hier noch ein Beispiel mitgebracht, wo man gut sieht, wie sozusagen die alte Theorie in die Neue eingebettet ist. Und da kommen wir auch wieder zum Anfang zurück. Jede Formel hat irgendwelche Annahmen. Und zum Beispiel die Annahmen für die eine Annahme für die Newtonische Physik ist, dass die Geschwindigkeit nicht zu hoch ist. Weil wenn die Geschwindigkeit zu hoch ist, müssen wir relativistische Formeln benutzen. Als Faustformel gilt da so grob, dass man bei ungefähr ein Zehntel der Lichtgeschwindigkeit anfangen muss, relativistische Formeln zu benutzen. Und das können wir hier mal ausprobieren. Ich habe hier mal die Formel für die relativistische Masse mitgebracht. Das ist eben die Ruhemasse geteilt durch die Wurzel mit dem Faktor mit der Geschwindigkeit und der Lichtgeschwindigkeit. Und dort können wir jetzt mal eine Geschwindigkeit einsetzen, nämlich ein Zehntel der Lichtgeschwindigkeit. Und wenn wir das tun, dann kriegen wir eben eine Masse von 1,005 mal der Ruhemasse. Und das ist jetzt noch relativ nah dran, dass es genau die Ruhemasse ist. Aber wenn wir jetzt betrachten, was passiert, wenn wir eine höhere Geschwindigkeit einsetzen, in dem Fall 90 Prozent der Lichtgeschwindigkeit, dann hat sich unsere Masse plötzlich mehr als verdoppelt. Aber was mir hier auch gut sieht, es ist in dem Sinne auch kein Fehler bei niedrigen Geschwindigkeiten, die relativistische Formel zu benutzen, weil auch wenn ich meinen Zusammenstoß eines Autos mit der Formel berechne, dann kommt da trotzdem das Richtige raus, weil dann ist dieser Vorfaktor, diese Wurzel halt einfach sehr nahe an 1. Und deswegen ist die relativistische Masse dann einfach gleich der Ruhemasse. Dann bewegen wir uns langsam in die Richtung, warum wir eigentlich nicht alles analytisch berechnen können. Und da will man jetzt sozusagen die Gravitationskraft von mehreren Hümmelskörpern betrachten will, dann muss man da eigentlich einfach nur so für jeden Körper, sozusagen die Summa aller Kräfte, die von den anderen auf ihn wirken, aufsummieren und ja, dann die Bewegungsgleichung lösen. Das werden natürlich, je mehr Körper man nimmt, desto mehr, sehr schnell viele Therme. Und es stellt sich die Frage, ob man das noch berechnen kann. Und hier dargestellt ist ein bisschen ein Spezialfall. Das ist sozusagen das Gravitationspotenzial von der Sonne, der Erde und einem weiteren Körper. Und wenn wir annehmen, dass der weitere Körper einer im Wesentlichen vernachlässigbare Masse gegen die Masse der Sonne und der Erde hat, dann können wir in dem Potenzial die sogenannten fünf Lagrangspunkte finden. Das sind Punkte, wo sich sozusagen die Kraftwirkung von Erde und Sonne weitgehend aufhebt. Da liegen drei sozusagen auf der Achse zwischen Erde und Sonne, also einer dazwischen, einer hinter der Erde, einer hinter der Sonne. Und ja, mit dem Lagrangspunkt L2 könnte die in letzter Zeit Kontakt gehabt haben, weil genau dorthin ist nämlich das James Webb Teleskop geflogen und hat sich da in den letzten Monaten lustig entfaltet und misst jetzt langsam die ersten Bilder. Und genau, da messen wir in Verrotstrahlung und deswegen soll es da möglichst kalt sein. Und wir wollen natürlich auch kleine Objekte sehen, die möglichst weit weg sind. Und deswegen ist da der Lagrangspunkt L2 sehr günstig, weil da hat man nicht das Problem, dass man in die Sonne guckt, weil der befindet sich praktischerweise immer sozusagen im Schatten, also die Erde wirft immer ein Schatten auf den Lagrangspunkt 2 und deswegen kann man da erstens gut nach außen in das Weltall gucken und zweitens kommt auch weniger von der Wärmestrahlung von der Sonne dahin. Und genau, das war jetzt, wenn wir drei Massepunkte annehmen, wovon einer viel leichter ist. Was passiert jetzt, wenn wir drei Massepunkte nehmen, die gleich schwer sind? Dann sehen wir erstens ein Problem von Präsentationstechnik des Jahres 2022, nämlich, dass man erst rausgehen muss, um die Animation zu starten. Und das ist jetzt sozusagen was passiert, wenn wir drei gleiche Massen nehmen und die sozusagen zu Beginn auf einem gleichseitigen Dreieck positionieren. Und dann die Gravitationskraft zwischen ihnen wirken lassen. Dann ist das Ganze schon, ja, sagen wir, sehr anders als unsere fünf Lagrangspunkte, die wir gerade noch gesehen haben und die total friedlich im Gravitationspotenzial vor sich hin existierten. Wir haben plötzlich ein total chaotisches System, wo man eben gar nicht mehr einfach so sagen kann, wo denn der Massepunkt als Nächstes sein wird. Und das zeigt auch diese sozusagen gesteigerte Komplexität. Und oft, wenn man jetzt die Bewegungsgleichung für so komplexe Systeme lösen will, dann ist das oft damit verbunden, dass man jetzt irgendwelche Größen integrieren muss und ableiten geht meistens. Integrieren ist immer etwas schwieriger und da kommt man auch sehr schnell sozusagen an die Grenze unseres derzeitigen Wissens über welche Integrale denn einfach so losbar sind. Und deswegen kommt man da sehr schnell zu dem zweiten Typ der Modelle, nämlich zu den numerischen Modellen. Das heißt, man kann die Gleichungssysteme nicht mehr analytisch lösen, sondern muss sich dabei auf Rechenmaschinen verlassen oder Leute die Säle füllen und denen man dann Aufgaben verteilt. So hat das tatsächlich angefangen mit dem Lösen von numerischen Aufgaben. Es gab auch Leute, die sehr fleißig waren, zum Beispiel, der zum Beispiel der Herr Riemann im 19. Jahrhundert, von dem gibt es diese Riemannische Vermutung, die immer noch nicht bewiesen ist. Aber der war zum Beispiel sehr fleißig, was die Wurzel 2 betrifft. Wurzel 2 ist irgendwie 1,41. So mehr Stellen weiß ich nicht auswendig, aber man kann das numerisch berechnen und Riemann hat es damals auf 49 Stellen berechnet. Da ist man gefühlt mindestens zwei Wintermonate beschäftigt. So größere numerische Berechnungen haben dann eigentlich in der Zeit zwischen den beiden Weltkriegen angefangen. Da war es ja im Ersten Weltkrieg großflächig zum Einsatz von Artillerie gekommen und deswegen war eine der ersten Anwendungen eben ballistische Kufen zu berechnen, damit man die dann seine Artillerie mit ins Feld geben kann und dass sie dann in der Tabelle nachgucken kann, von wegen, wenn wir den Feind in zwei Kilometern treffen wollen und der ist zehn Meter höher als wir, was müssen wir denn da an der Kanone einstellen? Genau, das war so das Erste. Und dann im Rahmen der Ehe des Zweiten Weltkriegs schon hat man das erste Mal versucht, großflächig Wetter vorherzusagen, insbesondere in Nordatlantik, um sozusagen zu erwarten, wann denn zum Beispiel deutsche Umbote operieren können und wann man denn vielleicht wo irgendwelche Convoys sicher lang schicken kann. Und deswegen gab es da bemannte und unbemannte metrologische Stationen, die zum Beispiel auf Grönland und auf Island und so weiter Temperaturen gemessen haben und Luftdruck und so weiter. Und dort wurden dann die ersten Modelle berechnet. Die waren damals noch sehr großflächig. Ich glaube, die haben damals mit so einem Rast davon ungefähr zehn Kilometer, mal zehn Kilometer pro Pixel sozusagen gerechnet. Und da ist natürlich sofort klar, dass es für die Wetter vorher sage, ob es heute über den Zentralwerk regnet, noch nicht besonders hilfreich ist. Aber das hat sich dann sozusagen schrittweise verbessert und wir sehen das ja auch jetzt. Also was den genauen Zeitpunkt des wann es regnet betrifft, ist es vielleicht immer noch etwas schwierig, aber so grob, ob es überhaupt regnet und ob fünf Grad werden oder 25 Grad, das können wir ja inzwischen doch auf einige Tage in der Regel relativ gut vorherberechnen. Eine dritte Anwendungsbeispiel von numerischen Berechnungen, die in dieser Zeit stattgefunden haben, ja, die unterliegt bis heute mehr oder weniger der Geheimhaltung, weil das waren tatsächlich die Simulationen, die man berechnet hat, wie man denn genau jetzt Plutonium zusammensprengen muss, damit da tatsächlich eine Plutonium-Bombe dann auch explodiert. Also grob ist das natürlich inzwischen bekannt, aber genau, die Details sind da auch jetzt noch nicht frei zugänglich und das ist vielleicht auch besser so, kann man sich drüber streiten. Was mit numerischen Modellen quasi immer verbunden ist, ist, dass man bestimmte Größen diskritisieren muss. Das heißt, man kann sie zwar quasi für beliebige Dinge ausrechnen, aber muss sie mehr oder weniger vorher festlegen, denn jetzt haben wir für einen Abstand in den Radien meines Neutronensterns oder genau für die, wie weit ich jetzt den Raum aufteile, wenn ich mein Wettermodell berechnen will, dann muss ich da sozusagen überall da Übergangsbedingungen definieren, sozusagen, wann der Regentropfen von einem Kästchen ins andere wechselt und so weiter. Und deswegen ist auch ganz klar, dass für die meisten Modelle die Rechenleistung hochgeht, je genauer man rechnen will, durch welche Weise geht dabei normalerweise auch die Genauigkeit hoch, aber es gibt auch Effekte, für die man sozusagen eine bestimmte Genauigkeit in der Diskretisierung braucht, damit man sie überhaupt sehen kann, weil sie sonst halt einfach untergehen, weil sie vielleicht nicht so dominant auftreten. Und im Bereich dieser Modelle, wo man eben Parameter sucht, die jetzt irgendein Verhalten korrekt beschreiben und so weiter, da ist es natürlich auch immer sehr wichtig, das Modell zu validieren, idealerweise gegen Messdaten oder je nachdem. Also es kommt halt immer ein bisschen darauf an, wenn man jetzt natürlich in einer analytischen Funktion als empirisches Modell darstellen will, dann kann man sich natürlich in dem Sinne beliebig Validierungsdaten erzeugen. Wenn es irgendwelche Messwerte sind, dann in der Regel nicht. Und dann ist es idealerweise so, dass man die Datensätze dann aufteilt und sozusagen nur mit einem Teil der Daten das Modell aufbaut und es dann gegen die anderen Daten vergleicht. Und man kann natürlich auch noch probieren, sozusagen, ob man die Daten unterschiedlich aufteilt, ob denn dann trotzdem vergleichbare Modelle rauskommt. Und das ist ja jetzt, würde ich sagen, schon relativ nah daran, was derzeit auch sehr gerne mit Machine Learning gemacht wird. Und das haben inzwischen so weitgehend, ist es, glaube ich, auch angekommen, dass man da eben immer diese Datensätze validieren muss. Was, glaube ich, noch nicht so viel Beachtung findet, ist, dass es natürlich Modelle gibt, wo wir Teilprozesse doch korrekt beschreiben können und dass man in dem Fall vielleicht auch testen sollte, ob sozusagen ein lang der bekannten analytischen Werte zum Beispiel, ob denn dort das aus 1000 Internet-Daten gefütterte Modell, denn dann auch sozusagen der Physik folgt zum Beispiel. Muder, weiß ich mal, den Infektionsdaten. Genau, das gilt in dem Sinne, würde ich sagen, sowohl für diese empirischen als auch für die effektiven Modelle, die ich vorhin angesprochen habe. Für so ein effektives Modell könnte ich vielleicht noch so ein Beispiel bringen. Zum Beispiel können wir sehr gut die Gleichung aufstellen, um zum Beispiel ein Molekül und die Elektronen in ihm zu beschreiben. Und dort hat man zum Beispiel auch den Vorteil, dass man dort wieder eine große Massenunterschied hat, nämlich zwischen der Masse der Elektronen und der Masse der Atomkerne. Und deswegen kann man dort diese beiden Gleichungssysteme fast unabhängig voneinander betrachten, weil sich eben die Kerne durch ihre viel höhere Masse viel träger bewegen und mal sozusagen in der Regel die Elektronen im statischen Feld der Kerne lösen kann und sozusagen nicht die gleichzeitige Bewegung weiter betrachten muss. Allerdings hat man dort natürlich genauso wie bei unserem Gravitationsbeispiel, was wir am Anfang angeguckt haben, das Problem, dass man sehr schnell sehr viele Koordinaten hat für die Elektronen von einem Molekül und die dazugehörigen Kerne. Und dort hat man dann zum Beispiel die sogenannte dichte Funktionaltheorie entwickelt, wo man davon ausgeht, dass der Aufenthaltsort des einzelnen Elektrons uns eigentlich egal ist. Und wir deswegen das ganze System nicht für die einzelnen Elektronen lösen, sondern wir lösen es nur für eine Elektronendichte, die sich sozusagen im Bereich des Moleküls befindet. Und wenn man die ganze Dichte wieder aufsummiert, dann kriegt man halt wieder eine entsprechende Anzahl an Elektronen. Genau, das wäre jetzt ein Beispiel dafür. Ja, ich hoffe, damit habe ich euch paar nette Ideen oder Ansätze vermittelt, wo ihr vielleicht was anschauen könnt. Ansonsten stiege ich gerne für Fragen zur Verfügung und hier gibt es noch ein bisschen Literatur. Klischeehaft habe ich euch mal den Newton aufgeschrieben, die mathematischen Prinzipien der Naturlehre. Es ist jetzt vielleicht eher ein etwas dröger, härterer Einstieg, wenn man mit der Literatur des 18. Jahrhunderts beginnt, was jetzt vielleicht nett ist und was jetzt für ein informatisches Publikum auch eher zugänglich ist. Das ist das Buch Tourings Kathedrale von George Dyson. Da geht es tatsächlich so um die Computerentwicklung des 20. Jahrhunderts und welche numerischen Probleme denn damit so behandelt wurden. Ansonsten habe ich hier noch was von der Sylvia Camero. Die hat so ein nettes Einstiegsbuch für Quantenmechanik mit einfachen Formeln verfasst, was man sich angucken kann. Und dann kann ich auch noch die populär wissenschaftlichen Büchern von Feynman empfehlen. Vielen Dank und damit stehe ich bereit für Fragen. Genau, wir haben jetzt noch vier Minuten Zeit für Fragen. Du hast deinen Timeslot relativ gut ausgenutzt. Ist denn jemand im Saal, der hier eine Frage stellen möchte? Hi, danke für deinen Vortrag. Ich hatte eine kurze Frage. Am Ende ist es ja heutzutage immer eine Implementation von irgendwelchen Prinzipien oder Modellen. Gibt es ein Framework, um die Konsistenz von Modellen zu prüfen, wenn ich sie implementiert habe? Oder irgendwas, wo ich mich sozusagen dranhalten kann, dass ich schauen kann, dass wenn ich irgendein Modell implementiert habe, dass es nicht irgendwelche Fehler gibt in der Implementation, in der Inkonsistenz, zum Beispiel? Also ein fest gefertigtes Framework, würde ich sagen, gibt es da für dich so wie, also je mehr du dich sozusagen in den Bereich der Grundlagenforschung bewegst, desto weniger gibt es dafür ein fest gefertigtes Framework, um das zu prüfen. Und ja, ich glaube, das liegt tatsächlich mehr in der Verantwortung des Wissenschaftlers, das dann verantwortlich zu tun und hoffentlich der Referies, die die Publikation angucken, dass sie dann das vielleicht auch korrekt prüfen und nicht nur darauf schreiben, dass ihr Paper zitiert werden sollte. Genau. Hier wurde gerade scherzhaft eingeworfen von der Seite das Framework, was du suchst, ist die Realität. Ja, das ist es natürlich gewissermaßen, das ist ja das sozusagen spätestens, wenn halt experimentelle Befunde auftauchen, die akut dagegen sprechen, dass dann das Modell auf alle Fälle schlecht ist. Wir können auch eine weitere Frage nehmen. Das Mütten im Vortag irgendwann mal erwähnt, dass die anfänglichen Wettermodellbereich oder Klimamodelle irgendwie im Nordatlantik, dass die einen Raster von 10 x 10 km gehabt hätten. Das klingt für mich jetzt für die Zeit schon relativ präzise. Kann das sein? Ich bin mir jetzt überrascht, dass die damals schon in der Auflösung gearbeitet hätten. Wir können nachgucken, es steht in dem zweiten Buch und ich hätte es auch irgendwo da. Müssen wir mal suchen. Bin ich mir jetzt tatsächlich nicht ganz sicher. Damit ist der Hinweis auf die Literatur noch mal gegeben. Dann vielen Dank noch einmal in Simon.