 Herzlich Willkommen zum dritten und letzten Teil unserer Vorlesung zu stochastischen Prozessen. Es freut mich, dass Sie wieder mit dabei sind. Ich hoffe, Sie hatten im letzten Teil 2 einen visuellen grafischen Eindruck davon, was es bedeutet, wenn wir fraktale und stochastische Prozesse und Finanzen in Einklang bringen. Dieses Kapitel befasst sich mit dem Thema autoregressive Prozesse und bildet hier die Brücke zur Zeitreinanalyse, also zu unserer allerersten Vorlesung, die wir hatten und schließt an diese an. Und wir befassen uns hier mit verschiedenen Modellen, und zwar mit dem autoregressiven Modell, mit dem Moving Average Modell, dem ARMA Modell und mit den ARCH Engage Modellen, welche hier die klassischen Modelle bzw. auch die klassischen Volatilitätsmodelle darstellen. Und wir beenden diese Vorlesung mit einer Diskussion, so wie am Ausblick in die Modellierung und was wir in unserem Kapitel in der Ausblick der Forschung noch kennenlernen werden. Bevor wir nun mit den ersten Modellen beginnen, möchte ich einige einleitende Worte zu autoregressiven Prozessen loswerden und zwar wir haben eine große Varietät an stochastischen Prozessen bisher kennengelernt und haben auch ganz am Anfang der Vorlesung erwähnt, dass Zeitreinanalyse effektiv dasselbe Themengebiet wie stochastische Prozesse sein müsste, jedoch teilweise der Fokus an das Gesetz ist und dass die Gebiete eher getrennt angesehen werden als einheitlich. Und wir werden uns hier im restlichen Kurs mit diesen sogenannten autoregressiven Prozessen befassen und die kann man dazu nutzen, Zeitrein effektiv zu modellieren. Und nachdem wir den Großteil mathematischer Grundlagen in Teil 1 und auch im Vorlesungsteil zur Zeitreinanalyse ausführlich gelegt haben, werden wir den mathematischen Anteil dieses dritten Teiles der Vorlesung eher gering halten und eher einen grafischen Ansatz verwenden, damit Sie sehen können, was das denn alles bedeutet, was wir hier tun. Die technischen Details werden wir dann auch entsprechend in den Python Modellierungsvideos durchgehen und wir beginnen jetzt einfach einmal mit einem der einfachsten Modelle, die die stochastischen Prozesse zum Thema Autoregression zu bieten haben, und zwar dem autoregressiven Modell, dem AR-Modell. Was ist denn ein AR-Modell? Das AR-Modell ist eine Repräsentation einer Gattung von stochastischen Prozessen, also hier die autoregressiven stochastischen Prozesse und dient dazu, sich über die zeitverändernde Prozesse zu beschreiben. Die Anwendung des AR-Modells liegt hier in den Naturwissenschaften, hauptsächlich in der Finanzmathematik, aber auch in der Signaltheorie und in anderen diversen Fachgebieten. Dem AR liegt zugrunde, dass dessen Output linear von den vorgegebenen Werten und einem Störtherm abhängig ist. Das bedeutet, unser AR-Modell hängt linear von unseren vorgegebenen Werten ab, von dem Signal, was wir dem Modell geben und einem Störtherm und Sie merken, wir befinden uns wieder in der Notation, in der Sprechart, der Zeitreinanalyse, so wie wir das in der allerersten Vorlesung gesehen haben. Und das Modell ist in der Form einer stochastischen Differenzialgleichung gegeben und kann auf mehrere Gleichungen erweitert werden und das nennt sich dann Vector Autoregression-Modell, was wir hier allerdings nicht besprechen werden. Ich sehe es allerdings didaktisch als sinnvoll, Ihnen dieses AR-Modell mal vorzustellen und Ihnen zu zeigen, dass wir nicht nur eine einzige Zeitreihe verarbeiten können, sondern mehrere simultan. Deswegen habe ich das hier noch aufgeführt und Sie sehen, dass diese autoregressiven stochastischen Prozesse in stochastischer Differenzialschreibweise gegeben sind, weshalb wir uns auch im Teil 1 dieser Vorlesung so genüge mit ITO-Prozessen und dergleichen befasst haben. Das AR-Modell ist nicht immer stationär und kann eine sogenannte Einheitswurzel enthalten und das ist der große Gegensatz zum MA-Modell, was wir anschließend kennenlernen werden. Was ist denn jetzt nur eine Einheitswurzel oder eine sogenannte Unit-Route? Eine Einheitswurzel in der Zeitreinanalyse bedeutet, dass 1 eine Nullstelle des charakteristischen Polinoms ist und ein stochastischer Prozess demnach nicht mehr stationär sein kann. Das heißt, wenn wir eine Einheitswurzel hier in unserem Modell oder in unserer Zeitmodellierung vorfinden können, können wir uns vom Gedanken der Stationärität zunächst verabschieden, bis wir hier, ich sage mal, eine Möglichkeit gefunden haben, damit zurechtzukommen und man spricht ja auch von einem stochastischen Trend. Algorithmen wie der OLS liefern bei Vorliegen von Einheitswurzeln keine korrekten Ergebnisse mehr. Das heißt, unsere Regressionsmodelle, die wir mit dem OLS-Verfahren optimieren möchten und die Fehler minimieren möchten, funktioniert nicht mehr ordnungsgemäß, wenn wir Einheitswurzeln vorliegen haben. Und wer sich an die erste Vorlesung zurück erinnert, wird feststellen, dass wir bei OLS gewisse Bedingungen und Prämissengesetzt haben zu den Stationärität eben gehört. Es gibt es noch über das autoregressive Modell zu sagen. Sie erinnern sich vielleicht an Teil 1 der stochastischen Prozessvorlesung, wo wir irgendwas mit AR und Markovketten schon mal in den Mund genommen haben. Das AR1-Modell, also das AR-Modell erster Ordnung, kann als zweistufige Markovkette approximiert werden. Zudem ist es möglich, das AR-Modell erster Ordnung und einen sogenannten Ornstein-Ulenbeck-Prozess, OU-Prozess zu überführen. Und weiter ist es möglich, das AR1-Modell, also den AR1-Prozess als Output eines allpoligen Filters mit unendlicher Impulsantwort zu approximieren. Diese Prozesse selbst können wieder manipuliert werden und weiter in andere überführt werden. Diese mathematischen Darstellungen machen wir in diesem Kurs allerdings nicht, weil das meiner Meinung nach viel zu weit reichen würde, dafür, dass ich Ihnen hier eigentlich nur die Grundlagen präsentieren möchte. Ich denke, es ist Zeit, uns mal das formal anzugucken. Was ist denn die formale Darstellung eines ARP-Prozesses? Die Notation ARP suggeriert ein autoregressives Modell der Ordnung P und kann wie folgt definiert werden. Wir haben hier unser XT, ist gleich eine Konstante C, plus eine Summe von I gleich 1 bis P, V von I XT minus I plus Epsilon T. Wir haben ja vorher gerade gesagt, wir haben einen Störtherm und wir haben lineare abhängige Inputs und Outputs. Und was heißt das denn jetzt? Wir sehen uns diese Formel mal genauer an. Wir haben hier eine Summe von Vs und diese V1 bis VP-Parameter des Modells sind die Autokorrelationskoeffizienten, welche wir in der Vorlesung über Zeitreinanalyse bereits kennengelernt haben. C ist hier wie gesagt eine Konstante und unser Epsilon T ist ein weit neues Störtherm, was das bedeutet, haben wir auch schon gelernt. Bedeutet das jetzt was? Fragezeichen. Also wir haben eine Konstante, haken dran. Wir haben den weit neues Störtherm, auch haken dran. Was bedeutet das in der Mitte? Wenn wir nun sagen wir mal den AR1-Prozess beachten, haben wir hier nur ein einziges Vieh und zwar das Vieh1 und das XT-1. Dann steht hier dran, dass wir haben XT ist gleich eine Konstante plus Vieh mal XT-1 plus Störtherm. Das bedeutet in einem AR1-Prozess hängt unser heutiger Wert von dem Einfluss des Wertes gestern ab plus ein Störtherm. Wenn wir natürlich jetzt die Ordnung hier erhöhen, sagen wir mal P gleich 2, dann hängt unser heutiger Wert von dem Einfluss meines Wertes gestern und von meines Wertes vor gestern ab. Das heißt, unser AR-Prozess sagt mir, mein Wert heute hängt ab von einem gewissen Einfluss des Wertes der vorherigen Perioden plus ein Störtherm. In diesem Störtherm sind die Innovationen enthalten, die in der Vergangenheit noch nicht vorliegen konnten. Und was heißt das jetzt? Fassen wir das nochmal zusammen. Mit unserem AR-Prozess können wir den heutigen Wert darstellen durch den Einfluss der vergangenen Perioden plus einen Störtherm, indem die Innovationen enthalten sind, die vorher noch nicht da waren und einen kleinen Ausblick kann ich geben. Diesen Störtherm kann man wieder durch ein AR-Prozess modellieren. Das machen wir hier aber nicht. Das heißt, wir berechnen unsere Autokorrelationskoeffizienten. Und diese Autokorrelationskoeffizient, unser V, gibt mir effektiv an welches Gewicht der Vergangenheitswert auf meinen heutigen Wert hat und mit welcher Kraft, nenne ich das jetzt mal Salop, nicht mathematisch, mit welcher Kraft wirkt denn die vergangenen Entwicklung heute noch nach. Nun ist uns auch klar, warum wir diesen AR-1-Prozess als Markovkette darstellen können, weil wir in der Markovkette natürlich auch sagen, wir brauchen, um die Zukunft vorher zu sagen, nicht die komplette Vergangenheit wissen, uns reicht der aktuelle Wert oder wenn wir die Kette erhöhen, der Wert heute und der Wert gestern in unserer Markovkette und in der AR-Notation sagen wir, unser heutiger Wert ist der mit den Autokorrelationskoeffizienten gewichtete Wert von gestern und der von vorgestern plus irgendein Störtherm. Daher ist es uns möglich, das ineinander überzuführen und wie sieht das denn jetzt graphisch aus? Ich habe Ihnen das hier mal dargestellt. Wir haben hier den Dow Jones Industrial Index und ich habe hier die Preiszeitreihe genommen und ein AR-1-Prozess mit den Preisen gemacht und habe versucht, diese Zeitreihe mit dem AR-1-Prozess darzustellen. Das heißt, Sie sehen hier im Blau die tatsächliche Preisentwicklung des Dow Jones und in gelb oder gold sehen Sie hier die vorhergesagten Werte des AR-1-Prozesses. Hier können wir sehen, dass wir nicht 100%ig richtig dran sind, aber wir in Gänze diese Bewegung schon relativ gut meistern können. Ich habe Ihnen hier verschiedene Varianten davon abgetragen. Wir haben hier noch ein AR-5-Prozess. Das heißt, ich werde jetzt sukzessive die Ordnung erhöhen, damit Sie hier die Unterschiede sehen können und wir sehen, für die Vergangenheit haut das noch halbwegs hin und je näher wir uns dem aktuellen Tag annähern, das so weiter geht das auseinander und es wird umso schlimmer, je höher wir die Ordnung drehen. Das höchste, was ich Ihnen hier angetan habe, ist der AR-25-Prozess, wo Sie sehen können, dass das schon sehr weit auseinander läuft und die Akkurarität hierdurch aus verloren geht. Wir sind hier nicht mehr genau genug und kriegen hier Probleme, weil das Modell dieser Art nicht geeignet ist, die Daten zu beschreiben, wenn die Ordnung nicht zur Zeitreihe passt. Wir stellen daher fest, dass das AR-Modell durchaus Sinn und Ziel führen sein kann, sofern wir die richtige Ordnung in der Spezifikation wählen und Sie haben gesehen, wenn wir die Ordnung zu hoch drehen, dass die Prozesse durchaus auseinanderdriften können. Was passiert denn jetzt, wenn wir Renditen betrachten? Ich habe jetzt hier exemplarisch mal den AR-12-Prozess gewählt und habe für den Don Jones Industrial Average Index dessen Renditen in blau abgetragen und habe versucht, mit dem AR-12-Prozess diese Renditen zu modellieren. Wir sehen grundsätzlich, könnte das hinhauen. Wir stellen aber auch fest, dass unsere modellierten Renditen zu schwach ausfallen. Das ist Punkt 1. Und Punkt 2 ist, dass wahrscheinlich die gewählte Ordnung auch den unterliegenden Datensatz nicht angemessen ist, weil wir haben hier durchaus eine Verschiebung, die wir eigentlich gar nicht haben möchten. Wie sieht es denn jetzt aus, wenn wir unseren Don Jones betrachten und die Preis-Volatilität derselben? Das heißt, wir haben hier die Preis-Volatilitätszeitreihe und versuchen diese Volatilitätszeitreihe der Preise mittels eines AR-12-Prozesses zu modellieren. Und wir sehen, das sieht an sich ganz ordentlich aus. Wir haben hier und da mal eine Abweichung und wir haben am Ende eine größere Abweichung. Aber ansonsten sieht das an sich noch halbwegs okay aus. Hier kann man natürlich wieder mit der Ordnung arbeiten und warum ist es denn jetzt so, dass bei den Preisen dieses AR-Modell besser anschlägt, natürlich weil die Preise hochgradig autokorrolliert sind und natürlich auch dann die Vergangenheit in unserem Prozess einen viel stärkeren Einfluss nimmt, wie bei kaum autokorrollierten Renditen. Und das können wir jetzt hier nochmal sehen, wenn wir die Volatilitätszeitreihe der Dow Jones Industrial Average Renditen uns betrachten. Da ist es natürlich so, dass wir bei der Renditen-Volatilitätszeitreihe festgestellt haben, dass wir noch ein bisschen Autokorrollation übrig haben. Das heißt, die Vergangenheit hat einen Einfluss hier auf unser aktuelles Geschehen. Wir stellen aber auch fest, dass wenn wir uns ein AR-12-Prozess betrachten, dass die Ausschläge der Volatilitätszeitreihe der Renditen wesentlich merklich deutlich höher sind, wie das, was wir prognostizieren und wie hier mit unserem AR-Modell an unsere Grenzen stoßen. Kommen wir nun zu unserem nächsten Modell, dem Moving Average Modell, das für univariate Zeitreihen angewandt werden kann und sich MA-Modell Prozess nennt. Bitte beachten Sie hier und das ist essentiell wichtig, das MA-Modell hat nichts mit dem Moving Average zu tun, das heißt, es ist kein gleitender Durchschnitt. Verwechseln Sie das bitte nicht, das ist ein anderes Konzept. Im Gegensatz zum AR-Modell ist das MA-Modell grundsätzlich als stationär anzunehmen und der Output hängt linear von der Historie eines stochastischen Störthermes ab. Wie sieht das denn jetzt formal aus? Unter einem MA-Modell der Ordnung Q versteht man, dass unser XT sich aus einem My plus einem Störtherm zusammensetzt plus einem gewichteten Störtherm der Vorperiode plus den vorherrigen Perioden plus eben dem Störtherm der Q-Perioden zurückliegt. Das heißt, wir haben My als Erwartungswert, ein Gewichtungs- Störtherme, die sich hier additiv zusammensetzen. Das heißt, beim MA-Modell unterstellen wir konzeptionelle Ähnlichkeit zur linearen Regression und wir sagen, okay, was ist denn unser heutiger Wert XT? Unser heutiger Wert XT ist ein Erwartungswert plus ein Störtherm plus eine gewichtete Summe der Störtherme von Vorparion. Das ist unser MA-Modell und wir fackeln jetzt nicht lange, sondern gucken uns das doch mal grafisch an. Sie sehen hier wieder unsere aktuellen Daten in Blau. Diesmal sind wir hier beim Eurostox 50 und ich habe ein MA-Modell gefittet, was Sie hier in Grün sehen können und Sie sehen, die Bewegung an sich sieht gar nicht so schlecht aus. Die Bewegungsmuster sehen auch relativ ordentlich aus. Die Skalierung haut nicht ganz so hin, aber Sie sehen, wir sind hier schon ganz gut unterwegs. Gucken wir uns das ganze doch mal bei einer Rendite-Zeit range an. Hier habe ich mich programmatisch eines Tricks bedient und zwar ich habe das Arima-Modell mit 001 Spezifikation genommen, um die ersten Differenzen eben darstellen zu können und wir sehen hier, dass das auch ganz ordentlich aussieht. Also hier sind wir durchaus in der Lage diese Renditen mit einem MA-Modell ordentlich darzustellen. Wie sieht das jetzt bei einer Preis-Polatilitäts-Zeit-Reihe aus? Also ich habe hier wieder unseren Eurostox 50 und dazu entsprechend das MA-Modell gefittet. Was wir bei der Preis-Polatilitäts-Zeit-Reihe sehen können, ist dass Bewegung an sich hin haut. Der Wert, aber das ist eben so, wenn man hier einen gewichteten Durchschnitt hat, effektiv, dass wir die ganzen extrem nicht ordentlich abbilden können. Wir können die grobe Richtung, die Haut hin was wir allerdings nicht schaffen ist diese extrem ordentlich darzustellen. Wie sieht es denn jetzt mit der Rendite Zeit-Reihe der Volatilität aus? Ich habe hier wieder das Arima 001-Modell genommen um die ersten Differenzen abbilden zu können. Wir sehen das Haut in etwa hin. Wir haben hier ein bisschen vorzeichen Probleme, das liegt aber am Modell, aber ansonsten sieht das relativ ordentlich aus. Was kann man daraus denn jetzt machen? Wir haben jetzt ein AR-Modell kennengelernt, wir haben ein MA-Modell kennengelernt und kombinieren wir nun das AR und das MA-Modell gemeinsam erhalten wir ein sogenanntes AR-MA-Modell welches wird Differenzzeit rein und nicht stationäre Zeit rein auf das Arima-Modell weiter werden kann. Weswegen ich auch für die Darstellung der Renditen, egal ob es für die Volatilität oder für die Preisrenditen selbst das Arima-Modell verwendet habe weil das für Differenzzeit rein geeignet ist und ich habe hier die 001-Spezifikation gewählt weil ich dort kein AR-Teil drin habe, sondern ein rein MA-Teil eben auf diese Differenzzeit rein gepolt. Was ist denn jetzt nun das ARMA-Modell? Das ARMA-Modell besteht aus zwei Polinomen. Eins für das AR und das andere für die MA-Spezifikation. Zudem können Sie hier das ARMA-Modell mittels der Box-Chankings-Methode messen. Das werden wir hier in der Vorlesung leider auch nicht tun können und auch das ARMA-Modell ist grundlegend ein Filter mit unendlicher Impulsantwort. Auch hierauf können wir dem Umfang nicht eingehen. Ich habe das hier nur erwähnt, dass Sie das im Hinterkopf haben. Was ist denn jetzt ein ARMA-Modell formal? Das ARMA-PQ-Modell setzt sich aus einem ARP und einem MA-Q-Modell zusammen. Wir haben ja gerade schon gesagt, das ist die Kombination aus diesen beiden Modellen und lässt sich wie folgt darstellen. Unser XT heute ist eine Konstante plus ein plus die mit der Autokorrelation gewichteten vergangenen Wertentwicklungen plus eben die gewichteten vergangenen Störtherme. Das bedeutet um es nochmal zusammenzufassen unsere Wertstellung heute ist eine Konstante plus ein weit neues Störtherm heute mit der Autokorrelation gewichtete vergangenen Wertstellungen plus vergangenheitsgewichtete Störtherme. Was kann das jetzt? Ist das gut? Wir gucken uns das grafisch noch einmal an und zwar mit hier dem Bitcoin-Euro-Preis betrachten wir das mal kurz und wir sehen, ja doch mit diesem ARMA-Modell können wir hier die Preise zumindest relativ gut darstellen und nachmachen. Bei den Renditen haben wir bis auf einige Abwachungen sieht das auch noch ganz gut aus ich bin bei den Renditen wieder dazu übergegangen das ARMA 111-Modell zu nehmen um eben diese ersten Differenzen darstellen zu können, aber wir sehen dass das eigentlich im Großen und Ganzen ganz gut hinhaut, wir haben aber dennoch Abweichungen ab und zu und das ist das, was eben in den Finanzen problematisch ist dass wir das Ganze nicht zu 100% treffen und dass wir das Ganze auch oft genug verfehlen was uns in einer Krise dementsprechend nicht brechen kann, um es mal ganz der Lob auszudrucken. Wie sieht es bei den Preis-Volatilitätszeiten rein aus? Hier sieht es wieder relativ gut aus also wir können das sehr gut imitieren und bei den Renditen haben wir mal wieder ein Differenzenproblem und das könnte jetzt mehr Renditen liegen, zum einen was sind Volatilitäten das sind die zweiten Momente ich habe hier in diesem ARMA-Modell allerdings nur das erste Moment mit eingegeben daran könnte es liegen daran könnte es noch liegen dass wir bei den Volatilitäten Probleme haben weil eben die Volatilitätsrenditen keine solche hohen Autokorrelationswerte aufzuweisen hat wie eben eine Preiszeitreihe ich lasse das jetzt einfach mal so stehen und leite über mit den Worten wir haben gerade festgestellt wir haben Probleme diese Volatilitäten darzustellen und es gibt eine ganze Familie von Volatilitätsmodellen die dazu durchaus in der Lage sind und die kreiert wurden um Volatilitäten und um Zeitreihen ordentlich darzustellen und wir beginnen hier mit einem der klassischsten Modelle die es hier in diesem Bereich dann so gibt und zwar das autoregressive bedingte heteroscedastie-Modell autoregressive conditional heteroscedasticity-Modell das sogenannte Arch-Modell und das sind stochastische Modelle zur Zeitreihenanalyse mit Fokussierung auf Finanzzeitreihen deren Volatilität wie wir gesehen haben nicht konstant ist die Grundannahme ist dass die bedingte Varianz der zufälligen Modellfehler abhängig von den realisierten Zufallsfehler in der Vorperiode ist und dies heißt dass die Fehlertherme oder die Innovation zum Quadrat mit der Varianz in Zusammenhang stehen folgt die Fehlervarianz also die Varianz der Fehler unseres Modells einem AR-Prozess so ist das Arch-Modell korrekt spezifiziert was heißt das jetzt zusammengefasst das heißt dass wir ein Modell gebaut haben deren Fehlervarianz einem sogenannten AR-Prozess folgt das heißt die Varianz das Modellieren wir und können dazu auch hergehen und die Fehler kontrollieren das Arch-Modell hat zudem noch den großen Vorteil Volatilitätscluster abbilden zu können was Volatilitätscluster sind haben wir in der Vorlesung über Finanzmärkte bereits gehört was man hier noch würdigen sollte ist auf wen dieses Modell eigentlich zurückgeht das Modell wurde von Robert F. Engel in den 1980ern entwickelt hierfür im Jahr 2003 den Nobelpreis für Wirtschaftswissenschaften das heißt dieses Modell ist, obwohl wir das ziemlich oft kritisieren und das zu heutigen Zeit auch nicht mehr wirklich anwendbar ist einer der Grundsteine der Finanzmarktmodellierung und sollte deswegen auch nicht verachtet werden wie sieht denn jetzt formal das Arch-Modell aus wir haben hier eine Zeitreihe und diese Zeitreihe ist eine Arch-P-Zeitreihe wenn sie rekursiv definiert ist indem wir sagen ok unser XT ist hier gleich der Standardabwarchung zum Zeitpunkt T mal einen White Noise Störtern zum Zeitpunkt T und unsere Varianz die hier nicht mehr konstant ist setzt sich zusammen aus einer Folge reeller nicht negativer Parameter mal eben die Quadrierten X über den Zeitablauf und wir sagen hier dass unsere epsilon T ist eben ein White Noise Prozess darstellen es gilt zudem dass die über die Zeit veränderte Standardabwarchung für alle Zeitpunkte bezüglich der durch die Störtern Prozesse erzeugten Sigma Algebra ist und folgende Aussagen gelten müssen also der bedingte Erwartungswert ist 0 diese Varianz ändert sich hier über die Zeit unter der Bedingung der vorherigen Werte der Variablen, das heißt Sie sehen hier, dass die bedingte Varianz eben einen Zeitindex T hat was bedeutet, dass diese Varianz nicht mehr konstant ist auf die weiteren Eigenschaften das Arch-Modells wie Polinom-Null Stellen zur Stationalität Co-Varianten und sonstiges gehen wir in diesem Kurs leider auch nicht ein stattdessen gehen wir hier mal direkt in die grafische Repräsentation was ich hier gemacht habe ist, ich habe die reale Volatilität abgetragen, so hier das Absolute davon, das heißt ich habe das absolut genommen um eben diese Wertstellung mal gegeneinander aufzeigen zu können das grüne ist hier unsere Arch-Repräsentation und das gelbe sind die realen echten Volatilitätswerte und was stellen wir denn jetzt fest wir stellen fest mit einem Arch-Model können wir sehr wohl Volatilitäten darstellen, allerdings haben wir ein Problem und das ist nicht, dass wir die Cluster nicht darstellen können das sehen wir, das funktioniert ganz gut sondern das Problem, was wir haben ist, dass die tatsächliche reale Volatilität wesentlich höher ist wie das, was das Modell uns hier vorgibt und ich habe nun mal mir auch die Arbeit gemacht um eine historische Repräsentation darzubieten sondern ihnen hier auch mal einen tatsächlichen Vorkast zu geben, das heißt ich habe hier den Datensatz geteilt und mal mehr, damit ein Backtesting durchgeführt, damit sie das hier sehen können und zwar für den HSI Index und was sehen wir hier über 120 Tage, wir sehen, wir können einen Vorkast ein Estimate machen was wir allerdings auch sehen ist, dass wir diesem Vorkast nicht wirklich gut zurechtkommen, da die Volatilität in diesem Fall sich komplett anders verhält wie das, was wir vorhersagen also, das Modell stößt hier faktisch an seine Grenzen und das ist ja schließlich das, was wir als Analysten tatsächlich brauchen, valide Vorkasts und das leitet uns direkt zum nächsten Thema über zu dem letzten Modell, was wir hier in der Vorlesung uns ansehen werden, und zwar das sogenannte Gartschmodell, was ist denn jetzt ein Gartschmodell? Gartschmodelle sind die für allgemeinere Formen der Artschmodelle und gehen auf Tim Bollerslev 1986 zurück Gartschmodelle werden zumeist in der Ökonometrie zur Analyse von Aktienrenditen verwendet und können ebenfalls Volatilitätsklasse abbilden Gartschmodelle haben jedoch Langzeitgedächtnis, sowie exponentielle Abfallraten zu Englisch Exponential Decay Rates, was uns in die Situation bringen, dass wir Langzeitgedächtnis Effekte und Fraktalität mit dem klassisch spezifizierten Gartschmodell nicht abbilden können, aber da kommen wir später und spätestens bei dem Ausblick in die Forschung noch mal dazu, was das zu bedeuten hat. Wir sehen uns einmal die formale Definition des Gartschmodells an und wir sehen wieder, wir haben eine Zeitreihe x und diese Zeitreihe heißt Gartsch PQ-Zeitreihe, wenn sie recursiv definiert ist durch XT, ist hier die Volatilität zum Zeitpunkt T, mal ein weit neues Störtherm und wir sagen, dass die sich über die Zeit änderte Varianz definiert ist, wie das Artschmodell eben mit unseren nicht negativ reellen Parametern a, wo hier die in der Zeit Quadrierten Werte der Zeitreihe enthalten sind, aber wir haben hier noch einen hinteren Teil, da betrachten wir nicht nur die Zeitverschobenen Quadrierten x, sage ich das jetzt mal salopp, sondern wir haben hier auch noch eine gewichtete Teilsumme von vergangenen Varianzen, das heißt unsere heutige Varianz, um das zusammengefasst darzustellen, setzt sich zusammen aus reellen nicht negativen Gewichtungsparametern und den Quadrierten vergangenen Volatilitäten und den Gewichteten vergangenen Werten. Kommen wir direkt zur grafischen Repräsentation, ich habe Ihnen hier wieder die absoluten, realen Volatilitäten in gelb abgetragen und die Realisierungen des Gartschmodells in grün wir sehen, wir können hier wieder Cluster abbilden, das funktioniert wieder super, wir sehen allerdings auch, dass wir diese Langzeiteffekte und diese Extremen mit dem klassischen Gartsch in dieser Art und Weise nicht abbilden können. Auch hier habe ich mir die Mühe gemacht Ihnen nochmal einen Vorkast über 120 Tage zu erstellen wir sind immer noch beim HSI damit Sie eine Vergleichbarkeit haben und wir sehen, dass das Gartschmodell genauso wie das Arschmodell dieselben Probleme hat einen validen Vorkast zu produzieren wir kommen hier allerdings noch in der Vorlesung drauf wie man das Ganze erweitern kann wie man diese Modellrestriktionen aufheben kann und was es denn alles in der Gartschfamilie noch zu sagen und zu sehen gibt wir sind jetzt erst einmal mit dem Gartschmodell so weit durch wir sind auch mit der Vorlesung stochastische Prozesse am Ende und ich möchte noch eine kleine Diskussion und einen Ausblick in die Modellierung geben unter dem Credo Abschluss und Neubeginn was ist denn jetzt von dieser Vorlesung, die Sie hier gehört haben zu halten was sagt Ihnen diese stochastische Prozessevorlesung denn überhaupt also wir haben grundlegende Konzepte der stochastischen Modellierung kennengelernt und werden diese rudimentär in Python implementieren das heißt, wir werden diese ganzen Prozesse, die Sie hier gehört haben in Python ebenfalls kennenlernen und Sie werden in der Lage sein die rudimentären einfachsten Spezifikationen programmatisch darstellen zu können und wir haben bereits in der Vorlesung zu Finanzmärken gehört, dass die klassischen Modelle in Anführungszeichen habe ich das jetzt hier geschrieben damit meine ich hier die neoklassischen Modelle die ich sage es auch mal etwas älteren Modelle dass die durchaus einige Probleme haben können das haben wir hier grafisch denke ich durchaus gesehen und es existieren natürlich manikfaltige Erweiterungen insbesondere von den Arch und Garch Konzepten hier werde ich im Ausblick in die Forschung näher darauf eingehen was es denn an Arch und Arch Familien denn eigentlich gibt das ist auch ein Teil meiner Promotion mich mit Finanz- und Risikomodellen zu befassen hier werden wir noch mehrere Modelle kennenlernen beziehungsweise mal einen High Level Overview nenne ich das mal darüber Sie können sich aber versichert sein dass es hier mehrere hunderte Modelle, Familien und Erweiterungen gibt die sich nur um diese Problematik drehen Volatilitäten und Finanzzeiten rein zu modellieren und konzeptionell sauber darzustellen das weitere darauf gehen wir auch noch ein wenn wir in den Ausblick in die Forschung uns mit der Vorlesung dorthin gehen befassen zudem treten hier neue Konzepte wie etwa die Signaltheorie was wir als nächstes kennenlernen werden Machine Learning, Neuronale Netze Deep Learning, AI Evolutionäre Algorithmen aus den Computerwissenschaften und andere technische Möglichkeiten in den Vordergrund die es vor Jahren einfach noch gar nicht gab mit diesem ganzen Themenkomplex was das denn gemeinsam bedeutet und wo hier tatsächlich die Front und die Grenze der Forschung ist dazu kommen wir in diesem Kurs noch lassen Sie sich zum Thema stochastische Prozesse noch zum Abschluss mit auf den Weg geben, dass Sie selbst mit den einfachen Spezifikationen schon sehr große Ergebnisse erzielen können und dass Sie das was Sie hier gelernt haben nicht nur auf die Finanzmärkte anwenden können wir sind hier mehr oder minder die bösen Buben die sich den Physiker und Statistiker Spielzeugkasten nehmen und gucken ob wir damit irgendwie mit unserem Problem zurecht kommen Sie können dieses Wissen was Sie sich hier erarbeitet haben zu schochastischer Modellierung zu Herzen nehmen und auf alle möglichen Probleme die Ihnen im Leben entgegentreten solange Sie mit Zeit rein zu tun haben ich hoffe Sie hatten eine lehrreiche Zeit Sie hatten Spaß dabei und ich hoffe Sie sind hier offen und neugierig an die Sache herangetreten, das habe mich sehr gefreut dass Sie an der Vorlesung teilgenommen haben und wir sehen uns zum nächsten Kapitel der Signaltheorie vielen Dank