 Herzlich Willkommen zur Vorlesungsreihe über stochastische Prozesse. Es freut mich sehr, dass Sie wieder mit dabei sind. Wir beginnen, indem ich Ihnen noch einmal zeige, wo wir uns im Kurs befinden. Wir sind nun im fünften Kapitel des Kurses und auch im umfangreichsten Kapitel des Kurses. Daher lassen Sie sich bitte vom Folienumfang nicht abschrecken. Sie haben ja bereits in den vorhergehenden Kapiteln gesehen, dass das Folienlayout nicht sehr viel Text zulässt und dass ich auch sehr viel Wert darauf lege, die Inhalte entzehrt und übersichtlich darzustellen. Des Weiteren ist es vielleicht für Sie sinnvoll zu wissen, dass der Teil stochastische Prozesse ca. ein Drittel des Kursumfanges ausmacht. Das andere Drittel ist der Teil über Data Science, zu dem wir später noch kommen werden. Daher bitte ich Sie einfach, sich darauf einzulassen. Nehmen Sie das Wissen mit, lassen Sie sich ein bisschen mitreißen. Gehen Sie offen an die Sache ran und haben Sie im Hinterkopf, dass Sie diese Konzepte, die Sie hier kennenlernen, nicht nur für Finanzzeitreihen benutzen können, sondern für Zeitreihen im generellen, egal in welchem Fachbereich Sie denn nun unterwegs sind. Und ich hätte jetzt vorgeschlagen, wir gehen direkt mal auf die nächste Folie und fangen mal an mit einer kleinen Einführung. Was haben wir denn bisher gemacht? In den letzten Kapiteln haben wir eine Einführung bekommen. Zum einen in die Zeitreihenanalyse, da haben wir eine Übersicht kennengelernt, was sind den Finanzmärkte, wie funktionieren Finanzmärkte und was ist denn Fraktalität und wie kann ich das modellieren, wie kann ich daraus Code machen, wie funktioniert das alles denn. Und zum Thema stochastische Prozesse ist zu sagen, dass dieses Kapitel, dieser Themenkomplex sozusagen oft neben der Zeitreihenanalyse betrachtet wird, obwohl es ein und derselbe Themenkomplex ist. Jedoch haben diese Gebiete teils andere Schwerpunktsetzungen und für diesen Kurs werden wir eben die Grenzen ein bisschen verwischen und die Brücke zwischen den Teilgebieten herstellen. Das heißt, wir werden kennenlernen, wo hängen denn Zeitreihenanalysen mit stochastischen Prozessen zusammen und wir werden uns auch damit befassen, wie da denn die Fraktalität und die Finanzmärkte mit reinspielen. Das heißt, dieser Kurs bringt so ein bisschen den roten Faden zusammen, was sie denn in den vorherigen Kapiteln eigentlich alles gelernt haben. Wie ich es bereits schon gesagt habe, wir knüpfen insbesondere an die Theorie der Zeitreihen an und führen die Modellierung in Synchronisation mit den stochastischen Prozessen fort. Was das genau bedeutet, werden wir noch lernen. Wir betrachten zunächst den Aufbau des Kapitels und zwar haben wir genau drei Teile und das wird auch drei Videos dazu geben. Der erste Teil ist eine Einleitung, Vorstellung und Implementation von den klassischen Theorien der stochastischen Prozesse. Das heißt, wir steigen wie in einer normalen Vorlesung neben ein in die stochastischen Prozesse erklären, was das ist, wo das herkommt, was für allgemein bekannte Anwendungskonzepte existieren. Denn im Teil 2 werde ich die Verknüpfung zu Fraktalen herstellen. Das heißt, was haben denn stochastische Prozesse mit Fraktalen zu tun und wie sieht das denn aus? Und im Teil 3 werde ich wieder in die Richtung Zeitreihenanalyse tendieren, die Verknüpfung zu Autokorrelationen und Finanzmodellen. Da werden wir uns autoregressive stochastische Prozesse ansehen, die manche meistens in die Zeitreihenanalyse mit reinzählen, aber wie es bereits schon dargestellt wurde, lassen wir die Grenzen etwas verschwimmen und faktisch stellt das dasselbe Themengebiet dar. Deswegen werden wir das dreistufig aufbauen. Teil 1 ist, was sind stochastische Prozesse, was gibt es da? Teil 2 ist, was hat das mit Fraktalen zu tun? Und Teil 3 ist, wie kann ich das auf Autokorrelationen und Finanzmodelle anwenden? Und so ist dieser Kurs hier eben aufgebaut. Grundlegend ist es zu stochastischen Prozessen. Das Gebiet der stochastischen Prozesse ist enorm, um das mal noch unter Trieben darzustellen. Und der Kursrahmen erlaubt es nicht, dass wir auf jeden Aspekt, auf jede Herleitung und auf jede Nuance dieses Gebietes eingehen können. Weswegen wir uns hier stark auf die grundlegenden oder die bekanntesten Aspekte konzentrieren werden, stochastische Prozesse sind zudem stark miteinander und ineinander verwoben. Und daher ist es erforderlich, dass wir Abgrenzen auf Literatur verweisen oder eben nur die fortführenden Konzepte eben nennen, dass die eben wissen, okay, das existiert, sollte mich das interessieren, dass wir uns da und da weitermachen. Dieser Kurs über stochastische Prozesse dient eigentlich als Brücke und als Einleitung und genauso werden wir das auch handhaben. Ich habe Ihnen hier noch einmal die drei Themenübersichten, die wir in diesen drei Videos, ich nenne es jetzt mal Behandeln werden, dargestellt. In der Themenübersicht 1, die Grundlagen, definieren wir zunächst einmal, was ist denn ein stochastischer Prozess? Wir lernen dann den Random Walk Canon, die brownische Molekular Bewegung oder restriktive den Wiener Prozess, Levy Prozesse, Markovketon und Markov Prozesse, Itto-Integraler und wir werden uns ganz am Ende noch mit Stoppzeiten und gestoppten Prozessen befassen. Das ist Teil 1, das ist der Teil, den wir in diesem Video, was Sie gerade betrachten, durchgehen werden. Der Themenübersicht 2, die ist ein bisschen kürzer, da geht es darum, wie kann ich einen stochastischen Prozess an fraktalen Approximationen und gibt es eine fraktale oder eine gebrochene brownische Bewegung und wenn ja, wie kann ich die darstellen und kann ich damit Finanzzeit rein modellieren. Ich spoiler jetzt einfach mal ein bisschen, ja, es gibt sie und wir können das und die Themenübersicht 3 befasst sich mit autoregressiven Prozessen und das ist quasi die Brücke zur Zeitreihenanalyse, die wir in der ersten Vorlesung kennengelernt haben und hier werden wir uns mit dem AR, dem MA, dem AR, MR Modell befassen und den klassischen Volatilitätsmodellen ARCH und GARCH und wir werden eine kleine Diskussion vornehmen und ein Ausblick in die Modellierung, was gibt es denn noch und wofür kann ich dieses ganze Wissen denn jetzt eigentlich auch anwenden und benutzen. Wir fangen daher direkt an und zwar mit der Definition von stochastischen Prozessen und ich frage, was ist denn eigentlich ein stochastischer Prozess? Bevor wir uns hier auf die mathematische Formulierung stürzen, erstmal eine allgemeine Beschreibung, ein stochastischer Prozess oder auch Zufallsprozess, ist die mathematische Beschreibung von zeitlich geordneten zufälligen Vorgängen. Das ist noch sehr allgemein gehalten und die stochastischen Prozesse ist eine Erweiterung der Wahrscheinlichkeitstheorie und die Grundlage für die stochastische Analyses. Das werden wir beim Teil über die Itho-Integrale oder die Itho-Prozesse kennenlernen und ich lasse das jetzt erstmal so im Raum stehen und sage weiter, dass stochastische Prozesse eine Familie von Zufallsvariablen sind, deren Realisierungen sogenannte Pfade bilden, das heißt, diese Realisierungen sind zeitlich geordnet um bilden sogenannte Pfade und es ist eine maßgebliche Unterscheidung vorzunehmen zwischen diskreten und kontinuierlichen Prozessen. Wir haben das ja im Kapitel über Zeitreinanalyse schon kennengelernt. Es gibt diskrete Zufallsvariablen, die sind abzählbar oder abzählbar unendlich und es gibt stetige kontinuierliche stochastische Prozesse, die man nicht mehr zählen kann, sondern die ein Kontinuum bilden und nur noch in Intervallen dargestellt werden können. Nachdem eben ein stochastischer Prozess eine Familie von solchen Zufallsvariablen darstellt, müssen wir hier diese Unterscheidung zwischen diskreten und kontinuierlichen Prozessen ebenfalls vornehmen. Fangen wir doch zunächst einmal an, eine formale Definition eines stochastischen Prozesses vorzustellen. Wir beginnen hier mit Omega F und P als ein Wahrscheinlichkeitsraum, wo Omega unser Ereignisraum ist F1 Sigma Algebra und P ein Wahrscheinlichkeitsmaß. Das haben wir bereits in den vorherigen Vorlesungen kennengelernt und haben einen Z und F frakturiert als ein Raum mit einer Sigma Algebra F frakturiert und Z ist hier das steht auch unten. Die Menge Z wird auch als Zustandsraum des Prozesses bezeichnet, daher alle möglichen Realisierungen des Prozesses enthält. Das heißt, wir haben hier ein Wahrscheinlichkeitsraum und einen Raum der aus einem Zustandsraum und einer Sigma Algebra besteht und zudem benötigen wir eine sogenannte Indexmenge T die hier entweder in den natürlichen Zahlen oder in den positiv reellen Zahlen stattfinden kann und zumeist wird diese Menge als die Menge aller betrachteten Zeitpunkte Klein T dargestellt. Das heißt, unsere Indexmenge enthält die Zeitpunkte, die wir eben betrachten und wenn wir jetzt unterscheiden zwischen Diskret und Stetik haben wir eben Zeitpunkte, die eben in den natürlichen Zahlen vorkommen oder in den positiven realen Zahlen. Wenn wir jetzt fortfahren, ist ein stochastischer Prozess X eine Familie von Zufallsvariablen XT, die eben aus dem Ereignisraum auf den Zustandsraum abbilden über diese Zeitpunkte, die in der Indexmenge enthalten sind. Also ist es eine Abbildung X die aus dem Kreuzprodukt von dem Ereignisraum und der Indexmenge abbildet auf den Zustandsraum und eben auch ein elementar Ereignis zu einem gewissen Zeitpunkt auf eben ein elementar Ereignis einer Zufallsvariable zu diesen definierten Zeitpunkt abbildet. Daher gilt, dass das Elementar Ereignis eben als Elementar Ereignis dieser Zufallsvariable für alle Zeitpunkte, die in dieser Indexmenge enthalten sind abgebildet wird und demnach eine FZ-Messbare Abbildung genannt wird. Das ist jetzt sehr kritisch, das klingt erst einmal sehr überwältigend. Wir kommen aber noch dazu, was genau das denn alles zu bedeuten hat. Um das nochmal zusammenzufassen, wir haben ein Wahrscheinlichkeitsraum, wir haben einen Raum der als Zustandsraum für den Prozess verwendet wird und wir haben eine Indexmenge die die betrachteten Zeitpunkte darstellt und wir können jetzt quasi so tun, dass für jeden Zeitpunkt aus einer Zufallsvariable ein Zug vorgenommen wird und diese Realisation dieser Zufallsvariablen zu diesem Zeitpunkt entspricht der Realisation eines stochastischen Prozesses und wir haben zu jedem Zeitpunkt eine Zufallsvariable aus der gezogen wird. Das ist so grob die Zusammenfassung von dem was hier steht. Das ist jetzt mathematisch nicht ganz sauber, aber wir kommen dann noch dazu. Abverständnis von diesem ganzen Komplex erhalten wir werden uns um die Details noch hinreichend kümmern. Daher begnügen sie sich doch zunächst erst einmal mit dieser Mehr- oder Mindersaloppenerklärung. Sie werden am Ende des Kurses diese formale Definition zur Gänze verstehen. Zunächst einmal fahren wir jedoch fort, indem wir erst einmal noch mal darauf eingehen wie man Zeitdiskrete stochastische Prozesse auseinanderhalten kann. Es ist so, betrachten wir die Indexmenge, haben wir ja gesehen man kann entweder natürliche Zahlen nehmen oder man kann die realen Zahlen nehmen und wir sagen ist T abzählbar ist der Prozess Zeitdiskret und ansonsten ist der Zeitstätig. Das heißt ist die Indexmenge abzählbar oder abzählbar unendlich dann haben wir einen diskreten stochastischen Prozess ansonsten haben wir eben einen zeitstätigen stochastischen Prozess vorliegen. Das Weiteren kann ich Ihnen hier die zulässigen Prozessnotationen nennen. Es ist so, wenn wir ein stochastischen Prozess in der Mathematikformale darstellen wollen gibt es eben formale Darstellungsweisen die Valide sind die habe ich Ihnen hier einmal aufgeführt. Das ist meistens das XT entweder als Funktionschreibweise oder mit IndexT in geschweiften Klammern die eben diese Menge indicieren für T-Elemente Indexmenge Sie können aber auch einfach X schreiben. Was Sie nicht tun sollten ist einfach nur X in normalen Klammern ein T zu schreiben. Das ist eine formalistische Fehleranwendung der Funktionsnotation und sollte für stochastische Prozesse nicht angewandt werden. Halten Sie sich bitte an die oberen 3 oder 4 Darstellungsweisen die sind akzeptiert und benutzen Sie die entsprechend. Also ein zeitstätiger Prozess kann eben wie unten dargestellt durch das halb offene Intervall von 0 bis unendlich in der Indexmenge dargestellt werden und es ist dann so, dass T-Elemente R plus ist und wenn wir eben ein Zeitdiskretenprozess haben sind in der Regel die Zeitpunkte T in einer Indexmenge enthalten, die den natürlichen Zahlen entsprechen und wir haben es vorher schon gesehen die Realisierung eines stochastischen Prozesses oder eines stochastischen Zufallsprozesses beachten dann kann man diese nach Ihren Pfaden unterscheiden und was ein Pfad denn nun genau ist sehen wir im folgenden ein Pfad ohne mathematematischen Formulismus beschrieben kann man darstellen als die Realisierung eines stochastischen Prozesses. Wir haben einen stochastischen variablen deren Realisationen zeitlich geordnet sind und eine Indexmenge die als Zeit gedeutet werden kann unterliegt und wenn wir nun eine solche Realisierung betrachten, spricht man von einem Pfad. Die Indexmenge wird als Zeit gedeutet und die Werte des stochastischen Prozesses als räumliche Position der Realisierungen, sofern man eben die Zeit als aufsteigend betrachtet und so läuft der Prozess mit zunehmender Zeit einen Pfad abläuft hier in Anführungszeichen weil sich die Punkte in dem Sinne ja nicht bewegen aber sie können ja das etwas bildlich betrachten sie ziehen zu jedem Zeitpunkt aus einer Zufallsvariable und die aneinander Reihung dieser Realisierungen über die Zeit ist der Zufallsprozess die Realisierung davon und wenn man diesen Prozess eben abläuft kann man eben das sehen wie wenn man sich auf einem Pfad bewegt und der Pfad ist hierbei die Konkretisierung bzw. die Auswertung des stochastischen Prozesses und es ist dann dementsprechend auch so, dass ein stochastischer Prozess natürlich viele Realisierungen haben kann und entsprechend viele Pfader wenn wir nun die formale Definition eines Pfads betrachten, haben wir wieder einen stochastischen Prozess X der als die Menge der realisierten Zufallsvariablen XT sofern das T einer Indexmenge Zugehörig ist definiert ist und dieser stochastische Prozess ist auf einem Wahrscheinlichkeitsraum Omega AP definiert den Wahrscheinlichkeitsraum mit dem Ereignisraum Omega der Sigma Algebra A und der Wahrscheinlichkeitsmass P haben wir ja schon öfter jetzt gesehen und die Indexmenge soll bitte eine Teilmenge der realen Zahlen sein und der Wert den der stochastische Prozess oder die Werte die der stochastische Prozess annimmt mögen bitte in der Zielmenge liegen so und dann heißt für jedes Elementareignis was im Ereignisraum liegt und für jeden Zeitpunkt T der auf eine Realisierung einer Zufallsvariablen zum Zeitpunkt T abbildet mit Definitionsmenge die gleich hier der Indexmenge ist und der Zielmenge Z heißt das ein Pfad von X das heißt diese Realisierung dieses Elementareignis dieses Omega ist eine Realisierung und dann ein Pfad von X wenn man über alle T's abbilden möchte also wenn jedem Element eben Zeitpunkt ein Omega zugeordnet wird was eben den Regel dieser Zufallsvariablen folgt und als Definitionsmenge die Indexmenge das heißt die Zeitpunkte hat dann ist das eben ein Pfad für diesen stochastischen Prozess hier können wir noch einen Ausblick machen für die Pfader oft ist man interessiert welche Eigenschaften Pfader aufweisen also ob der stetig ist ob der differenzierbar ist um wie die Gestalt dieses Pfad das der nur beschaffen ist nachdem der Pfad eben eine Realisierung unseres Zufallsprozesses ist und hierzu benötigt man die Zielmenge Z und diese Zielmenge Z benötigt eine entsprechende Metrik was eine Metrik ist haben wir wir haben alle schon gelernt und auch schon der ersten Vorlesung weil ohne eine Metrik können wir hier entsprechend keine Aussagen treffen zudem können wir hier noch eine weitere Feststellung machen und zwar haben fast alle Elementareignisse die in unserem Ereignisraum vorliegen die Pfader T ordnet zu XT von Omega das heißt was jedem Zeitpunkt eine Realisierung dieses Elementareignisses der Zufallsvariable zugeordnet wird die Eigenschaft A wenn sie sich jetzt was ausdenken so kann man sagen dass der Prozess fast sicher diese Eigenschaft besitzt das heißt wenn wir einen einzigen Zeitpunkt dieses Pfades betrachten das heißt einen einzigen Zeitpunkt einer Realisierung eines chastischen Prozesses und geben diesem Zeitpunkt eine gewisse Eigenschaft so kann man fast sicher sein dass der gesamte Prozess diese Eigenschaft besitzt es ist eigentlich schon mal eine sehr kühne Aussage die man jetzt durchaus hinhauen kann hier kann man dann auch entsprechend von stetigen Cadillac oder differenzierbaren chastischen Prozesses Cadillac ist französisch und steht für continue at what und limit au gauche da werden wir später noch darauf kommen was das denn zu bedeuten hat zu deutsch ist das eine Funktion die rechts stetig und links limitiert ist aber da kommen wir nochmal separat dazu jetzt einfach mal mit einem Einstiegsbeispiel an und zwar den Bernoulli Experiment ich denke das jeder der schon mal eine grundlegende Statistikvorlesung hat er gehört hat und wir beginnen hier mit einem chastischen Prozess der ist ein Indexmenge in den natürlichen Zahlen liegt und wir sagen zugleich dass x hier eine unabhängig identisch Bernoulli verteilte Folge von Zufallsvariablen ist mit einem Parameter p der eigentlich nur die Werte annehmen kann und zwar 0 oder 1 und dann nennen wir das ganze ein Bernoulli Prozess und wenn wir jetzt diesen Prozess laufen in Anführungszeichen dann habe ich ihn unten mal ein Beispiel eines Pfaders dargestellt wenn wir jetzt fünf Schritte gehen also klein enden gleich fünf setzen dann kann beim ersten Schritt 0 oder 1 rauskommen beim zweiten Schritt 0 oder 1 rauskommen und so weiter ich habe ihnen hier einfach mal so ein Beispiel geschrieben um nun tiefer in die chastischen Prozesse einzusteigen ist es erforderlich einige Konzepte tiefer zu beleuchten bevor wir fortfahren können und hier werden wir einige Denkmodelle anreißen seien sie sich jedoch bewusst dass zu jedem dieser Modelle Denkkonzepte und sonstigen Sachen die wir in dieser Vorlesung anreißen es ganze Bücherei hin dazu geben kann und dass wir hier mehr oder minder nur an der Oberfläche kratzen können um ihnen ein grobes Verständnis chastischer Prozesse beizubringen zu den Denkmodellen mit denen wir uns hier befassen werden gehört zunächst einmal die Filtrierung oder die Filtration die Markov Eigenschaft und da kann man sich jetzt drüber streiten Martin Gale Eigenschaft oder Martin Gale als eigener Prozess das sind auf jeden Fall die drei Dinge als Eigenschaft beziehungsweise als Denkmodell hier vorstellen bevor wir uns überhaupt mit einem stochastischen Prozess neben dem Bernoulli Prozess befassen werden und wir beginnen erst einmal mit der ersten Variante der Filtration hier sehen sie, dass wir erneut von einem Wahrscheinlichkeitsraum ausgehen und einer Indexmenge und wir unterstellen dieser Indexmenge eine Ordnungsrelation in dem Fall hier kleiner gleich und oftmals nehmen wir hier N oder R plus das als Indexmenge, das hatten wir ja vorher schon wir nehmen N in der Regel für Zeit des Gretelprozesse und R plus eben für die Zeit stetigen Prozesse und bevor wir vorfahren möchte ich noch einen kurzen Einwurf machen ich denke sie verstehen inzwischen warum wir den Begriff der Zufallsvariablen und diese ganzen Raumbegriffe und diese ganzen Notationsdinge in der ersten Vorlesung schon angefangen haben einzuführen weil das hier effektiv die grundlegende Basis ist von der wir ausgehen und ich fahre jetzt hier fort wir nehmen ein Element diese Indexmenge und wir definieren ein F von I als eine Sub-Sigma Algebra von A und dann heißt eben die Menge F aller dieser Sigma Algebras die eben ein I in der Indexmenge besitzen eine Filtration wenn gilt dass eben diese Filtration Teilmengen voneinander sind und auch alle Filtration eine Teilmenge der großen Sigma Algebra A das Wahrscheinlichkeitsraum darstellen unter der Bedingung dass eben diese Zeitpunkte aufsteigend sind das heißt K kleiner gleich L das heißt dass die Sigma Algebra F von K eine Teilmenge sein muss von F von L und die Gesamt eine Teilmenge sein müssen von A nachdem die eben zeitlich aufsteigend geordnet sind daher haben wir oben auch die Ordnungsrelation kleiner gleich also sehen wir Filtration sind Familien von Sigma Algebrennen welche nicht absteigend sortiert sind, das heißt die sind eben aufsteigend sortiert und dann ist F eine Filtration und so ist der Raum Sigma A, F und P ein filtrierter Wahrscheinlichkeitsraum das bedeutet dass wir einen Wahrscheinlichkeitsraum besitzen der noch ein Argument besitzt und zwar eine Familie von Sigma Algebrennen die aufsteigend sortiert sind das ist die erste Variante einer Filtration wir werden nachher noch eine etwas anspruchsvollere Variante kennenlernen wir werden uns zunächst allerdings einmal mit unserer nächsten Eigenschaft befassen und zwar mit der elementaren Markoff Eigenschaft die Markoff Eigenschaft ist eine allgemein formulierte Bedingung wie sehr ein stochastischer Prozess von seiner eigenen Vergangenheit abhängt wir haben ja gerade im Themenkomplex Zeitreinanalyse gelernt, dass eine Zufallsvariable die Auto-Korrelation aufweist von sich selbst im Zeitablauf abhängt und wenn wir jetzt nun eine Familie von Zufallsvariablen betrachten und deren Realisierungen zeitlich ordnen ja, wer sind wir denn zu sagen, dass wir da keine zeitliche Abhängigkeit drin haben daher sagt die Markoff Eigenschaft ok, wie stark hängt denn dieser stochastische Prozess von seiner eigenen Vergangenheit ab? Aufbauend auf den Bedingten Erwartungswert lässt sich die Markoff Eigenschaft wie folgt beschreiben und ich zitiere das jetzt einfach mal die beste Vorhersage für ein Ereignis ändert sich nicht mit der Informationslage egal ob man den gesamten Verlauf bis zum aktuellen Zeitpunkt oder nur den aktuellen Zeitpunkt selbst kennt, die Vorhersage für den weiteren Prozessverlauf dadurch nicht beeinflusst was heißt das jetzt? das bedeutet, ob ich nun von Beginn des Prozesses an bis jetzt alles kenne oder nur den Wert gerade eben für die Zukunft ändert das nichts weil es zählt nur der Wert, der gerade gilt und die Vergangenheit ist eigentlich egal daher wird das Ganze auch als Gedächtnislosigkeit oder Kurzzeitgedächtnis bezeichnet und wir machen hier jetzt mal weiter und sagen, wir haben wieder eine Indexmenge die als eine Teilmenge der reellen Zahlen angesetzt ist und wir haben einen stochastischen Prozess X und wir haben Werte in dem Raum Ereignisraum und Sigma Algebra mit erzeugter Filtrierung F der Prozess X hat die elementare Markoff Eigenschaft genau dann wenn für jedes Ereignis A das Teil der Sigma Algebra A das zuvor genannten Raum ist für alle ST die Teil der Indexmenge Groß T sind und es zudem gilt dass S kleiner gleich T ist gilt, dass die Wahrscheinlichkeit von XT Teil A zu sein unter der Bedingung, dass wir eine Sub-Sigma Algebra zum Zeitpunkt S haben gleich, ist das X-Element von A ist unter der Bedingung dass wir die gesamte Sigma Algebra dieses Prozesses betrachten das ist effektiv die mathematische Darstellung davon zu sagen es ist egal ob ich die gesamte Vergangenheit des Prozesses kenne oder ob ich nur den letzten Zeitpunkt oder den jetzigen Zeitpunkt kenne für den nächsten Wert, für den nächsten Schritt auf unserem Fahrt ist das völlig irrelevant was in der Vergangenheit passiert ist es zählt nur der aktuelle Wert und der Rest um es mal sehr lapidar auszudrücken wir kommen hier jedoch noch mal detaillierter dazu die elementare Markov-Eigenschaft ist die allgemeinste Formulierung dieser Eigenschaft hier gibt es noch eine schwache Markov-Eigenschaft und eine starke Markov-Eigenschaft welche wir noch kennenlernen werden die elementare Markov-Eigenschaft ist allgemeiner als die schwache Markov-Eigenschaft da die schwache Markov-Eigenschaft die Existenz einer Filtration sowie eines sogenannten Markov-Kerns voraussetzt der Markov-Kern gibt hier die Übergangswahrscheinlichkeiten an welche zeitabhängig sind und das ist quasi gefordert wenn man eine schwache Markov-Eigenschaft voraussetzen möchte die Beschreibung des Markov-Kerns ist nicht Teil dieses Kurses da können sie sich eigene Bücher dazu kaufen wie man so ein Markov-Kern diese Übergangsmatritzen konzipieren kann ich habe ihn auch in ihrem Dashboard ein MIT-Video dazu eingestellt da können sie sich das gerne selber mal ansehen für diesen Kurs betrachten wir keine Markov-Kerner wir fahren nun fort mit dem dritten Denk-Konstrukt was wir hier noch benötigen werden um anzufangen und zwar das sogenannte Martin-Gale als Martin-Gale bezeichnet man in der Regel einen stochastischem Prozess der über den bedingten Erwartungswert definiert wird und im Mittel fair ist man kann natürlich auch andere Prozesse als Martin-Gale bezeichnen bzw. wird auch von einer Martin-Gale-Eigenschaft gesprochen prinzipiell ist es aber so dass das Martin-Gale ein eigener stochastischer Prozess ist bzw. eine Familie von stochastischen Prozessen es gibt noch die Begriffe Super Martin-Gale und ein Super Martin-Gale erzeugt den Mittel ein Verlust das ist wenn sie mehr oder minder im Casino spielen gehen was ich ihnen nicht empfehlen kann und ein Sub-Martin-Gale ist einer der im Mittel ein Gewinnerzeug da können sie dann bitte ins Casino gehen weil das ist dann zu ihren Gunsten so wo ist denn jetzt der Unterschied zwischen einem Martin-Gale und der Markov-Eigenschaft die Markov-Eigenschaft zielt auf die realisierten Werte direkt ab während der Martin-Gale sich auf die bedingten Erwartungswerte bezieht hier stellen wir jetzt auch mal den Discreten und den allgemeinen Fall konkret vor dass sie das sich auch mal formal vor Augen führen können die Zeit stetige Version werden wir erwähnen aber ich werde die hier nicht direkt aufzeigen das grenz ich jetzt einfach aus wir beginnen hier einfach mal mit einem Discretenfall des Martin-Gales und wir beginnen und so langsam kommen sie denke ich auch in diese Notation mit rein ein Wahrscheinlichkeitsraum eine Filtrierung und ein stochastischer Prozess auf eben diesen Messraum Omega und A wobei A hier unsere Sigma Algebra ist für den gilt der Prozess ist einmal integrierbar das heisst der Erwartungswert dieses Prozess ist kleiner unendlich für alle Indizes die wir hier eben betrachten der Prozess ist adaptiert an die Filtrierung das heisst der ist Fn messbar für alle Elemente der Indexmenge hier in dem Fall der natürlichen Zahlen und dann heisst X ein Martin-Gale bezüglich der Filtrierung wenn der bedingte Erwartungswert eben gleich Xn ist so wie hier das dargestellt ist und das nennt sich dann P fast sicher für alle n Element der natürlichen Zahlen das klingt jetzt interessant wird ihnen erstmal noch nicht mal so viel sagen ich fasse das nochmal zusammen wir haben wie immer ein Wahrscheinlichkeitsraum eine Filtrierung, ein stochastischer Prozess eben auf diesem Messraum und der Prozess muss integrierbar sein das heisst wir haben ein Erwartungswert das Prozess ist der kleiner unendlich der Prozess ist adaptiert an diese Filtrierung das heisst diese Sigma Algebra Fn kann man messen und X heisst dann ein Martin-Gale bezüglich der Filtration wenn der bedingte Erwartungswert von unserem nächsten Wert in Abhängigkeit eben dieser Sigma Algebra zum heutigen Zeitpunkt gleich dem X heute ist das bedeutet der bedingte Erwartungswert von morgen ist effektiv der Wert der heute realisiert wurde sofern dieses n ein Element der natürlichen Zahlen und in dem Fall sind die natürlichen Zahlen unsere Indexmenge das heisst wenn dieses n ein Element der Indexmenge ist ein Martin-Gales einen allgemeinen Fall darstellen und zwar gegeben sei wieder ein Wahrscheinlichkeitsraum eine Indexmenge die eine Teilmenge der realen Zahlen ist und eben eine Filtrierung deren Zeitpunkte T ein Element der Indexmenge und somit auch ein Teil der realen Zahlen sind so heisst ein integrierbarer an eben die Filtration adaptierbarer Prozess X ein Martin-Gale bezüglich dieser Filtration wenn für alle Zeitpunkte T Element Indexmenge T gilt dass eben der bedingte Erwartungswert von X zum Zeitpunkt S unter der Bedingung der Sub-Sigma Algebra zum Zeitpunkt T gleich XT ist das bedeutet sofern S größer T ist dass der zukünftige bedingte Erwartungswert gleich dem heutigen Wert ist das ist ein Martin-Gale und das ist eigentlich nur die gleiche Aussage wie vorher nur dass wir sie hier allgemein dargestellt haben ich habe ja vorher schon angesprochen dass wir eine zweite Variante unserer Filtration darstellen können und wir beginnen hier die Filtration auf eine andere Art darzustellen indem wir sagen wir nehmen den Messraum Omega und mit der Sigma Algebra A und sagen eine Filtration auf eben diesen Messraum ist eine Familie M und mit Zeitpunkten größer 0 von Sigma Algebra N und die sind alle Teilmengen von unserer großen Sigma Algebra A auf eben diesen Messraum Omega A so dass mit aufsteigenden Zeitpunkten eben diese Sigma Algebra N M S Teilmengen voneinander ist das heißt dass die Menge aller Sigma Algebra N M T aufsteigend ist und ein Enddimensionaler stochastischer Prozess M von T mit T größer gleich 0 eben auf den Wahrscheinlichkeitsraum Omega A P nennt sich Martin-Gale mit Hinblick auf eine Filtration die Größe 0 und P sofern gilt dass M T gleich M T messbar ist für alle T's und zum zweiten dass der Erwartungswert von diesen M T kleiner unendlich ist für alle Zeitpunkte T und das für den bedingten Erwartungswert von M S unter der Bedingung von M T sofern S größer gleich T ist gleich M T ist das bedeutet dass der zukünftige Wert nur vom heutigen Tag abhängt so kann man natürlich eine Filtration und ein Martin-Gale gemeinsam darstellen und definieren ich finde allerdings mit dieser Definition anzufangen wäre zu viel gewesen jetzt sind sie in der Lage das nachzuvollziehen und wir haben jetzt auch ein etwas 10 einsteht hinter uns das gebe ich zu der allerdings wie immer leider notwendig ist um die interessanteren Dinge durchnehmen zu können am Ende mit unseren Denkmodellen und beginnen mit unserem ersten stochastischen Prozess und zwar dem Random Walk was ist denn nun ein Random Walk eine zufällige stochastische Ehrfahrt zufällige Schrittfolge Zufallsbewegung oder Zufallsweg bezeichnet man zumeist als Random Walk ein Random Walk ist ein, ich sage es mal, einfacheres mathematisches Modell welche eine Bewegung durch zufällige Schritte darstellen kann und es handelt sich um ein Zeit des gräten stochastischen Prozesses das bedeutet die Schritte sind abzillbar mit unabhängigen und identisch verteilten Zuwächsen, das nennt sich auch AIID, welcher für nicht deterministische Zeitreihen Analyse verwendet werden kann betrachten wir uns nun die formale Definition eines Random Walks ist es so, dass es grundlegend verschiedene Arten gibt eine Random Walk formal zu definieren ein Buch gefunden mit 500 Seiten was sich nur darum dreht Sie können Random Walks als Bewegung auf verschiedenen Körpern, Gittern oder ähnlichen definieren wir haben hier eine Folge Z1, Z2 und so weiter unabhängiger Zufallsvariabeln mit Werten in RD die alle die gleiche Verteilung besitzen und dann heißt der durch xn gleich x0 plus die Summe aller dieser Zufallsvariabeln erzeugte definierte stochastische Prozess x ein Random Walk in RD oder ein D-Dimensionaler Random Walk so x0 ist hier deterministisch und häufig fangen wir bei 0 an und ist Element eben des D-Dimensionalen realen Raumes was heißt das denn jetzt überhaupt, das hilft uns erst mal noch nicht so viel das heißt wir haben eine Folge unabhängiger Zufallsvariabeln für jeden Schritt wird aus dieser Zufallsvariabeln ein Wert gezogen und der stochastische Prozess setzt sich dann daraus zusammen dass wir einen Startwert haben hier meistens x0 gleich 0 und dann gehen wir entweder nach oben, nach unten oder bleiben gleich je nachdem was uns diese Zufallsvariabeln vorgibt und der Endwert zum Zeitpunkt N, Element N0 setzt sich dann daraus zusammen welche Werte diese Zufallsvariabeln insgesamt angenommen haben deswegen steht hier auch diese Summe der Zufallsvariabeln und das ist jetzt schön wenn man sich das vorstellen kann wir gehen jetzt mal in ein einfaches Beispiel, wir befassen uns hier mal mit einem eindimensionalen Random Walk um das Ganze nochmal ein bisschen zu veranschaulichen und bei einem eindimensionalen Random Walk können wir sagen dass somit ein Random Walk ein das mit unabhängigen und stationären Zuwächsen ist und die einfachste Veranschaulichung ist eben diese einfache eindimensionale Random Walk, ich habe Ihnen das hier unten mal aufgeführt, wir starten bei 0 und wir haben eine 50% Wahrscheinlichkeit, dass wir bei 1 rauskommen und wir haben eine 50% Wahrscheinlichkeit, dass wir bei minus 1 rauskommen und wenn wir bei 1 sind, haben wir wieder eine 50% Wahrscheinlichkeit auf 0 zurückzufallen oder auf 2 zu steigen und so weiter und je nachdem wie lang wir laufen haben wir irgendwo einen Endwert wenn wir nun 2 Schritte gehen und jedes mal die Zufallsvariable den Wert 1 angenommen hat, haben wir eben hier 0 plus 1 plus 1 gibt 2, das heißt, dass der stochastische Prozess der eindimensionale Random Walk nach 2 Perioden, sofern die Variablen den Wert 1 angenommen haben eben bei 2 rauskommen. Wie können wir das Ganze jetzt noch einfacher veranschaulich darstellen? Kommen wir doch mal zu einer Veranschaulichung, die zumindest den meisten Studenten bekannt sein sollte und zwar veranschaulich werden kann diese eindimensionale Random Walk durch den sogenannten Trunkards Walk also einen Pfad eines desorientierten und alkoholisierten Fußgängers und diese begibt sich mit einer Wahrscheinlichkeit von p, einen Schritt nach vorne und mit einer Wahrscheinlichkeit q ist gleich 1 minus p also die Gegenwahrscheinlichkeit zu p einen Schritt nach hinten, das heißt, wir können einen desorientierten alkoholisierten Fußgänger einen Schritt nach vorne oder einen Schritt nach hinten laufen lassen mit einer gewissen Wahrscheinlichkeit und daher bilden die einzelnen Schritte des eindimensionalen Random Walks ein Bernoulli Prozess, den wir ganz am Anfang als Einstiegs- Beispiel gesehen haben und das heißt eine Folge unabhängiger Bernoulli Versuche, das heißt, jeder Schritt den wir als Trunkard machen eine Bernoulli Experimental durchführung sollte sie jemals jemand in so einem Zustand antreffen und fragen was sie hier denn tun, dann können sie durchaus damit antworten, hier sie führen eine Folge unabhängiger Bernoulli Versuche an sich selbst durch was bei uns natürlich nicht vorkommt nachdem wir ja kein Alkohol konsumieren und nur stochastische Prozesse lernen und auch uns gesund und ausgewogen ernähren logischerweise was heißt das denn jetzt stellen wir uns die Frage wie groß ist die Wahrscheinlichkeit P dass sich der betrunkene genau an Stelle X befindet, sehen wir eine Binomialverteilung sofern dieser sich K-Schritte nach vorne und L-Schritte zurück bewegt hat Formal können sie das jetzt hier unten nochmal sehen wir sehen hier eben die Binomialverteilung und wenn die Wahrscheinlichkeit dass wir einen Schritt nach vorne und einen Schritt zurückgehen, das heißt wenn der Kugel euch ein halb ist sprechen wir von einem symmetrischen Random Walk, das bedeutet dass unser betrunkener eine Wahrscheinlichkeit von 50% hat nach vorne zu gehen und eine Wahrscheinlichkeit von 50% zurück zu gehen, dann haben wir eine Symmetrie da der Kurs ja unter dem Sternzeichen der geistigen Flexibilität steht stellen wir uns nun den Random Walk auf einem D-Dimensionalen ganz zahligen Gitter ZD vor auf dem der betrunkene und unter der Bedingung, dass er natürlich auch unendlich lange betrunken bleibt das heißt Vorräte, Nahrung, Essen alkoholische Grundversorgung sind gegeben ist nun der Zustandsraum auf endliche Dimensionen beschränkt nennen wir solch einen Random Walk einfacher beschränkter symmetrischer Random Walk und für einen einfachen Random Walk auf diesem Gitter ZD ergibt sich für einen Lauf welcher hier durch die Menge Variablen NS dargestellt wird der Erwartungswert 0 das heißt wir sehen, wenn wir einen einfachen Random Walk auf eben so einem Endimensionalen Gitter durchführen dann haben wir einen Erwartungswert von 0, das heißt im Mittel in der Erwartung kommen wir genau am Startpunkt wieder raus wie oft berührt beziehungsweise überschreitet nun der Random Walk eine Grenzlinie des Gitters sofern dieser unendlich lange fortgesetzt wird ein einfacher Random Walk auf dem Gitter ZD wird jeden Punkt unendliche Male überqueren und diese Rekorrenz ist auch als Gambler's Ruin bekannt das heißt ein Spieler mit endlich Geld wird bei einem fairen Spiel gegen eine Bank mit unendlich Geld um in Homer Simpson Notation mal zu sprechen wahrscheinlich verlieren, da dessen Geld einem Random Walk folgt das heißt der Spieler eines Gamblers Ruin Spiels oder eines fairen Spiels wird im Mittel kein Geld gewinnen und wenn seine Geldvorräte begrenzt sind, dann wird er wahrscheinlich Geld verlieren sein nun N1 und N2 positive Ganzzahlen dann ist die Erwartete Anzahl an Schritten beginnen von 0 ab eines einfachen Random Walks bis dieser eben N2 oder minus N1 nach dem Produkt der beiden Zahlen N1 mal N2 die Wahrscheinlichkeit dass der Random Walk N2 noch vor minus N1 erreicht gleich N1 geteilt durch N1 plus N2 womit wir sehen können dass der Random Walk ein Martin Gale ist so wie wir es vorher schon kennengelernt haben Eindimensionaler Random Walk Ausblick zudem können wir durch die IID Eigenschaft dem Random Walk eine Markoff Eigenschaft zu schreiben beziehungsweise diesen als Markoff Kette darstellen es besteht ein Zusammenhang zwischen Random Walks und den Pascalchen Dreieck und Fraktalen diese Sachen sehen wir später noch ich zeige Ihnen zunächst einmal grafische Repräsentation eines Random Walks damit wir hier nicht nur mit Formeln um uns schmeißen, sondern auch visuell eine Möglichkeit haben uns das Ganze mal vorzustellen wir sehen hier ein Eindimensionaler Random Walk erstmal nur mit 10 Schritten, mit 10 Zeitpunkten und wir fangen hier bei 0 an und Sie können hier nachvollziehen ob es nach oben oder nach unten geht das ist jetzt noch relativ unspektakulär ich habe das Ganze mal für 100 Schritte gemacht das können Sie hier sehen hier mal für eine Million Schritte und Sie sehen warum in den Finanzmärkten auch stochastische Prozesse oder Random Walks in den klassischen Modulierungen verwendet wurden, weil wenn ich Ihnen jetzt nicht sage, dass das ein Random Walk ist, sondern Ihnen sage das ist eine Aktie, dann können Sie auf den ersten Blick erstmal gar nicht erkennen ob das jetzt eine Zufallsbewegung ist oder nicht wir werden später im Kapitel über Signaltheorie noch darauf kommen wie man denn nun diesen Random Walk von einer tatsächlichen Aktie unterscheiden kann also bleiben Sie hier mal gespannt natürlich gibt es jetzt nicht nur die Möglichkeit uns einen einzigen Pfad anzuschauen, das heißt eine einzige Realisierung dieses Random Walks sondern ich habe Ihnen hier mal ein paar mehr dargestellt, damit Sie sehen können wie verschiedene Pfade denn simultan aussehen können, ich habe mich hier auf 1000 Schritte beschränkt und ich habe hier auch mal, ich glaube das waren 150 Stück gleichzeitig einmal abgetragen wie Sie diese Bilder selbst erzeugen können umsetzen können, lernen wir noch in unseren Python Coding Videos zunächst einmal möchte ich Ihnen doch nochmal bei diesem Bild verweilen und Sie bitten sich dieses Bild mal ganz genau anzusehen was können Sie hier denn sehen Sie sehen dass die sich alle mehr oder minder in dieselbe Richtung entwickeln und das jetzt hier keine riesengroßen Ausreißer nach oben oder nach unten da sind und um diesen Eindruck mal ein bisschen näher zu spezifizieren habe ich Ihnen hier mal ein Sinnbild dargestellt wohin sich denn so ein Random Walk überhaupt entwickeln kann und was für Eigenschaften denn ein Random Walk noch haben kann zunächst einmal fragen wir uns was passiert denn wenn wir immer nur positive Entwicklungen erhalten, das heißt wir gehen einen Schritt nach oben und noch einen Schritt nach oben dann kommen wir nach T-Perioden natürlich bei plus T raus was das Maximum eines Random Walkes darstellt und bei minus T wenn wir das entsprechende Minimum betrachten das sind die roten Linien in dieser Grafik und wir sehen natürlich auch dass die Standardabweichungen nach oben und nach unten bei der Wurzel T oder bei minus Wurzel T liegen und wenn wir nun diesen Fahrt unendlich lange laufen lassen bedeutet das nicht wenn wir bei plus T sind, dass wir bei T plus 1 weiterhin oben bleiben sondern es kann durchaus sein dass wir zwischen minus T und plus T unendlich oft hin und her schwingen schwingen ist hier das falsche Wort sagen wir springen wir laufen von minus T zu plus T und wieder nach unten das heißt dass wenn der Lauf unendlich lange ist wir jeden Punkt unendlich oft berühren werden wir aber generell bei beschränkten Läufen uns hier bei Wurzel T und minus Wurzel T in der ersten Standardabweichung nach links und nach rechts bewegen nach dem natürlich auch durch die IID Eigenschaft zur Grunde liegt und ich kann ja hier sehr viel behaupten viele von ihnen denken sich jetzt zeig mir das doch erstmal und das kann ich auch machen ich hab hier denke ich 250 Random Walk Pfade aufgetragen wie sie sehen können läuft der Großteil dieser Realisierungen innerhalb der ersten Standardabweichungs Level nach oben und nach unten und sie sehen natürlich wie sie an dem ganz roten Punkt oben sehen können dass es hier auch welche gibt die durchaus weiter nach oben laufen aber das sind in etwa die Eigenschaften die ich ihnen hier grafisch in einem Random Walk zeigen möchte es ist durchaus auch möglich ein 2 Dimensional Random Walk grafisch darzustellen das bedeutet dass wir uns nicht nur in X Richtung bewegen sondern auch in X und Y Richtung bewegen können die Regeln sind hier allerdings dieselben eine grafische Repräsentation einer 2D Random Walk Bewegung dargestellt wie sie sich das selbst erzeugen können lernen wir noch in unseren Videos und natürlich ist es auch möglich das ganze im 3 Dimensionalen Raum zu machen wo wir eben dann 3 Variablen haben X, Y und Z das heißt für jede Richtung gibt es eine Variabler und ich habe mir hier die Freiheit rausgenommen ihnen einfach mal eine 3 Dimensionale Realisierung eines Random Walks aufzuzeigen fahren wir nun fort und zwar machen wir hier eine kleine Wiederholung bevor wir uns dem Themenkomplex Brownshire Molecular Bewegung und Wiener Prozess zuwenden können und zwar befassen wir uns zunächst noch einmal mit dem zentralen Grenzwertsatz ich denke allerdings das ist den meisten von ihnen aus der Standardstatistik heraus ein Begriff wir haben hier X1, X2, X3 und so weiter als eine Folge der Variablen den der Wahrscheinlichkeitsraum Omega AP zugrunde liegt und die die IID Annahme erfüllen und zudem nehmen wir an das my also der Erwartungswert, so wie Siegmar die Standardabweichung größer 0 existieren und endlich sind und dann ist es so, dass für die endeteilsumme SN ist gleich X1 plus X2 und so weiter plus Xn gilt für den Erwartungswert und für die Varianz dass diese N mal Sigma Quadrat darstellt und man kann natürlich zeigen dass man eine standardisierte Zufallsvariable bilden kann indem man eben SN minus N mal my geteilt durch Sigma mal Wurzel N rechnet, das heißt die Zufallsvariable SN die man eben aus dieser enden Teilsumme bilden kann ist Standard normal verteilt und standardisiert daher auch der Name für diese standardisierte Zufallsvariable Zn besagt der zentrale Grenzwertsatz dass die Verteilungsfunktion sofern N gegen und endlich läuft, punktweise gegen eine Standardnormalverteilung NV01 konvergiert das ist das was ich gerade schon vorweggenommen habe und es fie von Z die Verteilungsfunktion eben dieser Standardnormalverteilung bedeutet dies wie jedes reale Z das im Grenzwert die Wahrscheinlichkeit dass die Zufallsvariable kleiner oder gleich eben dieses realen Z ist eben der Wert der Funktion fie an der Stelle Z ist und das habe ich Ihnen unten hier nochmal formal dargestellt, das ist das was in einer normalen Statistikvorlesung dazu genutzt wird um aus Standardnormalverteilungstabellen die Wahrscheinlichkeiten immer raus zu ziehen und zu nutzen für uns sollt das nur eine kurze Wiederholung darstellen die ich Ihnen hier nochmal grafisch dargestellt habe das heißt wir erhöhen hier unseren Stichprobenumfang unser N wird die Größe der Beobachtungsumfang wird desto eher konvergieren wir hier gegen eine Standardnormalverteilung wie Sie das hier sehen können was wir hier machen wollen ist, wir wollen uns hier nun mit dem Themenkomplex der Braunschemolekularbewegung befassen und die Braunschemolekularbewegung ist ein zeitstätiger stochastischer Prozess und wir werden uns nun dem Übergang zwischen Zeit des Kräten auf zeitstätige stochastische Prozesse widmen und hierzu sind einige Vorkenntnisse zu erfüllen und diese werden wir uns anhand des Donska Theorems erarbeiten und da ist eben auch der schnelle Grenzwertsatz eine Grundvoraussetzung deshalb wir hier nochmal darauf eingegangen sind ich möchte hier nochmal den Hinweis geben dass wir nun zu einem Punkt kommen den ich ganz am Anfang erwähnt habe dass die stochastischen Prozesse miteinander verwoben sind dass die Dinge miteinander in Zusammenhang stehen und deswegen wirkt das hier eventuell etwas abgehackt und unzusammenhängend das möchte ich, dass Sie mir das bitte nachsehen wir erarbeiten uns der Schritt für Schritt in die Ende die Zusammenhänge auch vollumfänglich verstehen können diesen Sprung von zentralen Grenzwertsatz über Donska Theorem auf die Brownsche Molekular Bewegung ist der Weg den wir gehen müssen um den Übergang zwischen Zeit des Kräten auf zeitstätige stochastische Prozesse zu verstehen und es ist einfach so dass wir wie bereits beim Begriff der Zufallsvariablen dies schrittweise und wahrnehmen werden ich möchte, dass Sie die Hintergründe verstehen wieso wir jetzt auf einmal von Zeit des Kräten auf Zeitstätig springen können und wie wir das auch hin und her substituieren mögen und dazu fangen wir erstmal an zu sagen allgemein ist das Donska Theorem als auch das Donska Invarianzprinzip worum es hier dann letzten Endes geht was auch als Funktionaler zentraler Grenzwertsatz bekannt ist eine Funktionaler Erweiterung des zentralen Grenzwertsatz das wegen haben wir auch begonnen den zentralen Grenzwertsatz zu wiederholen weil wir nun hergehen werden um diesen zu verallgemeinern und funktional zu erweitern um danach von Zeit des Kräten auf zeitstätige stochastische Prozesse übergehen zu können wir beginnen das Donska Theorem indem wir sagen sei x1, x2, x3 eine Folge von Zufallsvariablen die die IID-Annahmen erfüllen und eine Erwartungswert von 0 und Varianz von 1 aufweisen das bedeutet das die eben eine Standard-Normalverteilung zugrunde liegen haben zudem haben wir hier wieder eine Zufallsvariable Sn die definiert ist als Entitalsumme von Zufallsvariablen xi und wir haben einen stochastischen Prozess s der eben diese Zufallsvariable Sn als Grundlage hat den wir randomVorg nennen und demnach kann man den nach der Diffusion skalierten randomVorg das nennt sich auch partieller Summe im Prozess wie dargestellt eben beschreiben und was heißt das denn jetzt eigentlich wir sehen unten an der Formulierung dass unsere Zeit erst mal skaliert wird auf das Intervall 0,1 und wir sehen dass unser Summenprozess skaliert wird mit der Wurzel N es sagt uns erst mal noch nicht mal so wirklich was wir machen jetzt hier einfach mal weiter und sagen dass der zentrale Grenzwertsatz so wie wir ihn vorher wiederholt haben dafür sorgt dass das Wn1 gegen die Verteilung einer standardnormal verteilten Zufallsvariablen W1 konvergiert sofern N gegen unendlich läuft was macht jetzt das Donskertheorem für was benötigen wir das denn überhaupt das Donskertheorem erweitert diese Konvergenz auf die gesamte Funktion dass für alle Wn die definiert sind eben als der charakterische Prozess Wn von T für alle T die auf diesem Einheitsintervall liegen diese Konvergenz gegen eine standardnormal Verteilung eintritt nenne ich das jetzt mal wir müssen das ganze nochmal ein bisschen präziser formulieren weil in der modernen Formulierung sagt das Donskertheorem Varianzprinzip nämlich Folgendes wenn eine Zufallsvariable Werte in einem Scorocod-Raum D01 einnimmt konvergiert die Zufallsfunktion Wn in der Verteilung zu einer brownischen Molekulabewegung W die hier als charakterischer Prozess dieser Zufallsfunktion mit dem Argument T für T im Einheitsintervall 01 definiert es sofern N gegen unendlich läuft Na herzlichen Glückwunsch das hat jetzt denke ich jeder verstanden ich denke ich springe nochmal zwei Folien zurück und wiederhole was wir denn eigentlich gerade gehört haben wir haben verschiedene XI Variablen Zufallsvariablen die IID sind und standardnormal verteilt wir haben eine Variable Sn die wir als Teilsumme dieser Variablen betrachten und einen stochastischen Prozess einen random walk der sich aus dieser Teilsumme dieser Zufallsvariablen zusammensetzt und wir nehmen diesen random walk und skalieren die Diffusion um einen speziellen Summenprozess zu erzeugen und diese Diffusionsskalierung wird eben durch diese Wahrscheinlichkeitsfunktion Wn zum Zeitpunkt T definiert als eben die skalierte Version dieses Prozesses S und wir skalieren das damit wir die Zeiträume die Zeitpunkte auf das Einheitsintervall abbilden können was hat das jetzt mit dem zentralen Grenzwertsatz zu tun betrachten wir den Zeitpunkt T gleich 1 das ist das Ende dieses Intervalles da sorgt der zentrale Grenzwertsatz dafür dass für diese Wahrscheinlichkeitsfunktion Wn die Verteilung an der Zufallsvariablen W1 zu einer Standard-Normal-Verteilung konvergiert sofern n gegen unendlich läuft der zentrale Grenzwertsatz kann allerdings genau nur das und zwar am Zeitpunkt T gleich 1 die Verteilungsfunktion Wn für die Zufallsvariable W1 gegen eine Standard-Normal-Verteilung konvergieren lassen sofern n gegen unendlich läuft das Donska Theorem allerdings dass das für die gesamte Funktion gilt und zwar für alle T's beginnen bei 0 bis hin zu 1 d.h. wir machen den zentralen Grenzwertsatz nicht nur an einem Zeitpunkt sondern an allen das ist das was hier steht und was haben wir noch gesagt wir müssen das noch ein bisschen präzisieren durch das Donska Invarianz-Prinzip und das Invarianz-Prinzip sagt uns wenn eine Zufallsvariable Werte in einem Scorocod-Raum D01 einnimmt konvergiert eben diese Zufallsfunktion Wn in der Verteilung zu einer Brownschen-Molekularbewegung W der definiert ist als stochastischer Prozess wo die Indexmenge gleich dieses Einheitsintervall 0,1 ist und T eben Werte aus diesem Einheitsintervall 0,1 als Indexmenge annehmen kann und der stochastische Prozess sich eben auf diese Zufallsfunktion Wn zum Zeitpunkt T beruft und genau diese Menge ist eben der Zufallsprozess und am besten wiederholen wir das ganze nochmal was sagt das Donska Invarianz-Prinzip das sagt wir haben eine Zufallsvariable die nimmt Werte in einem Scorocod-Raum ein was das ist sehen wir gleich noch also auf jeden Fall die Zufallsfunktion Wn in der Verteilung zu einer Brownschen-Molekularbewegung W und diese Brownschen-Molekularbewegung W definieren wir als stochastischen Zufallsprozess dieser Zufallsfunktion über das Einheitsintervall das hier als Indexmenge gilt und diese Konvergierung dieser Zufallsfunktion in eine Brownschen-Molekularbewegung findet statt wie es sich läuft so, jetzt haben wir ein offenen Punkt was ist ein Scorocod-Raum die Sammlung aller Cadillac-Funktionen in einem gegebenen Raum nennt sich Scorocod-Raum das ist denke ich eine sehr knappe und kurze Definition wir haben das Wort Cadillac-Continuie-Adouat-Limit-Agouche vorher schon einmal gehört aber wir sind nicht genau darauf eingegangen, aber genau das machen wir jetzt was ist eine Cadillac-Funktion eine Funktion F die das halb offene Intervall 0 bis unendlich auf einen Raum E abbildet wo bei E ein polnischer Raum ist heißt Cadillac-Funktion wenn für alle X gilt, dass diese Element dieses halb offenen Intervalles 0 bis unendlich eingeschlossen sind die Funktion F in X rechtsseitig stetig und der linksseitige Grenzwert in X existiert und endlich ist so ok, noch mal von vorne ich denke das war für alle etwas viel wir haben eine Funktion F die bildet das halb offene Intervall von 0 bis unendlich auf einen Raum E ab dieser Raum E ist ein polnischer Raum diese Funktion F nennt sich Cadillac-Funktion wenn zum einen alle X Teil oder Element dieses halb offenen Intervalle sind und die Funktion in X rechtsseitig stetig ist und der linksseitige Grenzwert in X existiert und endlich ist das ganze gilt natürlich auch Weißversa, dass wir eine linksseitige Stetigkeit haben und einen rechtsseitigen Grenzwert die Funktion ist abgebildet Sie sind jetzt in der Erwartungshaltung hergekommen, dass ich Ihnen erkläre was ein Scorocod-Raum ist ich habe Ihnen erklärt was ein Scorocod-Raum ist allerdings haben Sie jetzt wieder einen neuen Raum den wir erstmal erklären müssen was ist denn nun ein polnischer Raum ein polnischer Raum ist in der Topologie ein separabler und vollständig metrizierbarer topologischer Raum da war bedeutet vollständig metrizierbar, dass es eine Metrik D auf X gibt die die Topologie induziert und zugleich vollständig ist das ist jetzt eine schöne Aussage was heißt das denn jetzt das heißt, dass jede Cauchy-Folge bezüglich Dekonvergiert jetzt haben wir schon wieder diesen Wikipedia-Effekt was ist denn eine Cauchy-Folge eine Cauchy-Folge weist beim Abstand der Folgeglieder kleiner werdende Werte auf ich habe Ihnen das hier unten mal hingemalt eine Cauchy-Folge lässt quasi die Abstände der Folgeglieder immer kleiner werden und ein Raum der eben eine Metrik D hat wo jede dieser Cauchy-Folgen konvergiert ist eben ein polnischer Raum und in diesen polnischen Raum bildet unsere Katlackfunktion ab und die Ansammlung der Katlackfunktionen ist ein Scorochord-Raum den wir benötigen um das Donska-Invarianz-Prinzip verstehen zu können haben wir das alles verstanden und das haben wir jetzt ja natürlich auch können wir uns tatsächlich der braunschen Molekular-Bewegung zuwenden diese geht ursprünglich zurück auf den Botaniker Robert Brown welcher 1827 Poln in einer Lösung mikroskop betrachtet hat und festgestellt hat diese Teilchen diese Poln bewegen sich die Zittern Albert Einstein hat 1905 durch eine Publikation gezeigt dass dieses Zittern von der Bewegung der Wassermoleküle ausgelöst wurde sogenanntes Teilchensittern Jean Perrain 1908 hat hierauf aufbauend den Nobelpreis 1926 für den Nachweis der Existenz von Atomen und Molekülen erhalten also sie merken wir machen hier nicht nur Bildchenzahlen und ein ziemlich verrücktes Hin- und Herrechen zwischen verschiedenen Fachbereichen, sondern wir machen hier auch ein bisschen geschichtliche Bildung, damit sie auch sehen woher das ganze überhaupt kommt gehen wir jetzt mal näher auf die braunsche Molekular-Bewegung ein. Die Richtung Kraft der atomistischen Zusammenstöße ändert sich stetig und die Anzahl der gerichteten Zusammenstöße variiert was auf eine Zufalls-Bewegung schließen lässt. Es gibt eine probabilistische Modellklasse welche auf das Modell von Einstein und Molokovsky zurück geht sowie die klassisch-tochastischer Prozesse welche über das Donskotheorem erreicht werden kann. Das Erste greift in die Statistische Mechanik und Thermodynamik und das ist vielleicht den Ingenieuren unter ihnen ein Begriff aber das werden wir hier nicht näher erläutern und das greifen wir ja auch nicht auf weil das selbst für unseren ich sage mal unser Kurssetting zu weit weg ist und das auch nicht zielführend für die Finanzmärkte ist daher überlassen wir die Statistische Mechanik doch lieber den Ingenieuren und konzentrieren uns darauf welche Modellklasse wir denn über das Donskotheorem erreichen können und das ist der sogenannte Wiener Prozess der Wiener Prozess ist ein zeitstätiger stochastischer Prozess welcher nach Norbert Wiener benannt wurde und einer der bekanntesten Levy Prozesse ein Levy Prozess lernen wir später noch kennen also effektiv ist ein Levy Prozess ein Cadillac stochastischer Prozess das heißt ein Wiener Prozess ist ein zeitstätiger stochastischer Prozess der zugleich ein Levy Prozess ist und ein Levy Prozess ist ein Cadillac stochastischer Prozess darauf gehen wir später noch ein und der Wiener Prozess wird oft synonym mit der braunischen Molekularbewegung verwendet hat aber den mathematischen Unterschied auch sehr kurze Zeitabschnitte darstellen zu können und in diesem Kurs verwenden wir die Begriffe jedoch synonym beziehungsweise den Wiener Prozess als mathematische Entsprechung der braunischen Bewegung so ist dieser Prozess natürlich auch entstanden also wir für unseren Teil verwenden braunische Molekularbewegung und den Wiener Prozess als synonym und können im Hinterkopf behalten dass Norbert Wiener diesen Prozess unabhängig von der braunischen Molekularbewegung in die Welt gesetzt hat nenne ich das jetzt mal sehr salopp damals war die Welt noch nicht so vernetzt wie heute und wir benutzen den Wiener Prozess um eine braunische Molekularbewegung zu beschreiben beziehungsweise wie gesagt synonym was ist denn jetzt ein Wiener Prozess oder eine braunische Molekularbewegung eigentlich in einem mathematischen Sinne als stratischer Prozess der Wiener Prozess WT ist mit vier Eigenschaften charakterisierbar er beginnt bei 0 er ist fast sicher stetig er hat unabhängige Zuwächse und wenn wir nun ein Intervall nehmen von WT minus WS das heißt dieses Intervall, dieses Zeitstück ist dieses Zeitstück normal verteilt mit einem Erwartungswert von 0 und einer Varianz von T minus S sofern S größer als 0 ist und kleiner wie T ist die unabhängigen Zuwächse bedeuten auch dass eben WT1 minus WS1 und WT2 minus WS2 als unabhängige Zufallsvariablen anzunehmen sind das heißt die Stückchen, die Zeitabschnitte die wir aus diesem Prozess herausnehmen sind selbst wieder unabhängige Zufallsvariablen sofern die Zeitpunkte aufsteigend sortiert sind der Wiener Prozess WT ist fast sicher ein stetiger Martin Gale mit startwert 0 und quadratischen Variationen welche dem Zeitpunkt der Betrachtung gleichen der Wiener Prozess kann als sogenannte Skalierungsgrenze eines Random Walk einer der anderen Zeit des gräten stochastischen Prozessen deren Zuwächse unabhängig stationär sind gesehen werden dies ermöglicht das Donscott-Theorem welches wir zuvor kennengelernt haben im Gegensatz zum Random Walk ist der Wiener Prozess Skalen invariant so, das war jetzt wieder sehr viel was heißt das denn jetzt der Wiener Prozess fängt bei 0 an hat unabhängige Zuwächse ausschneiden die selbst wieder unabhängig voneinander sind und die wieder selbst an sich zufalls variablen wilden und was haben wir denn beim Donscott-Theorem gelernt, wir haben gelernt dass ein Random Walk im Grenzwert eine brownshell-molekulare Bewegung wird das heißt die Skalierungsgrenze eines Random Walks ist der Wiener Prozess also die brownshell-molekulare Bewegung das heißt wir können von einem Zeit Steteln Prozess in einen zeitstätigen Prozess übergehen so fähren wir das Donscott-Theorem anwenden und der Wiener Prozess ist Skalen invariant, das bedeutet das haben wir ja bei den Fraktalen gelernt dass egal wie weit ich rein oder raussume das Muster, das Pattern grundsätzlich gleich aussieht ich habe ihn hier und das lernen wir in Python auch noch wie das funktioniert wir haben einen eindimensionalen Brownian Puff das bedeutet eine eindimensionale brownshell-molekulare Bewegung Streck-Wiener Prozess und ich habe hier die Anzahl der Schritte noch nicht so hoch gedreht, aber dass sie auch die einzelnen Spitzen mal sehen können dass das hier nicht ganz bei 0 anfängt ist der Programmierung geschuldet es soll bei 0 anfangen und rechnerisch fängt das eigentlich auch bei 0 an dass die Zeit zwischen 0 und 1 auf das Einheitsintervall ich sage es einmal zusammengedrückt wurde und dass wir hier eine stetige Bewegung sehen können und nicht mehr wie beim random walk die einzelnen Schritte das hier ist jetzt ein zeitstetiger stochastischer Prozess und wir können die Zeitschritte nicht mehr abzählen ich habe ihn hier nochmals eine eindimensionale brownshell-Bewegung dargestellt und ich nehme mal mit ein paar Schritten mehr und diesmal klappt das auch mit dem Startwert bei 0 ich habe hier die Anzahl der Schritte eine Anzahl der Interaktion erhöht und wir sehen das hier nochmal wenn ich das ins extreme treibe auch nochmal und sie sehen auch hier ganz schön dass man das durchaus als Aktienzeitreihe interpretieren könnte wenn man jetzt nicht wüsste dass dies eine brownshell-Molekular-Bewegung ist wie wir diese brownshell-Molekular-Bewegung oder den random walk von einer echten Zeitreihe unterscheiden können, sehen wir später noch ich habe ihn hier analog zum random walk einfach mal ganz ganz viele brownshell-Molekular-Bewegungspfade abgebildet dass sie sehen können, dass das Verhalten ähnlich ist im random walk, das heißt hier gelten ebenfalls diese plus und minus T-Grenzen Werten, so wie diese Standard-Normal-Vertreilungs-Standard- Abweichungen, wie wir gesehen haben wie sie diese Bilder selbst erzeugen können, lernen wir später noch in unseren Programmiervideos wie wir natürlich mit dieser brownshell-Molekular-Bewegung Aktienzeitreihen simulieren können das machen wir ebenfalls in den Programmiervideos wichtig ist es mir, dass sich erstmal sehen, wie so was aussieht und wie das zustande kommt drinnen haben wir gesagt ein Wiener-Prozess oder eine brownshell-Molekular-Bewegung ist eine Entsprechung oder die bekannteste Repräsentation eines Levy-Prozesses und diesen werden wir uns jetzt hier auch nochmal kurz zuwenden was ist denn jetzt nun ein Levy-Prozess Sie merken, wir rennen hier durch die verschiedenen Prozessarten und ich glaube, ich recapituliere nochmal ein bisschen wir können ein Bernoulli-Experiment einen random walk darstellen und einen random walk als brownshell-Molekular-Bewegung und die brownshell-Molekular-Bewegung ist synonym zu sehen mit einem Wiener-Prozess und der Wiener-Prozess ist ein Levy-Prozess also zurück zur Frage was ist denn ein Levy-Prozess im Allgemeinen der Levy-Prozess kann als Art Überbegriff für verschiedene stochastische Prozesse gesehen werden und ist nach Paul Levy bekannt Levy-Prozesse haben stationäre unabhängige Zuwächse und beschreiben die zeitliche Entwicklung von Größen die Zufälligen aber über die Zeit gleichverteilten und voneinander unabhängigen Einflüssen ausgesetzt sind das sollte bei Ihnen jetzt ein paar Klocken klingeln lassen weil das haben Sie schon mal irgendwo hergehört und zwar ein Beispiel für ein Levy-Prozess ist der Wiener-Prozess der eben wie so eben vorgestellt genau diese Eigenschaften hat jetzt ist aber die Frage der formalen Definition was ist denn ein Levy-Prozess ein stochastischer Prozess XT über einen Wahrscheinlichkeitsraum Omega AP heißt Levy-Prozess WEN dieser eben bei Null beginnt iID Eigenschaft besitzt das heißt unabhängige stationäre Zuwächse aufweist und XT stochastisch stetig ist was ist denn stochastische Stetigkeit das heißt für ein beliebiges große Null und ein Zeitpunkt T Null größer Null gilt dass die Wahrscheinlichkeit dass ein Intervall XT minus X Null größer ist wie dieses beliebige Epsilon gleich Null ist sofern T gegen T Null läuft so was gibt es denn noch an Levy-Prozessen wir werden ihn hier nicht besprechen den Variant Gamma-Prozess ich habe ihn aber auch mal 3 Realisierungen davon mitgebracht damit Sie sehen können dass ein Levy-Prozess nicht nur ein Wiener-Prozess sein kann sondern ich habe ihn hier auch mal einen Variant Gamma-Prozess dargestellt der sieht in der Realisierung etwas anders aus hat Sprungstellen und hat aber dennoch dieselben Eigenschaften wie die die wir gerade eben dargestellt haben und was können wir daraus denn jetzt für Erkenntnisse ziehen was sind die weiteren Erkenntnisse zu wissen was ein Levy-Prozess ist so fangen wir doch mal an für jeden RD-Dimensionalen oder RD-wertigen Levy-Prozess XT lässt sich seine charakteristische Funktion über die so genannte Levy Chin Chin Formel bestimmen die wir hier nicht weiter erläutern können weil das natürlich den Kursumfang sprengen würde und zudem kann jeder Levy-Prozess als eine Summe aus einer Brownsch-Molekular-Bewegung einem linearen Trift-Prozess und einem reinen Sprung-Prozess dargestellt werden und nennt sich Levy-ITO-Zerlegung was wir hier leider auch nicht zeigen können das sind sehr interessante Formulierungen die aber den Kursrahmen deutlich übersteigen werden weswegen wir jetzt hier auch die Levy-Prozesse schon wieder verlassen werden ich möchte Ihnen einfach nur mit auf den Weg geben dass die Wiener Prozesse und eben auch andere Prozesse über Kategorien gehören wie zum Beispiel dem Levy-Prozess und dass der Levy-Prozess in andere Prozesse zerlegbar ist für diejenigen unter Ihnen die sich dafür interessieren habe ich natürlich in der Literatur im Kurs weitere Quellen zugefügt wir sind jetzt mit den Levy-Prozessen am Ende und widmen uns einer neuen Kategorie einer neuen Art von stochastischen Prozess der aber weitgehend bekannt ist im sogenannten Markov-Prozess beziehungsweise Markov-Ketten und Markov-Prozessor und wir beginnen hier einmal mit der allgemeinen Beschreibung was ist denn nun eine Markov-Kette oder ein Markov-Prozess es geht auf Andrei Andrejevic Markov zurück und es ist ein spezieller stochastischer Prozess welche unterstellt dass nur mit begrenzter Kenntnis der Vorgeschichte, also der Vergangenheit ebenso gute Prognosen über die zukünftige Entwicklung möglich sind wie mit Kenntnis der kompletten gesamten Geschichte das heißt wenn ich jetzt sie ansehe und ich weiß nur was sie heute getan haben kann ich ihnen genauso gut vorhersagen was morgen passieren wird in ihrem Leben wie wenn ich ihr komplettes Leben bis auf den letzten Punkt und das letzte Komma kennen würde und hier gibt es mehrere Unterscheidungen innerhalb dieser stochastischen Prozesse aber die Grundaussage und das ist das was auch die Markov Eigenschaft widerspiegelt ist ich brauche nicht die gesamte Vergangenheit zur Kenntnisnahme zu haben sondern mir reicht eben nur ein kleiner Teil dieser Vorgeschichte um vorhersagen über zukünftige Entwicklungen treffen zu können zunächst einmal müssen wir mal nach der Ordnung des Prozesses differenzieren und zwar bedeutet das beispielsweise bei einer Markov-Kette erster Ordnung dass die zukünftige Entwicklung der Zustand des Prozesses nur durch den aktuellen Zustand bedingt ist und nicht mehr durch vergangene Zustände beeinflusst wird wenn wir hier jetzt zum Beispiel die Ordnung erhöhen würden, würden wir eben sagen dass nicht nur die Vorperiode einen Einfluss hat sondern zum Beispiel die letzten beiden Perioden ein Einfluss auf die zukünftige Entwicklung dieses Prozesses nehmen Markov-Prozess und Markov-Kette wird ab und zu synonym verwendet in der Literatur werden Sie aber oft eine Unterscheidung dieser Begriffe finden und zwar ist es folgendermaßen dass Markov-Ketten für Diskrete, also für Zeitdiskrete und Markov-Prozesse für zeitstätige stochastische Prozesse verwendet werden und wir werden für diesen Kurs für den Teil Markov-Ketten und Markov-Prozesse diese Notationsunterscheidung ebenfalls verwenden und natürlich können Sie es synonym verwenden und es ist aber in den meisten Fällen durchaus so dass die Trennung Sinn macht und dass jeder dann schneller weiß worum es eigentlich geht Beginnen wir hier doch einfach mal mit einer Markov-Kette im Falle der Markov-Kette d.h. einem endlichen Zustandsraum benötigen wir in Anführungszeit nur die diskrete Verteilung sowie den bedingten Erwartungswert um eben diese Kette berechnen zu können bei einem zeitstätigen Markov-Prozess entgegen benötigen wir die Filtration und erneut den bedingten Erwartungswert d.h. hier sehen Sie schon Unterschiede in den Prämissen um diese Prozesstypen überhaupt ansetzen zu können deswegen ist die Begriffsdifferenzierung zwischen Markov-Kette und Markov-Prozess meinesachtens durchaus sinnvoll es ist aber durchaus beides akzeptiert Sie können das auch synonym verwenden also das Ziel der Markov-Kette sowie des Markov-Prozesses das Eintreten zukünftiger Ereignisse anzugeben und Sie merken wir wandern jetzt hier schon in Richtung Forecasting, wir wollen natürlich mit diesen Sachen später auch Finanzmärkte und Krisen modulieren weil es ist natürlich in der Theorie klingt das richtig nett wir kriegen Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse und die Vergangenheit brauchen wir auch nicht komplett kennen sondern nur ein Teil davon das ist für uns als Finanzanalysten ein bisschen Garten-Eden ich kriege alles was ich möchte und es wächst auch wieder nach ob das tatsächlich so ist das werden wir noch sehen bevor wir jedoch hier abdriften zeige ich Ihnen erstmal eine Markov-Kette bzw. ein Markov-Prozess grafisch und verschiedenen Ausprägungen damit Sie das überhaupt sehen können und ich fokussiere mich hier jetzt einfach auf das Bild in der Mitte mit den zwei Zuständen E und A und Sie sehen hier die verschiedenen Wahrscheinlichkeiten also die Wahrscheinlichkeit dass man von einem Zustand A in den Zustand E wechsel liegt bei 0,4 die Wahrscheinlichkeit dass der Zustand E wieder in den Zustand A zurückfällt bei 0,7 und wir haben auch noch Wahrscheinlichkeit gegeben dass wir eben in diesem Zustand verweilen das heißt bei dem Zustand A uns befinden und in A weiterhin bleiben ist hier die Wahrscheinlichkeit bei 0,6 das zweite Bild auf das ich mich hier konzentrieren möchte ist das ganz untere weil das ist wirklich eine stetige Markov-Darstellung das heißt das ist ein Markov-Prozess weil wir hier letzten Endes gar kein Ende finden und immerhin und her springen können dementsprechend können Sie das hier grafisch abtragen wir beginnen jetzt einfach mal mit einer formalen Definition der diskreten Markov-Kette und wie Sie sehen können wird die formale Definition vom Inhalt her keine neueren Erkenntnisse bringen wie das was wir gerade schon erarbeitet haben und wir sagen jetzt einfach mal wir haben diskrete Zeit und höchstens abzählbare und endliche Zustandsmenge dann haben wir eine Familie von Zufallsvariablen Y die sich aus unserem XT wobei die Indexmenge die natürlichen Zahlen sind zusammensetzt wobei alle XT nur Werte aus dem abzählbaren Zustandsraum S welcher aus einer Menge besteht Zustand 1, Zustand 2 und so weiter hier dargestellt mit S1, S2 annehmen kann und dann heißt Y eine diskrete Markov-Kette wenn die Wahrscheinlichkeit dass X von T plus 1 gleich den Zustand Sj T plus 1 annimmt unter der Bedingung der gesamten Vergangenheit also unter der Bedingung des gesamten Zustandsraumes gleich der Wahrscheinlichkeit ist dass man nur den Zustand der Vorperiode kennt das ist hier eben formal dargestellt und das heißt kurzum dass die Übergangswahrscheinlichkeit nur vom aktuellen Zustand abhängt und nicht von der gesamten Vergangenheit das sieht man hier an, dass die Wahrscheinlichkeitsformulierungen gleich sind daher fahren wir hier erstmal fort und zwar mit einer formal allgemeinen Definition Markov-Prozess Markov-Ketten können in Zeit stetige Markov-Prozesse überführt werden was wir jetzt hier nicht zeigen werden weil das ist relativ aufwendig und ich möchte und das ist ja auch das was ich schon gesagt habe hier stark eingrenzen und mich aufs wesentliche konzentrieren wir könnten hier mehrere Semesterveranstaltungen zu stochastischen Prozessen daraus machen ohne Probleme, deswegen lassen wir die Überführung Markov-Kette in Markov-Prozess einfach mal außen vor was ich Ihnen noch mitgeben möchte ist, dass im Homogene Markov-Prozesse mit Hilfe der elementaren Markov-Eigenschaft und homogene Markov-Prozesse mittels der schwachen Markov-Eigenschaft definieren lassen und meistens beschränken wir uns in dieser Definition auf polnische Räume und die haben wir bereits kennengelernt man kann das Ganze noch verschärfen indem man eine starke Markov-Eigenschaft unterstellt und die sehen wir später noch da komme ich nochmal kurz darauf zurück zu einem gegebenen Zeitpunkt fahren wir doch mal fort wir können nichts dazu trotz selbst wenn wir sagen diese Überleitung lassen wir weg, ein Markov-Prozess können wir dennoch darstellen und wir sagen wieder wir haben einen stochastischen Prozess X wobei hier die Indexmenge T ist und die Indexmenge T ist eine Teilmenge das halb offenen Intervals von 0 bis unendlich und die 0 soll bitte auch Element dieser Indexmenge sein und wir unterstellen eine Abgeschlossenheit bezüglich Addition das haben wir in der Vorlesung über Zeitrein-Analyse schon mal gehört und jetzt unterstellen wir weiter dass jedes XT, also jedes Element dieses stochastischen Prozesses Werte in eben einem Messraum annimmt der hier aus einem Raum E das ist hier unser polnischer Raum und einer borealischen Sigma Algebra auf E besteht womit wir für jedes X Werte in eben einem Messraum unterstellen können der noch die Kreuz- und Tensor Produkte also die borealischen Sigma Algebra des selben Raumes mit T aufweist wir machen jetzt erstmal nochmal weiter und zwar der Prozess heißt dann ein Markov-Prozess mit Verteilung P von X mit X-Element in dem polnischen Raum auf dem Messraum Omega Sigma Algebra A wenn gilt und hier haben wir 3 Eigenschaften stehen zum ersten gilt für alle X die Element dieses polnischen Raumes sind das X1 stochastischer Prozess auf dem Wahrscheinlichkeitsraum Omega A und PX ist wobei PX für die Wahrscheinlichkeit dass X0 gleich X ist, gleich 1 ist dann soll ein Markov-Kern existieren ich habe Ihnen hier diesen Formalismus mal dazu geschrieben aber wir haben am Anfang des Kurses gesagt dass Markov-Kerne nicht von Relevanz sind deswegen gehe ich da auch gar nicht näher darauf ein deswegen die schwache Markov-Eigenschaft diese 3 Dinge wenn erfüllt sind dann heißt ein Markov-Prozess und damit belasse ich es auch erst einmal wir gehen hier mal weiter zur Markovschen Approximation wenn sie sich ganz an den Anfang zurück erinnern habe ich Ihnen ja mal gesagt dass der 1-Dimensionale Random Walk als Markov-Kette dargestellt werden kann dessen Zustandsraum nur Ganzzahlen annimmt wir können hier diese stochastischen Prozesse ineinander überführen was auch meine Aussage unterstützt dass stochastische Prozesse sehr stark ineinander verwoben sind wenn wir jetzt weggehen von Zeit-Diskreten-Prozessen hin zu Zeit-Stätigen-Prozessen können wir sagen dass bei stetiger Zeit und stetigem Zustandsraum ein Wiener-Prozess als mathematische Beschreibung der braunsten Molekular-Bewegung durch einen Markov-Prozess beschrieben werden kann das heißt wir können das alles wunderbar ineinander überführen und wir werden später noch lernen dass sogenannte autoregressive Prozesse im AR-Modell also ein AR-Prozess als Markov-Kette beschrieben werden kann dazu kommen wir aber noch wozu ich jetzt diese Folie noch eingefügt habe ohne direkt auf diese Approximation einzugehen ist Ihnen eben zu zeigen dass sie aus fast jedem Prozess einen anderen Prozess gestalten können je nachdem wie es Ihnen beliebt sofern sie sich an gewisse mathematische Spielregeln halten und Sie merken dass das alles zusammenhängt weshalb dieses Thema auch etwas komplexer scheint was ich Ihnen jetzt noch zeigen möchte zum Thema Markov-Prozess ist das sogenannte Hidden Markov-Model das sogenannte HMM das versteckte Markov-Modell was sehr häufig in der Praxis auch eingesetzt wird zu favorisierende Eigenschaften mit sich bringt ich lese sie einfach mal kurz vor das sogenannte versteckte Markov-Model ist ein stochastisches Modell in dem ein System durch eine Markov-Kette mit unbeobachteten Zuständen modelliert wird das bedeutet wir haben nicht nur eine Markov-Kette wie die die ich Ihnen vorher gezeigt habe sondern wir haben ähnlich wie bei den neuronalen Netzen eine Hidden Layer um eine unbeobachtete Schicht an Zuständen die wir nicht direkt beobachten können deren Ergebnisse wir aber sehen und das HMM ist der einfachste Spezialfall eines bayesischen Netzes und diese bayesischen Netze werden wir in diesem Kurs leider auch nicht betrachten weil eben der Kursumfang begrenzt ist ich habe Ihnen das einfach nur mal mitgegeben damit Sie in der Literatur an den richtigen Stellen ansetzen können die Modellierung durch die Markov-Kette bedeutet dass das System auf zufallsbasierter Weise von einem Zustand in den anderen übergeht das bedeutet, wir sehen nicht mehr wie jetzt bei diesem A und E System was wir am Anfang gesehen haben mit welcher Wahrscheinlichkeit der Zustand A in den Zustand E übergeht sondern dieser Übergang ist randomisiert das können wir eben nicht mehr nachverfolgen nachdem diese Zustände unbeobachtet sind in diesem Modell und die Übergangswahrscheinlichkeiten sind nur von jeweils natürlichen Zustand abhängig und sind als konstant angenommen das heißt die Wahrscheinlichkeiten selbst bleiben konstant wir können aber nicht mehr nachvollziehen wann, wie, wo welche Übergang stattfindet da eben daher auch der Name diese Zustände unbeobachtet sind das ist für uns quasi eine Blackbox ich habe Ihnen das hier mal grafisch aufgeführt wir haben einen Startwert wir können entweder Regen oder Sonne haben und wir haben natürlich die Möglichkeiten draußen herum zu spazieren einkaufen zu gehen oder aufzuräumen und je nachdem welchen Zustand wir zwischendrin haben ob es eben regnet und die Sonne scheint beeinflusst das die Übergangswahrscheinlichkeiten auf unsere Aktion laufen einkaufen gehen oder aufräumen und Sie sehen, dass wir eher dazu geneigt sind einkaufen zu gehen beziehungsweise nicht einkaufen zu gehen sondern aufzuräumen wenn es regnet ich sehe gerade einkaufen tun wir egal ob es regnet oder die Sonne scheint wir sehen auch, dass wir hier wenn die Sonne scheint eher gewillt sind zu laufen wie wenn es regnet und diese Übergangswahrscheinlichkeiten zwischen Regen und Sonne und diesen anderen Wahrscheinlichkeiten das können wir nicht beobachten wir sehen nur am Ende das was rauskommt ich habe Ihnen hier auch noch ein Python Code dazu geschrieben wo wir das Ganze mal selber simulieren können bevor wir allerdings dazu kommen gehe ich nochmal ganz kurz auf die formale Definition das HMM ist ein fünfer Tupel wir stehen da aus S, V, A, B und P und das S hier ist unser Zustandsraum der Zufallsvariable in XT hier sind die Zustände die angenommen werden können wir haben ein sogenanntes Alphabet an möglichen Beobachtungen das ist die sogenannte Emission der Zufallsvariable YT das ist das was wir letzten Endes sehen können und wir haben hier noch eine Beobachtungsmatrix zwischen den Zuständen eine Beobachtungsmatrix und eine Anfangsverteilung die wir benötigen um dieses Modell zu spezifizieren und aufzusetzen wir werden das im Video zum Python Code noch sehen dass das sehr nützlich sein kann und dass wir hier ganz unterschiedliche Dinge damit auch modellieren können diese ganze Thematik mit verborgenen Zuständen und Übergängen das ist sehr nützlich zu wirken besonders wenn man hier die formale Definition des HMM sieht wir werden das aber nochmal praktisch implementieren und dann werden sie sehen dass das eigentlich ziemlich zugänglich ist mit dieser Folie sind wir bei den Markov-Prozessen und den Markov-Modellen nun auch fertig und wir wenden uns dem sogenannten ITO-Integral und der stochastischen Analyse zu und wir werden hier in ITO-Prozess das sogenannte Lämmer von ITO und wir werden uns einfach mal damit befassen was ist denn stochastische Analyses für was brauche ich das denn und was bringt mir das denn und wir beginnen hier einfach mal mit einer Einleitung in die stochastische Analyses ich werde auch hier das so kurz wie möglich halten Sie haben im Kurs Quellen die weiterführend sind und ich hoffe dass Sie zumindest die grundlegenden Ideen mitnehmen können und den Rest überlasse ich Ihrer Neugier sich da in das Thema selbstständig einzuarbeiten beginnen wir doch einfach mal mit der Erklärung was ist denn stochastische Analyses die stochastische Analyses ist ein Teilgebiet der Wahrscheinlichkeitstheorie und befasst sich mit der Verallgemeinerung von Begriffsbildungen Aussagen und Modellen der Analyses bezogen auf stochastische Prozesse wir haben ja schon gesehen stochastische Prozesse sind kälzame Dinge und funktionieren ein bisschen anders wie normale Funktionen und Modelle die Sie bisher kennengelernt haben stochastische Prozesse in diesem Sinne im Sinne der stochastischen Analyses sind Funktionen, deren Werte zufällig sind macht auch irgendwo Sinn haben wir ja gesehen Zentrum des Gebietes ist die Untersuchung von sogenannten stochastischen Integralen sowie darauf Aufbauen von stochastischen Differenzialgleichungen begründet ist das Wachgebiet von Kiyoshi Ito welchen die Feststellungen von Einstein und Wiener angeregt haben und der auch zu damaligen Zeit diese ganzen Entwicklungen mitbekommen hat und eben dieses Feld begründet hat kommen wir doch mal zum direkten Punkt was ist denn jetzt der Unterschied zwischen einer normalen Differenzialgleichung so wie Sie es in der Analyses in der Schule oder auch im Studium kennengelernt haben eine stochastischen Differenzialgleichung wo unterscheiden die sich denn überhaupt und die Antwort ist in der Differenzierbarkeit der Hauptpunkt hier ist die Differenzierbarkeit und ich sage das jetzt ein drittes Mal damit das auch hängen bleibt der Unterschied zwischen einer normalen Differenzialgleichung und einer stochastischen ist die Differenzierbarkeit bei deterministischen Funktionen so wie Sie es im Studium kennengelernt haben kann der Zusammenhang zwischen Wert der Funktion in ihrer momentanen Änderung also die Ableitung in einer Gleichung formuliert werden und die nennt sich halt gewöhnliche Differenzialgleichung Sie haben eine Funktion f von x oder y ist gleich 2x und das können Sie ableiten und dann kriegen Sie eine Differenzialgleichung raus das funktioniert bei stochastischen Prozessen die nicht differenzierbar sind nicht mehr ganz so wirklich nehmen wir nun einfach mal einen stochastischen Prozess beispielsweise unseren Wiener Prozess der die branche Molekularbewegung reflektiert so stellen wir fest dass dieser nögens differenzierbar ist da der sich egal wie klein wir die Zeitpunkte machen permanent ändert und was machen wir nun wir machen mal wieder Sternzeichen geistige Flexibilität wir machen jetzt mal ein Gedankenexperiment und zwar wir nehmen eine gewöhnliche Differenzialgleichung dy nach dt kann man darstellen als Funktion die Zeit und von yt abhängig ist die ist immer equivalent als Integralgleichung darstellbar ohne dass diese Differenzialgleichung ohne dass diese Ableitung explizit Erwähnung finden würde das sehen Sie hier unten dass wir hier yt darstellen können als einfach mal in y zum t Zeit.0 plus eben ein Zeitintegral über diese Funktion die wir gerade gesehen haben ist denn bei einem stochastischen und nicht differenzierbaren Prozess also bei einer nicht differenzierbaren Differenzialgleichung möchten wir den Weg genau anders drum gehen das heißt wir finden nicht die Differenzialgleichung und machen da draußen Integral sondern wir suchen eine passende Integralgleichung weil da das Differenzial gar nicht vorkommt das heißt wir können hier mit diesem Weg diese nicht Differenzierbarkeit umgehen das heißt wir finden diese Gleichung trotzdem obwohl es eigentlich gar nicht möglich ist es klingt jetzt schon wieder ein bisschen abgespaced und ein bisschen tricky aber wir kommen da noch dazu ich habe hier in ein passendes einleitendes Beispiel anhand des Kapitalmarkt das mitgebracht und hier sehen Sie auch gleich die Bedeutung für den Finanzbereich diese ITO-Integrale und ITO-Prozesse und auch allgemein dieses ganze Gebet stochastische Prozesse spielt in der Finanzanalyse und in den Finanzmodellen eine wirklich dominante Rolle deswegen habe ich ja auch gleich mal ein Beispiel zu Kapitalmärkten mit dabei bevor wir jetzt darauf eingehen möchte ich nochmal zusammenfassen wenn wir eine deterministische Funktion haben können wir eine gewöhnliche Differenzialgleichung bilden und wir können daraus eine Integral machen das ganze Lob formuliert wenn wir einen stochastischen Prozess vorliegen haben ist der zumeist nicht differenzierbar das heißt wir können die Differenzialgleichung nicht bilden und bei einer stochastischen Differenzialgleichung gehen wir den Weg anders darum das heißt wir suchen zu einer fiktiven Differenzialgleichung ein Integral und wenn wir den Integral kennen können wir die Differenzialgleichung daraus machen das heißt wir machen hier einen kleinen Umweg und rollen quasi die Prozesse von hinten auf und kommen trotzdem zu einem Ergebnis das ist das was die stochastische Analyse interessant macht und das ist das was auch uns ITO näher bringen möchte oder näher gebracht hat und wir fangen hier jetzt einfach mal an mit dem Beispiel zur stochastischen Analyse und zwar mit einer Aktie daher darf ich Sie jetzt herzlich beglückwünschen Sie sind Aktienhändler und Sie handeln mit einer Aktie welche wir hier als Sinnbild für alle möglichen Finanzinstrumente nehmen werden und wir denken idealistisch das heißt Sie können diese Aktie in jeder Quantität in jeder Stückelung und zeitlich unbegrenzt handeln ohne Transaktionskosten dafür zu bezahlen Sie merken wir leben hier in einer sehr schönen Traumwelt und dabei belassen wir es jetzt erstmal die Einführung von Quantitätsbeschränkungen zeitlichen Limitationen und Transaktionskosten macht das Beispiel unnötig kompliziert und deswegen denken wir hier erstmal in einer idealen Welt und Gewinn und Verlust hängt demnach nur davon ab wieviel Anteile Sie besitzen also wieviel Aktienanteile Sie gekauft haben und zu welchem Preis Sie sie gekauft haben und wie sich der Preis dieser Aktie entwickelt, wenn die Zeit fortschreitet und für das Beispiel nehmen wir einen Startkurs von 100 Geldeinheiten Nuk Nuks, Tala suchen Sie sich Ihre Lieblingswährung aus und Sie halten 5 Anteile und der Preis am Tagesende ist bei 103 Geldeinheiten ich habe das hier nochmal oben draufgeschrieben und jetzt berechnen wir mal den Kursgewinnen und zwar wir haben für 100 gekauft und wir verkaufen für 103 und wir haben 5 Anteile das heißt wir haben 5x3 gebt 15 Geld um in Homer Simpson Notation zu sprechen wir haben jetzt 15 Geld am Tagesende Gewinn gemacht und jetzt haben wir die Möglichkeit nach Tagesende weitere Anteile zu kaufen oder zu verkaufen und wir haben zum Tagesendkurs 3 nochmal 10 Anteile gekauft und jetzt stellen wir fest dass der Kurs am 2. Tag auf 98 gesunken ist und wenn wir jetzt für die zweite Periode unseren Gewinn oder Fluss berechnen kommen wir auf minus 50 das heißt insgesamt haben wir jetzt in 2 Tagen 35 Geld verloren wenn wir jetzt allerdings den Gesamtgewinnen, ich habe das hier GN genannt, nach N-Zeitabschnitten hier in Tagen gemessen bestimmt wollen, sagen wir mal machen das mal 20, 30, 40, 50 Tage dann können wir hier den Gewinn als Summe der Teilgewinne darstellen wie Sie es hier vor mal sehen können und das wäre unter der Annahme des Kräter Zeitpunkte der Fall das heißt zu jedem gegebenen Zeitintervall wird gehandelt und dann ist das so wir handeln nach Zeitpunkten dann trifft diese Formel für den Gesamtgewinn zu und nachdem wir jedoch in einer fiktiven Welt leben und wir ein ganz ganz ganz ganz ganz schneller Trader sind können wir nun mal annehmen, dass alle Zeitpunkte T aus dem Intervall von Null bis Groß T betrachtet werden können das heißt wir nehmen eine stetige Zeit an und nun ändert sich der Kurs nicht nur zu Ticks sondern der Kurs ändert sich stetig und wir halten einen kontinuierlichen Prozess der auch Portfolio-Prozess genannt wird das heißt unser Gesamtgewinn ist jetzt nicht mehr eine Summe aus Teilgewinnen sondern ein Intervall von Null bis T eben über diese Anteile gemessen nach dem Preis so, die Aufgabe der stochastischen Analysis ist es jetzt solches stochastischen Integrale möglichst allgemein zu definieren und deren Eigenschaften zu untersuchen das ist das worauf wir hier raus möchten und wir beginnen jetzt mal mit unserer Überleitung zu stochastischen Differenzialgleichung und den Gewinn als stochastischen Integral und es ist allgemein daher suchen wir für das Aktienhandelsbeispiel ein konkretes mathematisches Modell welches diese zeitliche Entwicklung des Kurses abbilden kann das heißt wir suchen ein Modell wo die Gewinnfunktion eben dieser Integral ist was das eben darstellen kann und wir tun jetzt einfach einmal so als ob sich reale Finanzkurse zufällig bewegen wir wissen das inzwischen besser wenn wir in die negoklassizisten mal mit irgendwas Recht gehabt hätten und die realen Finanzkurse bewegen sich jetzt zufällig hier ist es dann möglich für jedes ST als Zufallsvariabler eine Modellierung zu machen das heißt wir tun jetzt so, dass der Preis zu jedem Zeitpunkt T eine Zufallsvariable ist und da wird gezogen und jedem Ergebnis Omega wird der Wert ST von Omega zugeordnet und wenn Sie jetzt hier diese Vorlesung mitverfolgt haben fällt Ihnen das irgendwie auf dass wir das schon mal irgendwo hergehört haben das heißt der Aktienkurs hängt dann sowohl von dem Zeitpunkt T als auch von dem Ergebnis Omega ab und kann als stochastischer Prozess betrachtet werden und wenn wir jetzt den zufälligen Teil etwas aufweichen und unterstellen ungestörtes exponentielles Wachstum von ST dann könnte das, dass die Änderungen des Preises über die Zeit in einem sehr kurzen Zeitraum proportional zu diesem Zeit Delta ist also dass das hier da steht Delta ST ist gleich Müh ST mal Delta T wobei Müh hier eine gegebenen Wachstumsrate ist weil wir gehen ja davon aus unsere Aktien wachsen und wir unterstellen hier mal ungestörtes exponentielles Wachstum wir sind ja schließlich in der Trader Traumwelt leider nur mal so dass Aktien weitaus komplexer sind und hier sich auch mehrere verschieden geartete Bewegungen überlagern können und das exponentielle Wachstum stören das heißt das was wir hier sehen dieses Delta ST ist Müh ST mal Delta T funktioniert im realen Leben nicht da wir kein ungestörtes Wachstum haben und diese Störungen müssen wir irgendwie darstellen können dass wir die Wahrscheinlichkeitsrechnung am einfachsten mit einer Normalverteilung das ist das was wir in Teil über Zeitreinanalyse schon gesehen haben und zudem sagen wir die Varianz ist proportional zum betrachteten Zeitraum so jetzt recapitulieren wir mal noch ein bisschen wir haben gesagt, wir handeln Aktien und wir machen die Zeit stetig und wir können jetzt hier sogar noch eine Proportionalität reinbauen und das darstellen und wir sagen jetzt, unser Aktienpreis ist ein stochastischer Prozess mit den vorher genannten Eigenschaften und wir haben zufällig ganz ganz zufällig einen stochastischen Prozess kennengelernt der genau diese Eigenschaften besitzt und als Modell für die zeitlichen Entwicklungen dieser Zufallskomponenten des Aktienkurses dienlich sein kann und zwar dieser zufällig uns in der Ringerung gebliebene Prozess ist hier die braunische Molekularbewegung bzw. der Wiener Prozess den wir als mathematische Entsprechung dazu gewählt haben unter dieser Modellannahme können wir dann diese Preisänderung delta st in einem Zeitintervall delta t wie folgt darstellen das heißt diese Preisänderung diese Änderung delta st hat hier eine myst delta t das ist der Teil von vorher das ist unser exponentielles Wachstum ungestörtes was wir unterstellt haben das heißt hier wächst unser Preis exponentiell ungestört und wir haben hier aber noch eine Triftkomponente eine Proportionalitätskonstante bzw. eine Konstante die wir als Volatilität kennen und zwar hier unser Sigma st delta Wt und wir sagen hier das Wt ist hier ein Wiener Prozess und wir haben diesen letzten Teil angenommen als das Stören das Rauschen was unser exponentielles Wachstum überlagert und verzehrt rekapitulieren wir das ganze doch nochmal ich springe hier nochmal zwei Folien zurück wir haben vorher gesagt wir unterstellen exponentielles Wachstum ungestörtes exponentielles Wachstum statt den zufälligen Entwicklungen das heißt das ist die Änderung delta ST in einem kurzen Zeitraum proportional sind zu diesem delta T das heißt wir können unsere Änderungen des Aktienkurses mit einer Wachstumsrate mal den Preis zum Zeitpunkt T mal eben dieser Zeit Änderungen darstellen und wir haben ja und das wiederhole ich gerne noch einmal festgestellt Finanzmärkte in der Realität funktionieren so nicht sonst würde ich wahrscheinlich hier auch nicht mehr sitzen und Ihnen das erklären sondern vielleicht ein Live-Podcast von irgendeiner tropischen Insel mit natürlich nicht alkoholischen Getränken Ihnen online stellen und wir haben festgestellt nachdem die Realität komplexer ist müssen wir in irgendeiner Art und Weise Störungen mit einbeziehen die unser exponentielles Wachstum als Aufweichung dieser zufälligen Bewegungen eben verzehrt und wir haben da ein Prozess kennengelernt der zufällig als Zufallsprozess für diese Dinge geeignet ist und das ist unsere braunische Molekularewegung restriktive unser Wiener Prozess der dann auch noch diese Normalverteilungsannahmen mitbringt weil das das Einfachste ist was wir in der Wahrscheinlichkeitsrechnung haben um so etwas darstellen zu können und wenn wir uns nun hier unser delta S mit Störung, dann sehen wir wir haben wieder unser exponentielles Wachstum mit einer Wachstumsrate my mal den Preis, mal das Zeit delta plus eben ein Störkomponente was wir hier modellieren mit unserer Volatilität und einem Teil einer Änderung des Wiener Prozesses damit können wir hier Aktienänderungen darstellen und damit sie sich darunter ein bisschen mehr machen können, habe ich Ihnen hier einfach mal unsere altbekannte Tesla Aktie mittels eines Wiener Prozesses modelliert und ich habe diesen Prozess zugrunde gelegt den Erwartungswert und die Standardabweichung der Aktie und ich habe den Prozess starten lassen vom Preis der am 1.1.2011 gelistet war das heißt hier sehen Sie die Tesla Aktie wie sie verlaufen würde wenn wir sie einem solchen Modell unterliegen lassen, das heißt das was wir bisher gelernt haben diese ganzen Prozessreihen, diese ganzen Prozessketten und Approximationen sind durchaus dienlich dazu Finanzzeit rein darzustellen zu den Vor- und Nachteilen kommen wir noch bei gegebener Zeit aber Sie sehen, wir können mit diesem Denkmodell mit diesem Portfolioprozess und mit dieser Modellierung speziellem Wachstum und Störkomponente mittels normal verteilten brownschmolekular Bewegungen durchaus solche Zeit rein modellieren das würde jetzt wahrscheinlich für, ich sage mal 95% anderer Fachbereiche ausreichen wir in den Finanzmärkten haben festgestellt, dass das immer noch nicht ausreichend genug ist die Realität, die wir als Analysten jeden Tag erleben darzustellen wir fahren jetzt hier einfach mal fort zu stochastischen Differenzialgleichungen und wir nehmen jetzt einfach mal kurz an wir befänden uns in der klassischen Analysis, das heißt es gibt keine stochastischen Prozesse es gibt keine nicht differenzierbaren Gleichungen Sie sind jetzt wieder in der Schule, klassische Analysis hier würden wir jetzt einfach hergehen und das Zeitintervall Delta T gegen 0 konvertieren lassen und so eine gewöhnliche Differenzialgleichung erhalten das heißt, wir würden hergehen wie möglich machen und so fast gegen 0 laufen lassen und dann würden wir eine Differenzialgleichung kriegen, das kennen Sie das hat jeder von uns schon mal gemacht wir haben allerdings das Problem für den Wiener Prozess als Beispiel ist das nicht möglich, weil diese nicht differenzierbar ist und dieses Problem hat nicht nur der Wiener Prozess sondern stochastische Prozesse die meisten im Allgemeinen diese sind nicht differenzierbar wir können jetzt aber einfach mal so wie wenn wir trotzdem eine Differenzialgleichung hinschreiben würden also diese liefern dann eine stochastische Differenzialgleichung DST, ist klarlich MyST plus SigmaSTDWT und wir können das mal so stehen lassen wir können hier allerdings nicht mit den Werkzeugen der klassischen Analysis fortfahren aber wir können durchaus erst mal sagen das Differenzial von ST besteht aus einer exponentiellen Wachstumskomponente die sich irgendwie mit der Änderung eines Wiener Prozesses zusammensetzt, so würde das theoretisch aussehen und die große Denkleistung die Kyoshi Ito dem Ganzen gegeben hat, ist, dass er diesem stochastischen Differenzial einen Sinn gegeben hat indem er den allgemeinen Integralbegriff so wie wir ihn in der klassischen Analysis kennen, auf stochastische Prozesse erweitert hat die Lösung dieser sogenannten Ito-Integrale erfüllen zudem die Kollenmokorov-Gleichungen welche wir hier auch dem Umfang geschuldet nicht vorstellen können und mit der Ito-Formel können die Kettenregel, Produktregel Substitutionsregel sowie partielle Integration auf stochastische Differenziale und Integrale angewendet werden und wir nennen das dann sogenannte Ito-Prozesse und lassen Sie sich das mal auf der Zunge zu gehen, wir können mit diesen Ito-Integralen und mit diesem Ganzen, ich nenne es mal Framework, was Hioshi Ito hier geliefert hat stochastische Prozesse in dieser Art bearbeiten und analog zur klassischen Analysis auseinandernehmen, nenne ich das jetzt mal ganz salopp und wir machen jetzt mal die Überlatung zum Ito-Integral bisher haben wir gesagt, dass ein stochastisches Integral als Grenzwert von Summen aufgefasst werden kann und die Dritte gegen 0 konvergieren Beispiel unserer Aktien gewinnen und wenn wir das ein bisschen präzisieren, kommen wir zu unserem Ito-Prozess die Lehrbuch-Variante sieht jedoch den Weg über das Lebesk-Integral vor die Definition eines Integrals für elementare Prozesse, die stückweise konstant sind und daraus werden Dichtheitsargumente zur Fortsetzung auf allgemeinere Integranten gebildet und für allgemeine Form für stochastische Integrale kann man dann wie folgt darstellen Sie haben ja das Integral von 0 bis T über ht.xt und diese sind für Martin Gale Prozesse also xt als Integratoren und adaptierte messbare stochastische Prozesse h von t mit Cadillac-Faden möglich inklusive Sprungstellen analog zur Integralfunktion betrachtet man die obere Integrationsgrenze und erhält wieder einen stochastischen Prozess bzw. eine Differenzialschreibweise wie hier dargestellt d.h. wir können hier unseren gt als Integral von 0 bis T hs dxs darstellen und wir können das auch als Differenzial dann umformen und schreiben wir haben das dgt ist gleich ht dxt und hier lässt sich zeigen, dass gt wieder selbst ein Martin Gale ist für die möglichen Rechenregeln der Analysis mit modifizierter Form auch für das I2 Integral aufgrund der unendlichen Variation des Wiener Prozesses bei kleinen Zeitänderungen müssen wir allerdings nicht nur die Änderung delta Wt berücksichtigen sondern auch die Quadrate die selbst in der Größenordnung von delta T liegen aus diesen ganzen Dingen die ich Ihnen gerade erzählt habe z nenn ich das mal an Rechenregeln was wir anhand der einfachsten Form der Kettenregeln zeigen werden ich habe ja vorher gerade gesagt das Kyoshi Ito die allgemeinen Analysis-Regeln auf stochastische Prozesse verallgemeinert hat das kann man natürlich für alle anderen Rechenregeln genauso tun ich zeige Ihnen das jetzt hier beispielhaft an der Form der Kettenregel mit Sie einmal sehen wie das Ganze denn dann aussieht und zwar fangen wir hier damit an festzustellen dass das ganze Lämmer von Ito heißt sollte Ihnen der Begriff jemals noch mal über den Weg laufen und wir betrachten hier die Kettenregel beim Wiener Prozess und wir definieren hier mal eine Funktion h die r auf r abbildet und zweimal stetig differenzierbar ist und dann gilt für den Prozess XT h Wt das was hier unten steht da sehen Sie das ist analog der Kettenregel das erste Integral ist hier das Ito Integral und das zweite ist ein gewöhnliches Riemann Integral so können Sie das dann darstellen und was machen wir jetzt damit wir sagen jetzt wir definieren eine Variable Yt ist h von Wt für alle t größer 0 und der Prozess der daraus entsteht kann man in einer Differenzialschreibweise darstellen das ist das was Sie hier unten sehen das heißt wir machen hier analog zur Kettenregel in der Analysis dasselbe für stochastische Prozesse nur mit dem Unterschied dass wir einen Term mehr haben und jetzt kommen wir auch endlich dazu festzustellen was ist denn nun ein Ito Prozess nachdem wir die Kettenregel über das Lämmer von Ito erweitert haben wir haben festgestellt wir können da so Pseudodifferenzialschreibweise darauf machen was heißt das jetzt dann eigentlich wenn ich sage wir haben ein Ito Prozess ein stochastischer Prozess Xt heißt Ito Prozess falls eben diese Schreibweise für diesen stochastischen Prozess das ist hier die Integralschreibweise dieser Kettenregel falls das gilt das was hier steht dieses X0 plus Integral von 0 bis T BSDWS falls das für zweistochastische Prozesse A, S und B es gilt haben wir ein Ito Prozess und dann können wir auch eine sinnhafte Darstellung in Differenzialschreibweise machen und zwar DXT ist ATDT plus BTDWT das können wir daraus erreichen und jetzt gehen wir nochmal einen Schritt weiter und wenden das mal noch an und sagen wir hier ist unsere Funktion R plus Kreuz R das wieder auf R bildet eine in der ersten Komponente einmal und in der zweiten Komponente zweimal stetig differenzierbare Funktion so ist der doch Yt gleich HT Xt definierte Prozess ein Ito Prozess und es gilt die patielle Ableitungsregel für das Differenzial was hier da steht und zwar das Differenzial von Yt mit der Ableitung von H nach T plus die patielle Ableitung von H nach X plus ein halbmal die zweite patielle Ableitung von H nach X Quadrat um weitere Darstellungen in Besprechung auf Zug auf Matrix Darstellungen und Mathingels sowie Laplace Operatoren die man daraus ableiten kann das heißt sie können das Ganze auch noch als Matrix Darstellen sie können das Ganze auf Mathingels beziehen und sie können noch Operatoren daraus die anderen Rechenregeln die sich daraus ergeben die schließen wir hier für diesen Kurs einfach aus weil es viel zu viel wird und der Umfang des Kurses damit bei Weitem überschritten wird als Kernaussage sollten sie sich mitnehmen dass wir stochastische Prozesse als Ito Integral darstellen können und ein Ito Prozess über das Lämmer von Ito daraus bilden können und wir durch Ausinterlage sind damit alles zu betreiben Sie können sich hier an die Einleitung zur stochastischen Analyse zurück erinnern in der wir festgelegt haben wir verallgemeinern das Ganze auf stochastische Prozesse wie sie hier gerade gesehen haben ist das durchaus möglich wir verlassen hier jetzt nun auch die Ito Prozesse und widmen uns noch dem kleinen Rest zu der für diesen ersten Teil der Vorlesung übrig bleibt nämlich den sogenannten Stoppzeiten stoppten Prozessen Was ist denn nun eine Stoppzeit? Die Stoppzeit ist eine spezielle Art von Zufallsvariablen die auf filtrierten Wahrscheinlichkeinsräumen definiert werden wie wir sie bereits in dieser Vorlesung kennengelernt haben und wird auch Markov Moment Markovzeit genannt und dient zur Lokalisierung von Prozessklassen oder etwa auch zur Bestimmung des optimalen Ausübungszeitpunktes für amerikanische Optionen Stoppzeit ist demnach die Wartezeit bis zum Eintritt eines bestimmten zufälligen Ereignisses wenn wir jetzt bei den amerikanischen Optionen bleiben und wir das ganze Überzufassprozesse modellieren sind wir natürlich daran interessiert einen optimalen Zeitpunkt zu finden zu verkaufen und zu verkaufen und mit der Stoppzeit können wir Wartezeiten zum Eintritt bestimmte Ereignisse definieren und das ist natürlich für unseren Aktienhandel durchaus, ich sage mal attraktiv, weil wir dann uns erhoffen aufgrund eines passenden mathematischen Modells oder eines Prozesses, der uns genügt, einen optimalen Einstiegs- und Ausstiegszeitpunkt zu finden Was ist denn nun eine Stoppzeit gegeben sei ein Wahrscheinlichkeitsraum Omega AP und eine geordnete Indexmenge T und diese Indexmenge T ist ein Intervall aus null bis unendlich zudem noch eine Filtrierung F die in der Sigma Algebra A gegeben ist und so heißt die Zufallsvariable tau die unser Ergebnisraum Omega auf die Indexmenge T abbildet eine Stoppzeit wenn unten genannter Formalismus greift das heißt für alle tau kleiner T ist das die Menge aller Omega die in diesem Ereignisraum vorhanden sind, sofern T von Omega kleiner T ist in der Sigma Algebra F von T für alle T's in unserer Indexmenge eine Stoppzeit ist endlich wenn die Wahrscheinlichkeit von tau kleiner und endlich gleich eins ist das heißt unsere Stoppzeit sollte kleiner und endlich sein das heißt sie sollte endlich sein und das klang jetzt natürlich etwas wild was bedeutet das denn wir brauchen eine Stoppzeit T die einen Zeitpunkt definiert an dem unsere Prozess anhalten soll das ist hier sehr mathematisch dargestellt das heißt wir nehmen eine Stoppzeit um einen gestoppten Prozess zu erzeugen also stellen wir uns doch zunächst einmal die Frage was ist denn überhaupt ein gestoppter Prozess weil wir machen ja über die Stoppzeit einen neuen Prozess und ein gestoppter Prozess ist ein stochastischer Prozess welcher zu einem gewissen zufälligen Zeitpunkt werden wir über diese Stoppzeit definieren angehalten wird zu den wichtigsten Aussagen über diese gestoppten Prozesse gehört das optimal Stopping das ist die Erwartungswertuntersuchung für gestoppte Prozesse das heißt was für ein Erwartungswert habe ich denn wenn ich einen Prozess anhalte und kann ich den manipulieren und es gibt das optimal Sampling Theorem das heißt neben dem optimal Stopping Theorem wo ich den Erwartungswert befasst sich das optimal Sampling Theorem damit was es denn für Abbruchstrategien geben kann wann ich denn am besten diesen Stoppreinsätze wie ich den modellieren kann und was für Abbruchstrategien sich daraus ergeben und was wir aus dem optimal Sampling Theorem mitnehmen können ist dass es keine Abbruchstrategie bei fairen Spielen für die gesamte Zufallsvariable gibt das klingt jetzt nochmal richtig kryptisch also wir definieren eine Stoppzeit die nach den vorher genannten Regeln funktioniert um einen Prozess anzuhalten und es gibt verschiedene Theoreme wo wir Aussagen über den Erwartungswert und die Abbruchstrategie treffen können und für was machen wir das ganze wir stoppen ein Prozess um zum Beispiel amerikanische Option zu einem optimal definierten Zeitpunkt auszuüben was ist denn jetzt ein gestoppter Prozessformal wir haben hier einen stochastischen Prozess X mit einer Indexmenge T mit höchstens abzählbarer Indexmenge das muss man dazusagen und wir haben eine Stoppzeit tau mit Werten in diese Indexmenge T das heißt diese Stoppzeit tau hat Werte in unserer Indexmenge das heißt die Stoppzeit ist tatsächlich eine Zeit, ein Zeitbegriff und wir sagen dann dass der gestoppte Prozess XT definiert ist als eben XT und diese Stoppzeit mit T element T und das ist quasi das Minimum von T und tau als stochastischer Prozess und das wird gestoppter Prozess bezüglich tau genannt das klingt jetzt natürlich wieder sehr kryptisch was heißt das denn jetzt eigentlich aus dem Minimum sehen wir eigentlich dass dieser Prozess nicht gestoppt wird wir sehen dass dieser Prozess nicht angehalten wird so wie wenn sie mit dem Auto fahren und sie müssen anhalten sondern dass wir sagen ab diesem Zeitpunkt tau ab unserer Stoppzeit ändert sich dieser Prozess nicht mehr er bleibt konstant das ist das was sie hier sehen können rekapitulieren wir das ganze nochmal ich springe nochmal zurück hier auf unsere Definition der Stoppzeit rekapitulieren wir das ganze nochmal denken wir nochmal in Ruhe darüber nach was haben wir denn hier jetzt eigentlich gelernt wir haben einen Wahrscheinlichkeitsraum eine Indexmenge T eine Filtrierung und wir haben eine Zufallsvariable tau die unseren Ergebnisraum auf unsere Indexmenge abbildet und die nennen wir Stoppzeit das heißt zu fern hier unsere Stoppzeit in einer Sub-Sigma Algebra auftaucht sprechen wir von einer Stoppzeit und das ist eben eine Zeit die nach gewissen Regeln eintritt und danach wird unser Prozess angehalten und die Wahrscheinlichkeit dass unsere Stoppzeit endlich ist ist eins das heißt diese Stoppzeit wird endlich eintreten und was heißt das jetzt der Prozess wird hier angehalten und wir können über das Optimus Stopping Theorem sowie das Optimus Sampling Theorem Abbruch Strategien und Erwartungswerte untersuchen und damit auch nochmal optimieren wann denn dieser Prozess am besten angehalten werden sollte und was wir eigenschaften das denn hat und wir merken hier anhand der Definition der gestoppten Prozesse dass der Prozess an sich nicht angehalten wird und ab dem Eintritt der Zufallsvariablen Tauab Eintritt der Stoppzeit konstant bleibt da ändert sich nichts mehr das heißt wenn wir das in ein Finanzmarktmodell pressen nenn ich das mal Salop sehen wir ab welchem Zeitpunkt hier ausgeübt werden kann und wenn wir das Alkorithmisch machen auch ausgeübt wird kommen wir nun zum letzten Punkt und zur letzten Folie die wir hier in diesem Teil haben in unserem Teil 1 das war der größte und komplexeste Teil den sie in dieser gesamten Vorlesung hören werden und das war auch mit Abstand der komplexeste Teil der gesamten Vorlesung der gesamten Semesterveranstaltung der nächste Teil wird wesentlich einfacher und die nächsten Kapitel werden auch sehr praxisorientiert ausfallen das letzte worüber wie ich hier noch sprechen können ist die sogenannte starke Markoveigenschaft wie ich das ganz am Anfang schon mal angekündigt habe die starke Markoveigenschaft ist eine Verschärfung der schwachen Markoveigenschaft bei der ein deterministischer Zeitpunkt durch eine zufällige Stoppzeit ersetzt werden kann auf eine mathematische Starstellung werden wir hier jetzt verzichten um den Kursumfang nicht gänzlich zu bereiten ich hoffe sie haben hier etwas mitgenommen es hat mich gefreut dass ich hier dabei war und wir sehen uns nun zum zweiten Teil dieser Vorlesung bis dahin alles Gute und vielen Dank