 Goedemorgen. We konden onze kleine microscoop, dus we hebben ons systeem, en we hebben een kleine park gekozen en we hebben de renabilisatietoi gezoomen. Het lijkt wel iets heel simpel, maar er is al iets gebeurd. We ontdekken deze week een renabilisatie voor circlediffimorphismen en we gebruiken dat om een heel precies, een exacte beschrijving van de topologie van circlediffimorphismen te krijgen. Dus vandaag gaan we discussie over de measuretheorie en dan later gaan we de geometrie en de bifurcation doen. We gaan dus discussie over deze. We beginnen met een digressie. Het is niet heel ver van wat we doen, maar we gaan discussie over het minimale kantorset. Er lijkt wel iets heel anders dan wat we hebben gedaan, maar in veel cases waar renabilisatie was succesvol, de interacteur is een minimale kantorset. Dus laten we onze verandering van deze jongens krijgen. En op hetzelfde moment gaan we een beetje introduceren wat we moeten weten over de measuretheorie. Oké, dus laten we eerst met een kantorset beginnen. En wat is dat dan? Dat is iets compactes, totaal disconnecteerd en het is perfect. Dat betekent dat als je een punt zet dan kan je een andere punt optreden. Dus er zijn geen isolaties. Dus dit is een kantorset. Dus laten we een foto maken van dat. Dus hier is onze kantorset. Maar het is iets compactes, dus er is iets compactes. En het is totaal disconnecteerd. Dus er zijn uiteindelijk twee stukken. Dus alles ligt hier binnen. Er is niets buiten deze twee stukken. Maar het is totaal disconnecteerd. Dus dit ding heeft twee stukken en dit ding heeft twee stukken. Het is totaal disconnecteerd. Dus iedere stukken hebben we kleine stukken. En je kunt dit altijd continuën. En als je begint te zoomen in en je begint hier en dan ga je naar deze en dan ga je naar deze. Dus je zoomt in tot je limitpunt. Dus dit kantorset betekent van alle punten tot wat je kunt zoomen. Dat is het kantorset. Dus laten we het een beetje meer schematisch doen. Dus in eerste approximatie zie je gewoon een punt. De eerste approximatie is dit een een blok. Maar in de tweede approximatie laten we dat punt laten zien. X1. Maar in de tweede approximatie is het van twee blokken. En laten we dat approximatie van twee blokken X2. En natuurlijk er is een beetje meer informatie. En deze blok is in de grote blok. En dus er is een kleine aardroom hier. En deze blok is in die blok. En dus de aardroom betekent dat het in de aardroom is. Maar dan op de volgende ding, zoals deze blok hier verantwoordt op deze blok en er zijn twee blokken binnen. En dus er zijn twee blokken binnen. Deze is op de deurste schijf er zijn twee blokken binnen twee blokken binnen en ze zijn voldoende zoals dat. En die zijn adventures zoals deze. Er zal een X4 et cetera. En er zullen er punten zijn. En er zal er deze inklusies zijn. En nu wat je kunt schrijven is het inverse limit. En wat dit is, is dit gewoon de set van alle achterste pad. En dus als je hier begint te starten en je deze achterste pad selecteert en je continu bent. Dus we beginnen in de grote blok, maar dan gaan we naar dat een. Dus onze punt moet ergens hier zijn. Dan gaan we dat selecten. Dus onze punt moet ergens hier zijn. Dus je ziet dat alle baas ergens een punt in de kant op de set is. En dat is een inverse limit. Dus het ziet erg abstract uit. Dit is een heel generele tool in topologie in veel plekken. Maar als je het moet denken, is het een soort van simpel. Dus je ziet een middel-third kant op de set. Zoals in de nummers, weet je. Ik heb verschillen over hoe het er zo lijkt. Maar in termen van approximatie, zoals alle kleine intervallen, je kunt zien wat het is. Dus je moet denken over inverse limiten als je spijs afbouwen, scale by scale. Dus het is gebouwen, of misschien gebouwen, omdat je de spijs afbouwt en de spijs afbouwt. De spijs step by step. En ja, dus dat is hoe je dat doet. Oké, dus nu, dat is wat onze kant op de set zijn. Dus we hebben dit gedaan. Dus nu gaan we naar minimaal kant op de set. Dus nu beginnen we te doen dynamiek. Dus een minimaal kant op de set, dat is een map van x naar x, waar x is een kant op de set. En voor alle x in x, de orbit van x is de hele spijs. Dus alle orbit's zijn dat. Dus laten we proberen om te zien. Dus in de eerste stap hebben we onze spijs scale by scale gebouwd. Dus nu laten we proberen om te zeggen om onze dynamiek step by step te gebouwen. Dus en er is een... Laten we een voorbeeld doen en je ziet hoe dat gaat. Dus laten we ooit denken dat hier... ...we hebben onze kant op de set en we hebben een map hier. En de map is minimaal. Dus laten we het voorstellen in een heel simpele situatie. Dus laten we ook de andere kant opkomen. Dan beginnen we met een soort van schrijf. Dus laten we hetzelfde doen. Dus op de eerste scale, onze spijs is gewoon een blok. En de map bevindt de blok. Dus nu weten we dat er blok in de zijkant zijn. Dus er is één blok en er is een andere blok. En laten we ervaren dat deze blok door de map F is gebouwd naar dat blok. En deze blok is gebouwd terug naar dat blok. Dus dan wat je krijgt is... ...we hebben weer op de volgende scale... ...en je ziet de twee blokken. En de dynamiek... Als je op deze scale kijkt, is het gegeven door deze directe graf. En dus eerst hebben we poonten geïnteresseerd in de set. En nu krijgen we de directe graf en we beginnen te beschrijven de dynamiek. En natuurlijk hadden we nog onze inclusie map. Dus dit is een directe graf. Dus laten we een stap verder en laten we supposeren dat nu we twee blokken... ...de twee blokken in de zijkant zijn. En laten we zeggen dat deze blok daar gaat. Dit blok gaat daar. Het moet terugkomen, want nu is het in deze. Dus het moet terugkomen. Laten we zeggen dat het hier gaat. En laten we zeggen dat deze moet terugkomen. En laten we zeggen dat het hier gaat. Dus wat je ziet is... Als je begint, is je poont hier. Je gaat hier, je gaat hier, je gaat hier. En je komt terug. Dus het begint om te zien... ...als orde is er te zijn om te dansen. Dus dit begint te zien als een minimale ding. Dus nu hebben we onze volgende graf. En we zien iets zoals... ...we hebben onze inclusie weer. En we hebben wat... Laten we zeggen... ...dat deze hier moet terugkomen. Laten we zeggen dat deze hier gaat. Dit moet terugkomen. Dit moet terugkomen. En dit moet terugkomen. Dus we krijgen weer een directe graf. En dat beschrijft de dynamiek op een beetje meer... ...aan de volgende graf. En dit proces continuert. Oké? Dus wat je krijgt is... De foto is dezelfde. We hebben X. En we hebben onze map. En nu hebben we weer... ... onze plek... ...gegeven... ...bij dit... ...maar het is een directe graf. En de aren... ...we gaan de map terugkomen. En dus wat we plus... ...dat plus een map. En wat dat betekent is... ...de directe graf... ...de structuur... ...de structuur... ...met... ...het originele map. Dus in deze manier kun je de map rebuilden. Oké, dus... ...let's even meer schematisch. Meer schematisch. En dus... ...aan de eerste graf... ...we zien een beetje een loop. Het is een loop van deze een stap. Op de tweede stap... ...we zien gewoon een klein loop. Maar deze loop heeft een stap... ...en deze loop daarin heeft twee stappen. Dus dit is een beetje een stap. Een beetje schematisch en tot deze andere loop. En dan op de volgende graf... ...is er een loop. Dus als je deze een beetje apart neemt, zie je een loop. Dus we zijn heel schematisch. Maar nu zijn er ook deze inclusie map. En wat je ziet is... ...dat deze loop... ...vergeeft twee keer. Dus als je deze loop... ...geeft een keer en een keer. En als je deze loop neemt... ...gezegd. Dus als je hier begint, ga je... ...ga je... ...dat is de eerste graf... ...ga je en ga je terug. Dus... ...dus deze loop... ...geeft twee keer. Zie je? Dus alle deze inclusies... ...geeft een winding... ...nummer. Dus dit is... ...de eerste limit is gewoon een sequentie van loopen. En van elk loop ga je twee keer in de vorige graf. Oké, dus dit is het simpelste exemplen. En je ziet... ...het hele tijd, we spelen over... ...een graf, een finere graf, de volgende graf. Dus dat is zoomen in. Dus deze graf smelt als renormalisatie. We doen een digressie... ...maar we doen renormalisatie. Dus oké, dus laten we deze graf generaliseren. En er is een obvious generalisatie. En dus wat je hier hebt... ...heb je een loop, een loop, een loop... ...dus we kunnen gebruiken zoals veel loopen we willen. Dus je kunt beginnen... ...met een minimale kanterset, het is... ...zegel van twee loopen. En op de volgende graf... ...we hebben drie loopen. Dus in elk loop hier... ...is... ...en misschien, laten we dit zeggen... ...zal ik een kleur gebruiken? Dus dit loop hier... ...waar je het veranderd is om dit te doen. Dus er is een inclusie... ...en er is een soort winding rond. En er is een... ...en dit kan blijven, zoals dit. En misschien de volgende keer hebben we twee loopen... ...en misschien de volgende keer hebben we twee loopen. En misschien de volgende keer... ...we hebben... ...we hebben tons van loopen. Maar altijd een fijne. En je blijft blijven, zoals dit. En dat verantwoordt weer... ...deze foto. Maar nu zijn er meer loopen in de foto. Dus er zijn meer blobs. Maar je kunt nog steeds spelen... ...als wat we daar hebben gedaan... ...als... ...de inverse limit... ...of... ...de heel schermatische foto. Echt in dezelfde manier als wat we hebben gedaan. Dit is één loop. Maar nu hebben we tons. Je weet, dus laten we kijken op dit geval. Er is wat informatie. En je ziet hier... ...een red loop... ...wijnen rond één keer met dit en één keer met dat. Laten we hier een beetje meer XM-explicit zijn. Er zijn matrices hier. En we konden dit de windingmatrix. En laten we zeggen dat het zo is. We hebben een bloem. En dus laten we zeggen... ...dat de red loop... ...maar de red loop gaat rond. En we kunnen dat recorden. Ops. Dus dit is red. Dit is red. Dit gaat een twee keer twee matrix zijn. Bloem en bloem. Purple en purple. Laten we zeggen en nu recorden. De red loop gaat rond één keer met de red loop. En het gaat zero keer met de purple loop. Dus nu laten we de purple loop gaan hier. En laten we zeggen dat het wind zo rond is... ...dat gaat rond één keer met de purple loop hier. Maar het ook gaat rond één keer met de red loop. Dus de purple loop gebruikt één keer de purple loop... ...en het gebruikt één keer de red loop. Dus voor iedere van deze inclusies van loop... ...dat is de eerste windingmatrix. Er is een tweede windingmatrix, etc. En een tweede windingmatrix. Dus dit inverse limit is gegeven door een sequentie van matrices. Dit is een heel algebrek. Je zal zijn, en in de exercies zie je dat. We kunnen exercies doen. We kunnen calculaties doen en studies. Hoe deze minimale dynamiek werkt. Dan gaan we kijken. Dat zie je. Dus dit is een belangrijk ding. En voor mensen die homologie studeren... ...dan kun je denken dat dit een loop is. Dus dit is het eerste homologiegroep. Dit is een loop, dus dit is het eerste homologiegroep. En deze inclusie gebruikt deze matrix als actie op homologie. Dus het begint te doen met de politie en de homologie begint te laten zien. Dus het begint te... ...de structuur is slowly building up. Oké. En nu is er een kleine theorie. Deze minimale... ...cantaset is de eerste loop. En in particular, de informatie die je nodig hebt... ...is een sequentie van matrices. Dus elke minimale... ...cantaset is een sequentie van matrices. En we willen met matrices afdelen. Dat is makkelijk. Nee, nee, nee. Komt helemaal op. Vergeet alles wat we hebben aangepast. We hebben een abstract-cantaset. Je kan het zo representeren. Kan de maat komen met de politie? Ja, ja. Het is een minimale deel. Dus het is iets zoals dat. En deze deel is hetzelfde als deze... ...waar de map uit de directe grafstructuur komt. En het is... Laten we een klein decretie doen. En je ziet... ...de proef. Laten we de proef doen. En het is gewoon één woord. En we maken de pixie over de woord. Maar je ziet gelijk waarom dit is. En de woord, je weet wat de woord is. Dus wat je kunt doen is... Dus hier hebben we onze systeem. En hier hebben we onze kleine u. En nu kijken we naar... ...de eerste returnmap hier. Maar... ...maar in de cirkelcase... ...was er één deel... ...die in ln-stappen was. De l-part, de ln-part. En er was één deel... ...die in rn-stappen was. En dus dit un... ...als niveau renormalisatie... ...correspondeerde... ...aan twee loeps. En dan de volgende deel... Er zal er iets in zijn hier. Je krijgt de volgende deel. U en plus 1. We geven ook je ook. En er zal een inklusie zijn hier. Dat kan je al vertellen. In dat geval van onze cirkelcase... ...want je een plus type renormalisatie zou hebben... ...de matrix zal 1, 1, 1, 0, 1 zijn. We komen later een beetje meer precies terug. By zooming in, je begint te refineren... ...en de eerste return maps... ...correspondeerde... ...aan de loeps. En dit zijn de manieren van returnen. En dus deze loeps... ...en als je hier op deze blok kijkt... ...dan zijn er 3 manieren... ...aan returnen. En dus deze graven zijn... ...approximaties van hoe je... ...returningt naar kleine stukken. Dus nu... Laten we... ...discussie over wat we met... ...measurentheorie... ...voor dynamische systeem. De meeste van jullie weten dat. Maar laten we me even rekenen. Dus als je een F hebt... ...als je een minimale kant zet... ...dan zeg je mu... ...is een directe measure... ...voor F. Als... ...mu... ...of een pre-image... ...is hetzelfde als... ...de measure... ...of je zet. Dus we hebben onze X... ...en we hebben een blok hier... ...en een blok hier. Dus als dit onze zet A is... ...remember, deze blok gaat daar... ...dus dit is de zet... ...en van A. Dus de measure hier... ...kan je denken over de measure... ...om de zet op te dropen. Dus de deel van de zet... ...is hetzelfde als... ...de deel van de zet die hier is. Blok, blok. Dus de blok... ...heeft dezelfde... Dus dat is... ...een invariant measure. En nu krijgen we een beetje meer techniek. Er is iets called... ...een ergodische measure. Dus een ergodische measure... ...is een measure... ...die... ...en één deel is. Dat is ook de vormige definitie. Dat is dat als A... ...een invariant zet is... ...dan... ...de measure van A... ...is either 0... ...of het is 1. Dus het moet... ...een ergodische measure... ...is een... ...probabiliteit-measure. Dat betekent dat de measure... ...de hele ding... ...is 1. Dus je neemt... ...1 kilo van zand... ...en je het op de spijt. Dus wat is niet ergodisch... ...is iets zoals dit. Hier heb je spijt... ...en er is wat subset 1 hier zitten. En dit zet is... ...een invariant... ...en er is een andere... ...zet hier zitten... ...en dit zet is invariant. Maar... ...dit zet contains... ...een positieve measure... ...en dit zet contains... ...een positieve measure. Dus in dit geval zie je... ...de measure is niet ergodisch... ...want de spijt... ...de measure... ...consist van twee stukken. En als je iets zoals dat hebt... ...wat je zegt is... ...vergeet één stuk... ...en gewoon concentreren... ...aan één deel van het. Dus als je in de vergetenste measures... ...dan kun je jezelf... ...aan ergodische measures. Dat is wat ze het ergodische... ...compositiontheor... ...so every measure... ...can be written as a sum of pieces. Lot's of pieces sometimes. Oké? En dan er is a beautiful theorem... ...which most of you will know... ...the Birkhoff... ...so what we do is say F... ...it is not about middle... ...this is an extremely general theorem... ...but we are dealing with minimal counter set flow... ...allow me to formulate it... ...as a minimal counter set. It really doesn't play any role. But I can make my easier pictures. So you have a minimal counter set... ...and mu is an ergodic measure. So then... ...let's take F... ...from X to R... ...continues... ...and then you can start to take... ...a time average. So... ...let me make a picture... ...let me first make a little picture... ...so here we have... ...our function phi... ...and we take a point... ...then we just start to iterate our point... ...and at each point, say after... ...i steps... ...we measure... ...the value of our function. So we measure values of our function... ...en dan... ...we take the average. And Birkhoff found... ...that this is equal... ...to the integral... ...of the function with the average. So everybody can say... ...that this is like the time average... ...and this is the space average. So time average... ...and space average is the same state. This is... ...and this holds unbelievably... ...complete generality. Dat is een... ...veel sterk term. Er zijn veel consequenties. In dit set, in jouw set. Like uniform... ...in which sense... ...like if you take bound functions... ...if you take... ...no... ...no... ...it can be a bit... ...if the functions can be a bit wild... ...and that might screw up things... ...if you take... ...indicator functions... ...on our blobs... ...you will see uniform conversions... ...independent of the blob you choose. So if you take a blob... ...let's do that. Let's do that. Let's see. No, no, no. It was about... ...that you see... Oh, I should have written here. So if your question is... ...is it always uniquely ergodic... ...then the answer is absolutely no. There are minimal counter sets... ...which have two pieces. There are minimal counter sets which have infinitely many pieces. There are minimal counter sets which have many folds... ...as ergodic measures. So these are... It sounds very innocent, our pictures. Very innocent, but... No, it's not uniquely ergodic. Not in general. There are uniquely ergodic examples... ...but there are also examples where there are two measures. Two ergodic measures. Like... You can cut the counter set in sort of two pieces... ...and one piece of the measure lives here... ...and the other piece lives here. And this is ergodic and this part is ergodic. No, they are completely intertwined. It's a complete disaster. Because it is minimal. Yeah. And it can be very dramatic... ...not uniquely ergodic. So there are examples... ...where there are two pieces, two ergodic measures... ...but there are also examples where there are infinitely many pieces. And there are also examples where this infinity is like a continuum. We will do an exercise this afternoon to make two. And if you like, we can also make one. I think if you are able to make one with two... ...if you get that... ...I think you will be able to make one... ...which has countably many measures... ...to make it a continuum, you have to work a little harder. It is just fiddeling with the matrices. All these guys, all of them... ...not all of them. Like there are examples in the unimodal family... ...which have two measures of billion measures. Absolutely. And it is not... ...continue the digression a little bit more. We are doing topological dynamics so far... ...and we are looking at measures and continuous functions. With these people who are doing ergodic theory... ...their spaces are just measure spaces. So it is a much looser thing. And there are theorems that if you have an ergodic measure... ...this measure is concentrated on some minimal set. Not compact, but some minimal set. And you know general measures can be... ...is a disaster. So we should see traces of that in the compact context. And that happens. So it is not surprising that these minimal set can get crazy. They can approximate as crazy stuff as you want. You have heard about entropy. So there are minimal set which have infinite entropy. No, these are abstract counter sets. They are not embedded counter sets. So we will do one and two dimensional dynamics. In one and two dimensional dynamics... ...all counter sets are just like the middle third counter set. In dimension one and two... ...they are just nothing funny going on. In dimension three... ...forget about it. We are doing something completely abstract at the moment. So let's not look at the embeddings of them so far. But like general speaking, no. They will be taken. And sort of renormalization will be taken care of that. You will see. Later when we start to do the geometry... ...we will also start to see something about the embedding of them. Ok. So let's do one example of this. Let's go back to our super simple case. This is our minimal counter set. And let's look at the super simple level. The first level. So this blob goes there. And this blob goes there. And there is a measure. But now the measure is invariant. So the measure you see in the preimage... ...is the same as the measure here. So these two blobs, they have the same measure. But this is a probability measure. So they have to weigh it. So it has to be half of the mass have to be here. And half of the mass has to be here. So now let's take... ...let's take this is say A. And let's take phi... ...as the... ...have it a function which is 1 here and 0 here. Ok. How do you call it? Indicator function. Now then you see... ...so according to Birkhoff... ...this converts to the measure... ...to the integral of the measure... ...of this function. Hey, but this is like... ...the function is 1 here and 0 here. And the weight is a half. And so this integral... ...is just a half. But if you look on this side... ...you are just counting... ...how many times... ...you are... ...you are here. And so this is the number... ...of visits... ...to A. Divided by N. En you can say that is... ...like the frequency... ...of A. So apparently according to Birkhoff... ...the frequency of hitting A is a half. Of course. Because if you are here... ...you go there and you are back. So every second step you are back. So the frequency is a half. So in this case... ...the Birkhoff theorem is very transparent. En you should in general think... ...about the Ergodic theorem... ...as... ...the measure of a set... ...like in this case... ...maybe I should have written it more carefully. And this is the measure... ...of the set. So what we see here is that... ...the frequency... ...of visiting a set A... ...is the same... ...as the measure of A. And this is the way you should think about it. En dat means that... ...the measure... ...is telling you how the orbit... ...is spread to the space. So what they say is... ...so this is... ...orbids... ...are distributed... ...and you know... ...distributed in a probability. In this sense... ...are distributed according... ...and that's the same thing. So these Ergodic measures... ...in a frequency... ...sens. Ok, so now... ...let's start. We can still do that. So now let's go to making these invariant measures. So how... ...to make... ...invariant... ...measures... ...for... ...x...is... ...have one of our... ...minimal... Now you see... ...if you go to this example... ...we had like... ...here we have our first level... ...and the measure has to put... ...total weight here. Then the next one... ...we had... ...two pieces... ...and the two pieces in the loop... ...both had... ...beta half. And you can imagine that in the next scale... ...because it goes around... ...de Ergodic behavior, er has to be a quarter here... ...a quarter here... ...a quarter here... ...and everywhere a quarter. So... ...its blob... ...so the blobs... ...of... ...have... ...the same... ...measure. Like here...have... ...a quarter and a quarter. So what you do... ...is the general case... ...let's go to the general case... ...so let's take mu... ...is a measure... ...this is the space of invariant measures... ...and let's take our... ...let's go to the n scale... ...so we see two blobs... ...this is xn... ...and now you see... ...now we put in the blobs on the loop... ...so there are blobs along the loop... ...and there are blobs here... ...and now the same thing we have here... ...these guys have weight 1... ...and 1... ...and all the blobs... ...on the other loop... ...they have weight 2. So what you can say is... ...say mn... ...is the invariant measures... ...on scale... ...n... ...and you see they are just characterized... ...by... ...by two numbers... ...so we know that our measure... ...puts equal weights along this loop... ...and equal weights on this loop... ...so what we see is... ...that... ...we have a measure mu... ...which is invariant for m... ...and that is mapped... ...just in this case... ...in this case to two numbers... ...but if you have many loops... ...too many numbers... ...and of course you see that in this case... ...you can label this... ...just as some... ...region space... ...in this case R2... ...ok... ...so what we see is... ...we have our space... ...m... ...of invariant measures... ...on our contest sets... ...might be a lot of them... ...and somehow... ...we project this... ...to... ...the space... ...of invariant measures... ...in this case... ...what you do is... ...you take the measure... ...which lives on the whole sigma algebra... ...and you restrict the measure... ...to the sigma algebra restrict... ...generated by this part... ...would you see the picture? I don't know what it is going to be... ...but it could be... ...if you put equal weight here... ...you can put... ...different weights... ...you can choose any combination you want... ...in this case... ...there's only one loop... ...so you have only one choice... ...but if you have many loops... ...you can fiddle a little bit... ...and now... ...yeah... ...because... ...if you start here... ...this is the pre-image... ...of that one... ...so this guy has to have the same weight... ...of that one... ...can you say it again? Let's do it a little bit general... ...only ergodic measures are probability measures... ...so... ...we like homology... ...you will see... ...and because you see that this thing... ...like in our case... ...is the first homology... ...of this space... ...but it doesn't matter... ...okay... ...so now Stefano asked... ...so you have tons of possibilities... ...en... ...en you have tons of possibilities... ...at this scale... ...but if you go one scale deeper... ...that is going to restrict your possibilities... ...so what we are going to do is... ...we go one scale deeper... ...and we also have a projection... ...to that one... ...and now we are going to... ...see... ...what is going to happen here... ...so the claim is... ...we go one scale deeper... ...we will get more precise information of these guys... ...let's do an example... ...so example... ...so let's say we have a system... ...with two loops... ...and there are many guys here... ...and we have weight one here... ...and we have weight two here... ...so our measures... ...project... ...to R2... ...and this is the M1 axis... ...and this is the M2 axis... ...and now we go to the next scale... ...and... ...maybe let's me put primes here... ...there are primes here... ...so in here we also have... ...bluffs M1... ...at this moment yes... ...let's be completely free... ...and here on this one we have... ...mess 1 and 2... ...and now the project... ...again to the space... ...of measures... ...and now let's see... ...what is living here... ...and you can guess... ...what it is going to be... ...let's do the same picture again... ...so here we have the purple loop... ...and here we have the purple loop... ...and here we have... ...oh the pink loop... ...and here we have the purple loop... ...and here we have the purple loop... ...so let's say... ...that the red loop... ...goes around the red loop... De red loop gaat rond de red loop, dus onze matrix, zoals we hebben red en pink, en we hebben red en pink. Dus de red loop gaat rond 1 keer hier, dus de red gaat rond 1 tot 1 en de 0 gaat rond de purple. Maar de purple loop gaat rond de purple hier en rond de pink hier. Dus dat gaat rond 1 en 1. Nu laten we zien... Oh, ik heb er gewoon rond geflipteerd. Dus je ziet... Sorry, de labeling was gewoon vervolgd. Sorry, dat was... Dus laten we dit weer doen. Dus we hebben onze matrix en de pinken zijn de tweede en de purpleen zijn de eerste. Dus de purpleen gaan rond de purple en rond de pink. En de pinken gaan rond de pinken en de zeroen rond de pinken. Maar nu laten we zien als dit bloed hier. Dus de purpleen gaan passen bij hier. Dus we zullen hier een beetje opnemen. Dus wat je ziet is dat de weight die je hier ziet, krijgt uiteindelijk de weight m1 hier. En dat is het, want de andere man... Dus de rest van deze loop zal nooit terug komen hier. Dus er zijn geen andere contributies. Als je deze loop neemt, zal het gewoon hier gaan en zal het niet contributeren. Dus als je de weight hier en hier weet, dan weet je de weight hier. En dit is de formula. En als je hier een bloep kijkt... Dan zie je dat de pinken komen door. Dus er zal er een pinken contributie zijn. Maar de purpleen gaan er ook door. Dus je ziet ook de andere. Zoals dit was onze winding matrix. Dit was onze winding matrix. Dit was de winding matrix. En dit was onze winding matrix. Het vertelt u exact hoe de measures van hier tot hier gaan. Dus de actie hier is gewoon de winding matrix. Dus we hebben winding en dat is gewoon de actie... de actie op de measures van scale tot scale. En dan gaan we hier de invariant... en dan gaan we naar de limit op die measures. En deze projecties, ze zullen dit limit extenden. En dan zegt de theorie... dat dit is een isomorphisme. Dus de theorie zegt dat alle invariant measures... worden gestructured door deze soort projecties. Dus nu, doe je me twee minuten meer? Dan kunnen we dit opkijken. En dan kan je later de exercice doen. Het is een soort van funny. Wat gebeurt er? Dus om te verstehen waar de measures zijn, we moeten kijken op deze scale. We moeten kijken naar wat er in R2 gebeurt. Dus laten we kijken wat er gebeurt. Dus hier hebben we R2. Dat correspondt tot de N scale. En hier hebben we de volgende manier. Dat is ook gewoon R2. En hier hebben we onze kleine matrix. 1101. Dus, zoals deze nummers hier, die zijn de weight. Dus dit moeten positieve nummers zijn. Dus Stefano vraagt, ben je helemaal gratis? Als je alleen kijkt naar de N scale, kan er hier alles in de positieve quadrant zijn. Dus in verschillende measures... op de scale N, correspondt tot de positieve quadrant. Maar nu, op de volgende scale, de measures corresponden tot de positieve quadrant. Dus nu, laten we als Stefano vragen, ben je hier helemaal gratis? Nee, je moet in de image van dit onder deze matrix zijn. Dus en als je kijkt, ik denk dat dit kom gaat schrijven tot dit kom. Dus je bent niet helemaal gratis. Je moet in dit kom. Dus en nu laten we zeggen, dat op de N scale... Dus het claim is, die dieper je gaat in de scales, de meer informatie je krijgt over je measures. Dus je gaat naar de N scale en laten we zeggen, onze matrix was 1011. Dus dan zie je, laten we zien wat dit scale hier is. Laten we het red maken, want nu komt het mooi. Dus als je deze scale gebruikt hier, dan onder deze matrix, ik denk dat het hier gaat schrijven, zoals hier. En nu als je deze verder schrijft, ik denk dat het hier gaat schrijven. Zoals hier. Dus nu zie je wat er gebeurt. Als je... Als je de sequentie continu bent, als je hier continu bent, en je altijd een van deze matrices hebt, zoals 1101 en de volgende 111101 en de volgende 111101, en je continueert zoals dat. En dan elke keer, je gaat echt schrijven tot dit kom. Dus in de limit, want dat is wat ze zeggen, de spas van de invariant-meters corresponden tot de limit, dus je ziet, dus iedere stap, je konen wordt kleiner, en in de limit, je krijgt gewoon een lijn. Dus in dit exemple, de dimension van de invariant, de spas van de invariant-meters, is gewoon 1. En dat betekent dat er op de minimale kant is gestructured door deze winding-meters. Er is alleen één invariant-meters. Dus dat betekent x is uniekly ergodig. Dus nu, ja, kan je het zeggen? We laten het als een exercice. Maar je kunt imaginen, als je een simpel matrix hebt, zoals dit, of laten we het doen hier, je ziet dat de kom precies contracteerd is. Maar je kunt een matrix koeken, en je kunt iets zoals dat doen. Ik ga het ook als een exercice. Je kunt de matrix chooseen, zodat deze kom contracteerd is tot een redactieel fat kom op deze scale. Ja, natuurlijk, je kunt dit in ieder geval doen. Maar laten we dit doen. We gaan het stoppen. Dus als je deze contractie van de kom extrem weken en de volgende keer even weker dan in de limit dan krijg je een fat kom. En dat betekent dat er twee invariant-meters zijn. Je hebt een hele lijn van invariant-meters. En de koren zijn er ergodigmeters. We doen dit als een exercice. Dus construct matrices zodat je eigenlijk een kom van invariant-meters hebt. En dan kun je meer koren doen en dan kun je begrijpen om drie koren te maken. En als je de nummer van koren loopt, dan kun je infinitief veel koren maken. Dus sorry voor de tijd