 Donc, j'ai expliqué ce que j'ai fait d'aujourd'hui. J'ai expliqué les relations entre les 3 objets, l'H-reinforce random walk, que j'ai défini dans la première course, le processus de l'H-reinforce vertex, que j'ai défini d'aujourd'hui. Et cette mesure que j'ai récolte là-bas, ce model sigma. Donc, let me remind that it was this formula. Juste to briefly recall what I explained yesterday. So, you have this formula, so that the U is, so you have a graph G with vertex V and H E, and assume that you have positive conductances on the edges. So, this measure lives on the field. So, the Ui are reals on the vertex season. And in this expression, it's rooted at one point, which is the starting point of the VRGP. So, the U is rooted at value 0 at this expression. And what I explained yesterday is that this vertex-reinforce jump process, in a good time scale, it's a mixture of Markov jump process with rate one-half of W ij, exponential Ui Ug minus Ui, where U follows this, ok? So, what it means, it means that this process that I defined yesterday, this self-interacting process-reinforce process, you can describe it by first picking the field according to this distribution, and then running the Markov chains with this jump rate, ok? So, that's what I explained yesterday. So, let me know what I would like to do today. First, I will state the localization and the localization result of Dissertoris-Pensser-Sanbauer and Dissertoris-Pensser for this measure. So, the story is that they... So, ok, I will explain later where it comes from, but they first prove a de-localization result for this measure, which somehow is more difficult, I think, than the localization. So, that's the work of Dissertoris-Pensser-Sanbauer. So, it's from 2006. And it says that, suppose that, ok, for simplicity, suppose that we are on Zd, ok, and you take Wij equal to W constant, ok? And, ok, so that's not the finite graph. This formula is only true for a finite graph. But if you take a box lambda in Zd, then what they proved... Ok, no, sorry. Let me first state the localization result. I always started by the localization, which appeared after. So, what they proved in this paper of Dissertoris-Pensser-Sanbauer is that you have localization of the field. You have exponential decrease of the field when W is small enough. So, it means stronger enforcement, ok? So, for any D, there exists a value W that depends on the dimension such that if W is smaller than W, then there exists a constant, C, such that you have exponential decrease of some moment of the field. So, suppose that I0 is equal to 0, ok? So, you start at the origin. And in this case, for the moment one-half, then this is smaller than some constant times the infinite norm of G. So, you have exponential decrease in the distance to the origin of the one-half exponential moment of U, ok? This is not true for any S there, ok? For example, if you take S equal 1, in this case, it's always equal to 1. In fact, it comes from this form, ok? Ok. Ah, U, ok. So, U represents, ok. Excuse me, that's the expectation of respect to this measure. On lambda, ok. My notation aren't very good, but... C'est clear? Ah, that's J is a point in the box, ok? So, you look at the field at this point, you take the expectation of respect to... Ok, let me write it in this way. That's the expectation of respect to the measure U0W. In the box, lambda, ok? So, that's uniform in the box, lambda. This constant does not depend on the box, lambda. And you have exponential decrease, yes? Is there a way to see from the formula that this will happen? That this will happen? Yeah, just heuristically, you know, without... Ok, you can see that's hyperbolic cosine, for example, that's kind of an attraction term, right? Yes, ok, this term is responsible for the fact that... you should be delocalized, I guess. So, I think that the localization comes from the... This is not easy to see intuitively in the formula. The localization comes from this term. That... You pay the cost by UJMSUI squared, Yes, but then it's not delocalized. It's delocalized. Yes, so the localization comes from this term. In fact, if you think that it's a tree, then this term will give only one... it will be a product. Because if the graph is a tree, then you have only one spanning tree there. So, the graph is a product. You can write it as the product of the grad. There's a way to write it as the product of the grad. And then you have this term also that pushes everything down. So, you want exponential decrease, but then you have to match with the fact that you should not go too much. So, it depends. That's the type of competition between these that wants the field stabilized. And this term, and this effect of the routing that wants the field to decrease far from the origin. But it's not easy to see on the... OK, I will give later... OK, I will not give, but there's a way to write a formula of localization, exactly as the proof of Simone Vartel last week. About fractional moment bond for random sorting operators. OK. So, that's the localization part. And then they also proved a second result, which is the delocalization, which appears before. OK, of course, they were more interested in the delocalization than in the localization because this model was a toy model for some sigma field that is related to the Anderson... to Anderson. So, localization is more... Delocalization is more attractive than localization, which is clear for Anderson model. But nevertheless, their proof... This proof is quite tricky in the way they write it. There's another way to write it, but their proof is quite tricky. OK, so the localization... Delocalization result, it's... OK, we are still on ZD. Same condition. So, it's constant. But now, we suppose that D is larger than 3. Then, there exists another value. I don't call it critical value because we... This value will not match... We don't know that these two value match. OK. We have not sharp transition. Such that... OK, such that... For all m... OK, no, I should... Sorry, I should... Excuse me. So, for all m positive, there exists a critical value that depends on D and m. Such that you have a very good control on the fluctuation of the field. More precisely, you should take the expectation of respect to anything. Cosh of the fluctuations of the field. OK, so it's minus u0, but u0 is equal to 0, so you don't care. It's for any IG. So, you look at the fluctuation of the field at any distance, then to power m, then this is smaller than something which... OK, so you have very good control on the moments of the cosh of the fluctuations. OK, so why the cosh? Because we are interested, in fact, what we are interested in is in the exponential. We are interested in this type of things, exponential ug minus ui at distance. So, the cosh gives you a very good control both on this and on its inverse for any moments. I mean, for any moments, you can get good control for... OK. OK. So, that's the delocalisation. It means that if you look at the field exponential ug, then it will be not... it will be something that... I mean, this field is not too big, not too small. OK, it's positive. OK. So, that's delocalisation. And from this, OK, it's clear, the statement. So, this is far from being a trivial result. It's a difficult to multi-scale analysis. I would say one word, but not too much because it's very difficult. And so, from that, it's rather easy to deduce. From that, you can deduce two things. You can deduce four the vertex reinforced jump process because for the vertex reinforced jump process, you know that this is a mixture of Markov jump process with this distribution, with this jumping rate. So, it means that if you look at the discrete path, if you look at the discrete Markov chain associated with the VRJP, then it's a... OK, so the discrete VRJP is reversible Markov chain with conductances Wij exponential Ui plus Uj. OK, if you want it to be symmetric, then you need to multiply by the invariant mixture which is exponential 2 Ui. OK. So, it means that if you have exponential decrease of this, it gives exponential decrease of the conductances and it gives localisation of the VRJP. OK. In any dimension, it gives that the VRJP is positive recurrent. OK. Exactly as for the... OK, the same as for the ERW, what I explained the first day. And now it says also that dimension D larger than 3, W large. Then it's not difficult to... So, what does it give this? This gives the fact that this conductance has some... OK, so the second inequality tells that if you look at the conductances then they have upper moment. If you look at one of the conductances it also has good control on the moments. OK. So, it's standard argument of Markov chain to prove that in this case it's transient. OK. So, it's consistent with simple random work and then it means that the VRJP is transient. OK. So, that's for the VRJP. Now, from this result you can also deduce result for the ERW. Sorry, can I ask? Is this reversible function? This is the time you change one. OK, so that's discrete. So, it means that I don't care about the time. If you look just at the discrete time process yes. So, now for the ERW in fact it's so, you see that if you want to have similar result for the ERW, you need to have some estimates but taking expectation with respect to random W. OK. So, there are two cases for the localization, so it means that you need to prove that if you take W random and you integrate according to the W which are IID then you get similar estimate. OK. In fact, for this case it's rather easy to adapt the argument. So, it gives similar a similar result. So, we have from this we can also deduce OK, so what I mean is that after it's easy to adapt the argument so, it gives ERW is a positive recurrent for a small small enough OK. OK, we adapted the proof but that's not difficult and with the correspondence between these three objects it gives also the localization of the ERW. And now it's more difficult to adapt the second part so, it's the same, you have to take W random and you have to to adapt this estimate and that's more work because that's a multi-scale argument so, you cannot have uniform estimates on the W, so you have to redo the proof so, that was done by Dissertory Tharès and myself later so, you can have a delocalization result for the ERW I don't know if it's clear so, it means that you want to have a same result but after expectation of respect to W OK, so it means that the ERW is transcend for A large on ZD D large or equal to 3 for A large large enough OK, so it gives a So, this result actually predating the connection to the first one This one Actually, OK, I can make a comment in this first paper So, in this paper that appears in 2006, so there are no connection with reinforced random book Nevertheless, they OK, so they had this formula and so there's some people suggested that it looks like it looked like the magic formula for the ERW and so some people including Cosma, Stitman I don't know they saw some similarities between the two objects OK, so it was guessed somehow but there could be some connections but it was not clear whether it was a connection at the level of heuristics or similar behavior or if there were a clear connection So, is this how you found this ERGP No, actually we we didn't know this result in fact It's Gavetski that told us but this measure already exists So, it was a surprise but OK So, now what I would like to do is two things First, I should at some point explain the relation with some type of random Schrodinger operator otherwise I will be out of the scope of the school but first I would like to say OK, so I would like to say two words about the geometric interpretation of this measure So, let's say that it's part 3 So, the objective first to say a few words about the geometric interpretation of mu So, that's how it was introduced by and I would like to explain I will explain also the relation with some random Schrodinger operator So, that's more recent development on the subject random Schrodinger operator OK So, I will be very brief on that but OK, if you look at the measure of mu then you see that you have a square root of determinant when you have a square root of determinant then what you want to do is somehow to break this square root and the way to do that is to add a Gaussian free field OK So, what you have is that if you look at a Gaussian free field what you know is that if you look at this measure which is the Gaussian measure OK, you look at the Gaussian free field so it's the Gaussian measure with this density so you suppose that you root your Gaussian field at OK, you root your Gaussian field at I0 then you know that this is equal to OK, so don't put this conductances but you put the conductances Ui plus Ug OK, so you suppose that U is fixed and you take this conductance OK, in this case this is equal exactly to the square root of minus 1 to the square root of this determinant OK, so it means that there's a way to add a second square root so that you break the square the square root just by adding a second variable which is a Gaussian free field but that's a Gaussian free field but with conductances that depends on the first coordinate Yes so you can do that and it gives this formula so it gives that you have a measure that has two coordinates dU and dS which is the same now you make the sum on all Ij of W Ij OK, I forgot W Ij and then you have a cosh and you have Ui plus Ug then you have the square of the difference minus 1 and then you have no square root you just have that dWU dUGS that you add this measure so it gives an extra square root of determinant there to normalize and so you have no square root OK, and now you have this term which is the B Ij and of course the physicists when they see that they want to remove also the determinant and the way to remove the determinant is to add some antisymmetric variable to do some antisymmetric integrals but I will not talk about that because I will not need it really but that's the second step if you really want to write everything as interaction between neighbors then you need to add some antisymmetric variables to kill the determinant but what I would like to say is just to interpret the B Ij as some interaction in hyperbolic space I will not be I will not give the full details but in fact you can interpret this as some scalar product in the in the hyperbolic plane so interpretation of the B Ij you can define the hyperbolic space not in the representation of by the upper half plane but in terms of the hyperboloid by x, y, z so suppose that you look at the set of x, y, z such that x square plus y square minus z square is equal to minus 1 and suppose that z is positive so it means that it's the hyperboloid but you take the upper upper component so that's also the that's what is called the hyperboloid space but in this representation you have also the representation in the upper half plane or the Poincaré disc and so on ok so now on this space you have a natural billionaire form which is the Laurentian billionaire form just by taking x you just symmetrize this quadratic form and the only thing that I want to say is that this B ij in fact it corresponds to an interaction on this space with this billionaire form so this B ij it's equal to the scalar product of ok this has no meaning this is the scalar product ok it's not the scalar product it's a billionaire form it's a billionaire form of x, i, x, j but in a different coordinate so it's written in or cycle coordinate so what does it mean it means that any point in this in this space can be represented by so if you have u and s then you can represent so ok you have a formula it's not very useful that I write it but ok just to state something clear or cycle coordinate it's a way to represent this hyperbolic space in terms of r2 ok there's a a meaning of all this but let me not anyway I'm not an expert say some stupid thing ok there's a way to parameterise this hyperbolic space by r2 by this type of change of variable which are called the or cycle coordinate ok so it means that in this case this B ij corresponds to a product of these two things once you have written the x and y in this or cycle coordinate yes so why I say that it's because you see that you have a natural interaction which has a geometric meaning yes it should be called holospherical coordinate no don't think so dimension that it's spherical ok anyway excuse me well I think that the function of the I think the hyperbolic distance is the arc-coche of that or something like this so it's not exactly the hyperbolic distance but I think it's the arc-coche of that so it's more the interaction in terms of this slow and slow scalar product ok so you see that you have a meaning you have some space which has a natural linear form and then you have interaction between the neighbors that are given by this scalar product ok this is easy to see that this is also equal to the norm of so so something like something like this or minus plus minus because the xx if you take the scalar product of xx it's equal to minus 1 ok maybe there's a plus or minus there Vous voyez qu'il y a quelque chose d'une distance pour ce bâtiment. Ce n'est pas une distance, mais c'est une norme pour ce bâtiment dans la forme, jusqu'à un constat. Donc vous avez une interprétation naturelle de cela. Et ensuite, vous pouvez aussi ajouter, remettre ce D par ajouter un ordinateur supersymmétrique, et c'est la façon dont il est présenté, c'est la façon dont il est introduit. En ce cas, vous avez une version supersymmétrique de l'expérience hyperbole. Et en ce cas, vous retirez toute la détermination, et vous avez juste une interaction entre les neighbors. Alors pourquoi je dis cela? C'est parce qu'il y a une certaine identité qui vient de cette interprétation. Et ces identités sont, en tout cas, un outil de la délocalisation. Donc, laissez-moi dire un mot sur la délocalisation. Je ne donnerai pas de prouves concrètes. Et ensuite, je n'oublierai tout cela. Donc si vous n'avez pas... Si vous n'avez pas perdu, ce n'est pas très important. Donc, ce que cela veut dire? En particulier, cela veut dire que ce variable b est important. Et en fait, c'est ce qui est prouvé. Dans la prouve de la délocalisation, ce qui est prouvé n'est pas seulement que le cosine hyperbole soit plus petit que b2. Mais en fait, ce qui est prouvé, c'est que ce b à la puissance m est plus petit que quelque chose. Et c'est plus facile de travailler avec ce ordinateur qu'avec la pièce, parce qu'il y a des meilleures identités. Ok? Donc, la partie délocalisation, je dirais seulement deux mots. Mais c'est une idée de la prouve délocalisation. Je veux dire, ce n'est plus une idée. Parce que c'est... Donc, c'est un argument multiscale qui est basé. Donc, c'est un argument multiscale, mais le point de départ de l'argument multiscale est une identité qui s'appelle varte identité. Donc, ce qui est une identité varte? En fait, je ne comprends pas ce qui est une identité varte en général. Le point que je comprends, c'est que quand vous avez un ordinateur, ici vous voyez que ce ordinateur est toujours equal à 1. Quand vous avez un truc comme ça, qui est un facteur non trivial, ce ordinateur est equal à 1, vous pouvez obtenir des identités en différenciant sur les coefficients. Ok? Et ça vous donne des identités qui, éventuellement, pourraient être intéressantes pour les analyses de la mesure. Ok? Vous pouvez interpréter la théorie de changer les variables à l'intérieur de l'interport. Change les variables. L'intérêt de la théorie de changer les variables à l'intérieur de l'interport. L'interport n'est pas changé. Mais, la change de variables réduit une variété de compétition. Oui. Ok, alors vous pouvez interpréter la théorie en différenciant sur les paramètres et dire que c'est... Ok, vous changez l'infinité de la théorie. Et ensuite vous dites que vous avez une identité entre les intégrals et vous donnez... Ok. Donc, une façon de faire ça, ici, c'est... Ok, vous mettez le W sur la droite. Vous dites que cet intégral est equal à 1. Maintenant, vous mettez ce minus 1 sur les autres côtés. Et vous donnez une identité que vous pouvez évaluer comme... Ok, laissez-moi utiliser la notation de la théorie pour l'explication. Donc, qu'est-ce que vous donnez? Si vous différenciez sur le W, vous voyez que vous avez un terme qui descend, qui est le B. Et ensuite, vous avez un terme qui descend. Ok. Et ensuite, vous pouvez différencier ce déterminant. Mais, ce D... Rémyne que... Ok, laissez-moi utiliser la représentation par... par le sume de les paramètres. Ce que vous voyez, c'est que dans cette expression, quand vous différenciez sur le W, vous pouvez différencer seulement l'une. Parce que si vous différenciez sur l'une, vous avez tué le W terme. Parce que c'est l'un des R. C'est seulement l'un des R dans le W. Donc, vous allez obtenir seulement les paramètres qui contiennent la spécifique... Donc, si vous différenciez avec respect à W, c'est-à-dire I0, G0. Ok, G0, G1. Et ensuite, vous allez obtenir seulement l'une des spécifiques qui contiennent ce déterminant. Et vous pouvez différencier seulement l'une. Ok, sinon, vous perdrez le W terme. Ok. Donc, si vous supposiez que vous différenciez Mx... Qu'est-ce que cela donne? Cela donne une identité. Cela signifie que ici, vous pouvez différencier Mx. Ou vous pouvez différencier Mx-1 x 1 x 1 x 1. Ok. Donc, cela vous donne quelque chose comme B, G0, G1 à M. Plus. Et ensuite, il y a une minus. Ok, vous devez penser à la minus. Mais ensuite, vous avez B. Vous avez M possibilité de choisir le temps... À quel temps vous différenciez le déterminant. Et ensuite, vous avez B, G0, G1 à M-1. Et ensuite, vous avez la différence de cette D. Divide par D. Parce que vous voulez remxercer le temps. Et cela est equal à 1. Pourquoi? Parce que sur l'autre côté, vous avez l'exponential de la somme. Et c'est 1. Ok. Cela vous donne quelque chose comme cela. Et maintenant, nous allons juste expliquer. Ok, donc, comme vous le verrez, c'est difficile. Ok, ce n'est pas possible d'exprimer les détails. Je n'ai pas de temps. En fait, ce objet est possible d'interpréter comme une résistance électrique entre deux points. Parce que, ok, c'est un argument très simple. Et ensuite, vous avez quelque chose comme... que l'expectation de cela... Et ensuite, vous factorisez cela. Vous avez 1 par B. Mais cette B, vous mettez cela dans les coefficients. Et cela vous donne quelque chose comme cela. Pour certaines conséquences, cela dépend de la B et de plusieurs choses. Donc, c'est pour les coefficients. Donc, c'est C, i, j, i0, g0. Donc, qu'est-ce que cela veut dire? Et cela est une conséquence équivalente. Non, ok, résistance, en fait. Équivalente résistance entre g0, g1, 4, C. Ok? Pour ces conséquences qui sont juste une fonction de la B. Ok? Je n'ai pas... Est-ce que c'est effectif? Oui, c'est effectif. Ok, c'est équivalent. Effectif, oui. Merci, c'est mieux. Ok? Cela peut être interprété avec des résistances effectives. Ok, donc maintenant, laissez-moi juste sketcher l'idée. C'est très... Laissez-moi sketcher. Et vous verrez que cela ne peut pas être très simple, en fait. Ok, donc ce C, i, j est... En ce terme, c'est déterminant avec ces conséquences. Ok? Mais en fait, ce que vous faites, c'est que vous factorisez. Vous avez 1 over B. Donc, cela sera une fonction de ces conséquences. Et les B, i0, G0, G1. C'est une fonction. Donc, c'est une fonction de ces B, G0, G1. Et les conséquences de votre graph. Ok? Donc, maintenant, laissez-moi juste expliquer l'idée. L'idée est que si la conséquence n'est pas trop grande, je veux dire, c'est petit, je dirais, vous voyez que vous avez B à la puissance, x1-1, ce qui est petit, on dirait epsilon, qui est equal à 1. Ok? Vous dites, ok, imaginez que nous pouvons mettre cela au-delà de l'expectation. Alors, cela donne que Bm, G0, G1, est plus petit que 1 over 1 plus m epsilon. Si cette résistance est plus petit que epsilon. Bien sûr, ce n'est pas possible de faire cela. C'est clair, ce n'est pas possible. Mais l'idée est que si vous avez un bon contrôle sur ces conséquences, vous pouvez obtenir le contrôle sur B. Et maintenant, il y a un argument multiscale qui dit... Donc, laissez-moi juste sketcher l'argument multiscale. Il dit que l'idée est que si vous avez un bon contrôle, si vous avez un contrôle sur B, si vous avez un contrôle sur I, J, à quelque scale, à distance L, on dirait, donc cela signifie que I-J est plus petit que L. Puis cela donne le contrôle sur la résistance à la scale qui est un peu plus grande. L facture 1 plus epsilon. Ok, un peu plus grande. Et par la valeur de VAD et ATT, cela dit que si vous avez un bon contrôle sur A à la scale 1 plus epsilon, vous avez un bon contrôle sur B à la scale L1 plus epsilon. Ok, c'est la stratégie de multiscale standard. La chose est que, pour faire ce multiscale, vous avez besoin d'une identité. Et en fait, ce identité n'est pas utilisé formalement, mais vous avez besoin d'une inequality de ce type. Parce que ensuite, vous avez besoin d'un indiquateur que cet objectif n'est pas trop grand, sinon, bien sûr, vous ne pouvez pas utiliser cet identité. Vous pouvez le faire, vous pouvez le faire. Mais c'est l'idée générale. Oui ? Ok, à la fin je voulais donner plus de détails sur cette prouve, mais c'est... Ok, c'est trop optimiste. Vous avez des questions ? Si, c'est dépendant de G0, non ? Ah, oui, sorry, c'est dépendant de G0, G1. C'est dépendant de B et G0, G1. Ok, c'est... Et ensuite, vous avez besoin... En fait, la chose que je n'ai pas expliqué, c'est de la façon dont vous pouvez aller de B à la scale L1 à la scale L2, et c'est un petit truc, mais c'est la forme de la conductance. Ok. Mais ensuite, pour le faire, c'est... C'est un peu de pain. Ok, donc... Si vous avez perdu, non ? Ce n'est pas un problème, parce que je... Je n'oublierai pas ça. Donc, c'est un argument de la scale L1 à la scale L2, c'est vraiment difficile, même si vous avez des mesures simples, comme les variables indépendantes, comme les variables rigonaises, mais ici, il n'y a pas de mesures que vous pouvez contrôler, et c'est le formulaire. C'est le... Oui, le seul tool que vous avez, c'est l'identité d'une identité ou l'équalité d'une identité de cet intégral magique. Et en fait, vous avez besoin de prouvoir que c'est plus petit que 1, quand vous mettez des fonctions indiquées. Et là, c'est très difficile de faire ça sans la supersymmétrie. Vous pouvez le faire, mais c'est... C'est un peu de pain, et c'est absolument pas... intuitive si vous n'avez pas la supersymmétrie de l'interprétation, à la fois maintenant, dans la preuve de Dissertori-Spencer et de Saint-Barre. Est-ce qu'il y a une version qui n'utilise pas la supersymmétrie? Ok, donc dans la preuve, nous avons rencontré Dissertori et Dissertori-Spencer, qui est une adaptation de la preuve initiale pour le VRW. Nous avons essayé de simplifier, en fait, nous n'avons pas vraiment simplifié la preuve, mais nous pouvons presque éviter la supersymmétrie. Ok, à la pointe où vous êtes de l'équalité, ok, nous avons un argument pour éviter, mais c'est un peu pour le faire complètement, donc nous n'avons pas fait ça. Ok, Dissertori-Spencer, c'est facile de le faire sans la supersymmétrie, c'est juste de différencier la coefficient. Mais pour l'équalité avec la fonction de l'indicateur, ce n'est pas facile. Ok, donc n'oubliez pas de ça maintenant, et donc je voudrais expliquer maintenant quelques relations avec quelques opérateurs de Schrodinger. Donc, ce sont plus récentes choses, et Ok, donc, je vais commencer par une autre interprétation de une autre interprétation de la MuseoMew. Donc, relations avec l'opérateur de Schrodinger. Donc, j'ai dit qu'il y aura deux formules. Donc, vous avez la première, c'est la première là-bas, et ensuite je vais mettre la deuxième, qui est relativement à cette, mais ok. Ok, donc, avant, j'ai besoin de fixer une notation. Donc, nous commençons, de nouveau, donc, nous considérons toujours que W est fixé pour maintenant, et ensuite on va prendre la compréhension de l'interprétation. Donc, si beta, ok, donc, nous allons introduire beta. Donc, c'est une fonction sur les vertices, et vous devez penser que beta a un potentiel. Ok? Donc, beta sera le potentiel de l'opérateur de Schrodinger. Et puis vous définissez hbeta, c'est 2beta minus W. Donc, W est juste la matrice de, ok, W est equal à 1, c'est juste la matrice de l'agence de la graffe. Ok, donc ça veut dire que W est la matrice de Waj, et vous mettez 0 et vous n'avez pas l'âge. Ok? Et ce opérateur, c'est l'opérateur de la multiplication de beta. Donc, c'est l'opérateur de Schrodinger plus un potentiel. Ok? Donc, jusqu'à son sens, c'est la plachane plus le potentiel. Donc, c'est le type d'opérateur que Simone Vartzel décide. Les weights, les weights, c'est quoi? Les W? Non, non, c'est général pour le moment. Donc, W est général. Et ok, donc maintenant, je vais faire un remarque qui est lié à la matrice M ou une très classique chose, c'est que si V est finit, juste pour être sûr que vous n'avez pas de problème de définition. Et si h beta est positive-definite, donc c'est la matrice symétrique, si c'est positive-definite, c'est le résultat de la matrice M que si vous regardez c'est une fonction grise, alors il a une coefficient positive. C'est le résultat de la matrice M. Ce que ça veut dire, ça veut dire que les termes off-diagonaux sont négatifs. Quand vous avez une matrice que les termes off-diagonaux sont négatifs et que les termes dyagonaux sont négatifs et que la matrice est très positive, alors en ce cas, la fonction grise est positive-definite. Et en fait, c'est vraiment si la graphe est connectée. Si c'est crédible, si la graphe est connectée. Oui ? En fait, vous pouvez écrire cette fonction grise. Vous pouvez écrire comme une expansion de path, sumer les potentiels du path. Peut-être que je vais l'écrire plus tard. Ok, donc, quand je le define, je peux écrire la formule. Excuse-moi ? Oui, beta est arbitraire pour le moment, et je vais le définir maintenant. Donc, je vais commencer à donner une autre interprétation de la mesure mu en termes d'un opérateur random schrodinger. Donc, d'abord, je dois définir la mesure. Donc, on travaille avec Tharis et Zenger. Donc, je define la mesure. Donc, si la graphe est finite, si la graphe est finite et suppose que tu prends des coefficients positifs, plus tard, il y aura un. Mais, je vais écrire les coefficients positives sur la graphe. Ce sont les coefficients de la mesure, comme la W. Puis, cette mesure, d'une beta, donc, c'est une mesure sur le potentiel. Et cette mesure vit sur le set et la graphe est très positif et vous avez un constant. En tant que exponential minus 1 à 1, et ensuite, vous avez le produit de la graphe de Theta, h beta theta par la graphe du déterminant de h beta d'h beta. Puis, cette est la probabilité. J'ai accepté que je l'ai oublié en termes de termes. Et puis, ok, vous avez le product de Theta. Mais ce n'est pas le cas. Donc, est-ce clair ce que ça veut dire? Donc, cela définit une mesure sur l'h beta. Donc, l'h beta, il y a des potentiels sur la graphe. Donc, il n'y a pas de potentiel sur la graphe. Il n'y a pas de point de départ. Il n'y a pas de point fixé. Il n'y a pas de point spécifique. Et vous regardez cette mesure. Donc, c'est une mesure qui vit sur le potentiel, ainsi que l'opérateur de Schrodinger est très positif. Oui? Et vous avez cette exponentiale, qui est la forme de la formule de la graphe de Theta, de l'h beta, et qui est divisé par la graphe de l'h beta. Et c'est une probabilité. Oui, c'est la détermination de l'h beta. Et c'est une probabilité. En fait, vous avez... Ok, j'arrête. Il y a une généralisation de cela. Je ne vais pas l'utiliser. Vous pouvez aussi ajouter. Et puis, vous devez ajouter le produit de la graphe de Theta. Vous avez une plus grande formule. Vous pouvez aussi... Vous avez une formule de quadratic associée à l'h beta. Mais vous pouvez aussi ajouter une formule de quadratic seconde associée à la fonction de la graphe. Et vous avez une interaction entre les deux. Et cela est toujours une probabilité. Excusez-moi, les paramètres de Theta. En fait, c'est facile. J'arrête parce que c'est utile de mettre la forme de la graphe de Theta. Parce que vous pouvez changer les variables. Vous pouvez retourner à Theta pour 1. Mais avoir la formule générale est utile pour... Ok. On l'a oublié. La famille de la graphe de Theta est un peu plus générale que ça. Alors, ce n'est pas complètement obvious. Vous pouvez... Vous pouvez avoir une récurrence sur la dimension de la graphe d'utiliser des compléments de la graphe de Theta. Ok. En fait, je vais dire que cette formule de Theta a donné une proof simple et en fait, il a aussi remarqué que vous pouvez généraliser la formule. Donc, c'est la contribution de Theta. Donc, je vais... Donc, la graphe de Theta a des bonnes propriétés. Donc, la première chose est que la transforme de Theta est explicite. Ce n'est pas important, mais ce sera utile pour comprendre la propriété. Ensuite, vous avez une formule. C'est le summe de W ij. Et ensuite, vous avez la route square de 1 plus lambda i. La route square de 1 plus lambda j minus 1. Divide par la route square. Le produit de la route square de 1 plus lambda i. Ok. Donc, vous avez une certaine formule pour la transforme de Theta. Et puis, on dirait un autre truc. Si Theta est equal à 1, c'est facile de aller à Theta equal à 1. Puis, on écrit juste une nouvelle W. On oublie. Ok. Ça dépend de Theta. C'est pas clair. Ça dépend de Theta. Quand Theta est equal à 1, on oublie le terme. Donc, pour Theta equal à 1, vous pouvez écrire la transforme de Laplace et Theta est de cette forme. Et la conséquence de ça c'est... Qu'est-ce que c'est lambda i ? C'est ce lambda. Vous regardez la transforme de Laplace ? Juste l'I. Dans le graph. Oui. Parce que ce lambda vit sur les vertices de le graph. Excuse-moi. Je ne sais pas, c'est pas un pi. Sorry, c'est un produit. C'est pas aussi bon que la technique. Vous pouvez faire le différent. Ok. Je vais vous expliquer des propriétés. L'intéressant propriétaire de Theta est que Theta est un dépendant. Il y a une correlation entre Theta, mais la correlation n'est pas grand. Qu'est-ce que ça veut dire ? Si vous regardez la restriction de Theta à V1, c'est dépendant de la restriction de Theta à V2. Entre V1 et V2, c'est plus grand que 2. C'est-à-dire que si vous regardez les deux sub-sets, qui n'ont pas d'air entre V1 et V2, le potentiel entre ces deux est un dépendant. Ok. Mais non seulement, c'est pas un dépendant trivial, mais c'est un type de dépendance et un type de dépendance et c'est utile. Vous voyez que comparé à l'intéressant, si vous imaginez que pour le moment, c'est un grapho final mais il serait possible de le faire sur un grapho infinit. Si vous comparez avec l'intéressant, l'intéressant est que le potentiel est une idée à chaque position. Ici, il n'y a pas... C'est un dépendant. Et... Ok. Qu'est-ce que vous voulez dire ? La deuxième chose est que vous pouvez compter le logement de la beta, le marginal. C'est un logement inverse, si vous savez ce que c'est. Si vous n'avez pas... avec des paramètres que vous pouvez compter. Et puis, la dernière formule est que il y a quelque chose que l'on va utiliser plus tard. C'est que... supposons que teta est equal à 1. Et si vous regardez la fonction de la graine à un point, c'est indépendant du potentiel sur le complément. C'est un effet sur le complément. Donc vous avez l'indépendance du potentiel à un point. Si vous regardez à un point, la fonction de la graine à ce point est indépendante du potentiel à l'extérieur. Et en fait, vous savez le logement. C'est toujours le même. Ce n'est pas dépendant du paramètre. C'est 1 par 2 gamma. Gama est un gamma 1,5. Ok, c'est un peu... étrange. Ok, il faut regarder ceci. La chose importante est que nous avons ce potentiel qui a une dépendance. Excusez-moi. Ce n'est pas dépendant de la dépendance. Qu'est-ce que vous avez dit? Ce n'est pas dépendant de... de la façon de la dépendance. Tu veux dire que c'est une dépendance? Ok, la dépendance dépendant du W dans le sens que si vous avez dépendance de si le W est 0 ou pas. Mais si ce n'est pas 0, vous avez la graine la graine est donnée par le W. La graine est la graine du positif W. Donc ça dépend de la structure de la graine dans ce sens, si vous avez interaction ou pas, entre les points. Mais si vous n'avez pas d'interaction et si vous n'avez pas de connections pas de W entre deux sub-sets, vous avez une dépendance. Donc ça n'est pas dépendant de ça. Et le fact que la graine est la même qu'une inverse Gaussian? Ok, ça dépendant du paramètre. Le paramètre de l'inverse Gaussian dépendant du W sur le Gta. Est-ce que le V1 et le V2 sont les sets de vertices ou ces vertices? V1 et V2, ok, sorry. V1 et V2 sont les sub-sets de la vertices. C'est ce que vous demandez? Oui. Vous regardez la restriction du potentiel des sub-sets de la vertices. Est-ce qu'ils sont aussi conditionnels? Ok, donc conditionnel conditionnel de la boundary, par exemple, non. Mais ce que vous pouvez faire, en fait, vous pouvez dire plus sur ça. Ce que vous savez c'est que vous savez la loi de la restriction qui est de la même taille de cette famille mais vous devez ajouter cet extra second terme. Donc vous pouvez compter la loi de la restriction. Et en fait, vous pouvez compter la loi, si vous avez deux sub-sets si vous avez eu des sub-sets, vous pouvez compter la loi de la conditionnelle beta sur ce complément. Il y a une forme explicite qui dépend des compléments du potentiel à l'extérieur. Mais vous avez une loi explicite et c'est dans la même famille. C'est-à-dire que ce potentiel a la propriété stable par la restriction. Cette famille de mesures est stable par la restriction et est stable par la condition sur le complément donc vous avez très bon contrôle en ce sens que vous savez exactement quelle est la restriction et quelle est la loi de la condition. Ok, donc je vais expliquer ce qu'est la relation avec la formule là-bas. La relation est très simple. C'est une autre interprétation et je vais expliquer pourquoi c'est utile. Donc il y a encore une file. Qu'est-ce que c'est la relation entre ce potentiel et ce potentiel ? C'est facile. Si vous supposiez que beta suivait la loi la nouvelle vw donc vous avez teta equal à 0 à 1, pardon, normalisation. Donc teta equal à 1. Si vous avez un point fixé dans le graphin et vous avez défendu l'exponential u i0 j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j j C'est naturel de regarder à chaque fois, parce que le fil est plus facile d'analyser le comportement asymptotique et le comportement de localisation. Et le potentiel, en fait, sera plus facile pour d'autres choses. Alors, je vais faire un remarque. Alors, quel est le point de ce potentiel ? Il y a un remarque important. C'est-à-dire que comparé à la loi qui est définie à l'arrivée, vous voyez que dans la définition de beta, dans la définition de beta, vous avez aucune référence au point de départ. Oui, le point de départ ne dépend pas du point de départ. Le point de départ appartient par le point à lequel vous regardez la fonction de graine. Oui ? Donc, ça signifie que vous avez un moyen de couper toutes ces mesures à partir de différents points. Parce que cette mesure a été définie par le point de départ. Mais ce que ça signifie, c'est que tous ces mesures sont somehow couplées par cette graine, juste par cette beta. Donc, ça signifie que les mesures du processus à partir de différents points sont couplées par cette beta. En fait, la beta a une dimension plus grande. Si vous regardez cette mesure, la mesure vit sur Rv et celle-ci vit sur Rv-1. Donc, il y a une dimension extra. Et cette dimension extra permet de couper toutes les choses. Ok, donc ça donne la coupling de la mesure muIv, muIw, pour différents W. Ok. Excuse-moi ? Oui, oui, c'est T-1. C'est T-1. Ok, donc... Ah, oui, oui. Ok, donc maintenant, ce qu'est-ce que c'est bon pour ? Alors, let me expliquer ce que vous pouvez faire avec ça. Donc, maintenant, je vais expliquer... Ok, donc, ce qu'est-ce que c'est bon pour ? En fait, l'intérêt de cette représentation est d'extender la représentation du processus sur les graphes infinitaires. Donc, si vous pensez à la mesure là-bas, la mesure initiale, la mesure de la mélange, c'est défini pour les graphes finales. Et ce n'est pas un job facile d'extender les graphes infinitaires. Parce que vous avez une mesure non-locale, parce que vous avez la courbe de la détermination. Et donc, vous n'avez pas d'argument d'extender ça de manière bonne. Donc, vous pouvez prendre les limites du week, mais avec les limites du week, vous ne pouvez pas... Vous pouvez faire presque rien. Donc, vous n'avez pas de l'ergotisité des limites, non... Et cette représentation par la beta, ce sera bien... de... de donner une représentation du processus sur les graphes infinitaires. Donc, l'aim, maintenant, c'est de donner une formulae similaire comme celle-ci. Donc, vous voulez représenter le processus sur les graphes infinitaires... Donc, maintenant, vous voulez externer cette représentation par la function de la graine, mais sur les graphes infinitaires. Et c'est là où... Et c'est là où il y a des subtilités qui dépendent sur le fait que le travail est transcendant ou pas. Et le processus de transcendance sera lié à l'existence du stade délocalisé ou pas du stade délocalisé, à la sphère de la basse. Donc, par exemple, je vais faire un remarque. Tout ce que nous faisons, c'est que la sphère de la basse... C'est... Non, c'est pas que la sphère de la basse, mais... quand le graphe... Ok, je vais le faire remarquer. Excuse-moi. La mesure que vous avez justifiée sur la nouvelle graine de la graine est-ce que vous vous avez décidée de la graine infinitaire ? Oui, c'est ce que j'allais faire. OK, vous ne pouvez pas essayer la mesure comme ça. Mais vous pouvez prendre l'extension de l'extension de la mesure et ça va converser avec un processus de randonnage. En fait, depuis que vous avez une dépendance, ce n'est pas surprise que vous pouvez l'extender à l'infini graph. Donc, maintenant, je vais expliquer comment... B, on dirait, l'extension à l'infini graph. Donc, nous aimerions d'abord l'extender à l'infini graph et c'est plus important d'extender cette représentation. Donc, pour donner un bon sens à l'infini graph de l'infini graph. Donc, à un moment, nous aimerions prendre la limite de ces fonctions de l'infini graph et comprendre ce qu'elles sont sur l'infini graph. OK, donc, la chose importante ici est de prendre... OK, donc la première étape est simple. Vous prends des subventions en augmentant. Donc, suppose que vous en avez un ZD, OK, simple. Et vous en ajoutez un VN, qui est la subvention de la dimension n, si vous voulez. Donc, la première étape, bien sûr, c'est de définir ceci par l'approximation. Mais le point important est de choisir une bonne condition de l'infini graph. Et en fait, la condition de l'infini graph n'est pas la bière perte C'est l'un où vous avez juste coupé la boxe. La bonne condition de bondage est la condition de bondage de wire. Qu'est-ce que ça veut dire ? Ça veut dire qu'on prend un extra point delta N. Et vous supposez que ce point delta N est connecté à la boxe par toutes les agences qui connectent la boxe au complément. Oui ? Donc c'est la condition de bondage de wire classique. Ça veut dire que toutes les agences qui exigent, vous regardez les agences qui exigent la boxe et vous considérez que tous les agences sont connectées à un extra point avec la même valeur que les agences initiales. Oui ? Donc ça veut dire que tout de suite, vous collez tous les agences au-delà de la boxe à un point. Donc c'est la condition de bondage de wire. Et... Donc on définit gN, gT-N, c'est ce graph de wire avec une condition de bondage de wire. Et la chose est qu'avec cette condition, si vous avez ce graph, vous pouvez définir le beta sur ce graph. Le beta est definit sur un graph N, donc vous pouvez définir le beta N sur le graph de wire. Et la chose, c'est que celui-ci a une bonne compétibilité de propriété. Donc la première étape est de remarquer, c'est simple, que si vous regardez le beta N plus 1, mais vous le restrez à vN, alors ça a la même valeur que le beta N restrécité à vN. Donc remettez que le beta N n'est pas definit sur vN, il est definit sur vN plus le delta N. Ok ? Mais ça veut dire que si vous avez deux boxes, mais si vous regardez celui-ci restrécité à ces boxes, ou celui-ci restrécité à ces boxes, alors ils ont la même valeur. Ok ? Et c'est très facile de la transforme de Laplace. Vous avez juste écrit la transforme de Laplace, et c'est presque obvious. Ok ? Donc ça veut dire que par la extension de Kolmogorov, par la extension de Kolmogorov, ça veut dire qu'il existe, vous pouvez définir le beta sur le graph infini. Est-ce que c'est vrai ? Non, c'est vrai. C'est complètement général. Que ce soit un graph, une approximation finie, une chose douce, et puis c'est stable. Oui. J'ai juste essayé le D pour avoir une picture, mais ce n'est rien qui dépend maintenant sur le graph. Donc vous pouvez définir sur Kolmogorov le graph infini, que le graph infini restrécité à vN en bas à vN. Ok ? Donc c'est la première chose. Maintenant, la plus difficile chose est d'extender la fonction de la graine. Ok, donc, maintenant vous définissez la graine. C'est la fonction de la graine. Je ne sais même pas que d'autres physiques, d'autres physiques, d'autres professionnels. Quoi ? De la compatibilité ? Oui. Dans l'autodécité, vous avez, par exemple, oui. C'est parce qu'à un moment, la graine sont des fonctions locales. Elles ne sont pas... Si vous regardez dans le fil, oui, la graine est IID, donc ça fonctionne. Non, non, mais si vous regardez dans le fil, vous n'avez pas cette propreté. Donc, ok, donc la question maintenant c'est, vous regardez la graine sur le graph, sur le graph de la graine, et vous voulez comprendre ce qui est limité, parce que si vous entendez ce qui est limité vous pourrez comprendre comment représenter le processus sur le graph de la graine. Et c'est là qu'il y a une dichotomie entre la récurrence et le cas de la graine. Donc vous avez la graine, donc imaginez que vous avez deux points à l'intérieur de la graine, I et J. Et puis, ok. Donc, je vais dire un mot. Il y a toujours une représentation de la graine function comme la summe sur le path. En fait, vous pouvez écrire la graine function comme la summe sur le path de I et J du produit de W divisé par le produit de la beta. En fait, vous pouvez, ok, vous pouvez dire que c'est, si vous avez un path, vous avez 1 sur beta, beta 0, ok, sigma 0, sigma 1, 1 sur beta, sigma 1, etc, beta, sigma 1, sigma 2, etc. Donc vous avez une représentation sur la graine function. Ok. Donc maintenant, il y a une décomposition utile, qui est en fait classique, c'est que ce que vous voulez faire c'est de décomposer cette graine function dans la graine function qui reste dans la graine qui ne touche les extra points puis vous avez un path qui va à delta n et puis ils font des loops à delta n et ils vont retourner ok. Donc vous avez une décomposition de la graine function dans 2 parties. La partie qui correspond à des paths localisés dans la boxe et le path qui va à les extra points. Donc il y a 2 termes, 1 plus il y a 2 choses que je vais faire psi n of i qui correspond à un path qui va à delta n puis vous avez gn de delta n delta n qui correspond aux loops là x psi n de g ok. Ok. Et maintenant c'est ok. C'est pas difficile de voir que la psi n de i correspond à des paths qui vont à delta n qui correspond à la majeure de la vrjp qui commence à des points delta n. Donc si vous regardez les vrjps qui start à l'infini de quelque part donc ça signifie l'extra point puis il a une majeure et la majeure correspond à cette psi n. Ok. Donc ça signifie 3 termes, 2 termes, dans cette formule, et le point est de faire cette conversion. Et maintenant, le 3e step, ok, donc c'est un peu rapide, le 3e step c'est que ce gn ij, c'est augmenté dans n, juste parce que c'est le nombre de passes qui sont localisés dans la boite, donc si vous augmentez la boite de la boite, c'est localisé, c'est augmenté parce que c'est des termes positifs. Donc ceci est augmenté. Maintenant, la partie difficile c'est ce psi n, et la property qui est la partie importante pour tout, en fait, c'est ce psi n comme la property de Martin Gale. Et c'est un peu le magique de l'model, c'est que ce psi n, qui correspond à tout un moment, le fil de la mixation de ce VRJP. C'est Martin Gale pour la filtration générée par le beta dans la boite. Ok, donc ça signifie que ça convertit presque sûrement, parce que c'est positif, donc psi et i convergent sur un psi de psi. Ok, et maintenant il y a ce dernier terme, et par un miracle, ce dernier terme est indépendant de l'autre, et c'est 1 par 2 gamma. Donc maintenant, laissez-moi dire le résultat. Ok, donc avant, ok, donc c'est avec Zeng Céline, ça signifie que ok, donc ça signifie que le Gn, il converges Gnij, il converges presque sûrement à Gnij plus un variable indépendant, ce qui a un gamma comme un 1⁄2 times some function. Et et donc, qu'est-ce que je dois dire maintenant, est-ce que il y a quelque chose sur ça ? Est-ce que c'est le 1er ? Le facteur que psi est equal à 0. Donc en fait, c'est facile de voir quand vous avez l'ergotisité, comme en Z, c'est facile de voir que l'un des psi est strictement positif partout, ou presque sûrement, ou c'est 0, ou presque sûrement. Ok, et le facteur que c'est 0, c'est équivalent à le facteur que le VRJP est récurrent. Ok, donc en cas de transformé, ça signifie que vous avez quelque psi. Et le 2e point, c'est que c'est facile de voir par construction que le psi est un généralisé à Gn function. C'est un état d'existence de h'beta. Dans le sens que h'beta psi est equal à 0. Et en fait, vous avez polynoméles contrôles sur le growth de psi. Donc c'est ce qu'on appelle ok, c'est un terme pour état d'existence. Et cet état G, c'est correspondant à la function de h'beta, dans un sens classique. L'état G de beta, c'est le limiter de h'beta plus epsilon minus 1. Ok, vous regardez le potentiel plus epsilon, et vous utilisez le limiter epsilon tend à 0. Donc c'est une naturelle function de Gn function sur l'infinicrat. Ok. Donc la conclusion de ça, et enfin, c'est un mélange de procès de Markov jump avec le right jump, même par cette formule. Ok, donc ok, j'ai 2 minutes. La conclusion de ça, c'est que vous avez une représentation du procès d'infinicrat en termes de cette function. Ok, donc vous voyez que la chose surprise est que vous avez un variable extra random 1 over 2 gamma, qui est complètement indépendant du potentiel. En fait, le 1 over 2 gamma est indépendant du potentiel. Et en termes du procès, c'est entre le fait que c'est 0 et le fait que le VRJP est récurrent. Ok. Et ok, je vais dire que de cette property avec l'estimage de Merkel et de Roles, ok, ça implique en particulier que l'ERW est récurrent en dimension 2. Avec l'estimage de Merkel et de Roles. Vous pouvez dire en quelques mots que vous avez cette représentation à l'arrivée. Donc maintenant, le estimage de Merkel et de Roles dit que vous avez un degré polinomiel et le degré polinomiel n'est pas compatible avec le fait que vous avez un component PSI qui sera stationnerie et ergodique. Parce que ça signifie que le GN sera plus grand que ce PSI. Et ce PSI est stationnerie et ergodique. Et c'est possible, c'est pas possible d'avoir un degré polinomiel stationnerie et ergodique. Donc ça signifie que le PSI sera plus grand si vous avez un degré polinomiel si vous avez un degré polinomiel, alors vous êtes récurrent. Même si vous ne savez pas si vous êtes positif ou récurrent, vous savez que vous êtes récurrent. Ok, donc maintenant, de quoi ? Non, le GN n'est pas stationnerie. En fait, le GN n'est pas stationnerie parce que ça dépend du premier point. Je veux dire, c'est stationnerie en termes de deux points. Mais si vous voulez, en général, ce que vous regardez c'est que vous fixez ce GN et que vous voulez comprendre le fil dans le second ordinateur. Donc ça signifie que c'est pas stationnerie dans le second ordinateur. Mais vous avez un component qui est stationnerie dans le second ordinateur avec le PSI. Donc ça signifie que dans cette représentation vous avez deux termes. Vous avez un terme qui correspond à l'absence qui correspond à le PSI qui est le state externe qui correspond à ce que ce PSI est la mesure de mélange qui commence par l'infinité. Parce que c'est contrôlé à la limite de cela. Donc ce PSI correspond à la mesure de mélange qui commence par très loin. Et dans cette représentation, vous avez deux termes. Vous avez un terme qui correspond à la condition de mélange pour être récurrent. Vous pouvez le faire précis. Et laissez-moi... Ok, laissez-moi... Excusez-moi, je vais vous donner quelque chose de l'un des deux. D'accord. Oui, Merkel et Roles, ils contrôlent quelque chose d'exponential de G0 J divided by G i0 to some power one fourth and they have polynomial decrease of that. Mais en fait, from that it's not possible to have something below which is stationary. It's a rather easy argument. Ok. Can I take just one minute to comment on the meaning in terms of spectral theory which is something I don't understand. So if you look at the infinite graph so you have this Schrodinger operator on the infinite graph H beta so it's positive on L so you see that the spectrum is included in R plus I'm pretty sure that it's equal to R plus but we didn't prove it the spectrum. At least we know that we have accumulation of Eigen function at 0 and what we proved there is that if the VRGP is transient which can be the case then you have one delocal state at the origin which of course does not give any information on the nature of the spectrum on any interval. So the question now is ok. We don't know whether in the case the VRGP is transient then you have delocalization on some interval at the bottom of the spectrum or not. And let me make a second remark that there's something surprising compared to Anderson localization is that in general at the edge of the spectrum you should have localization and here it seems to be the contrary but there's one good reason for that is that the way the Eigen value accumulates but the spectrum is not as for Anderson. For Anderson there should be leafsheet stale so it means that the number of Eigen state at the origin should be exponentially small and here it's the contrary. In fact you have some accumulation of Eigen value at the origin. So how can you see that? Is that the green function at the origin it's 1 over 2 gamma where gamma is a gamma 1 half so it means that the probability that the green function at the origin is larger than t it has a tail which is t 1 half so this is not standard for Schrodinger because normally you have something which is a tail 1 over t so you have more it means that you have more Eigen values close to the bottom of the spectrum then you should have for standard Anderson model inside in the bulk so there's a concentration of Eigen values at the origin ok but we don't know whether this... ok we don't know what should be the... it's not clear what it should be at the bottom we don't know if it's a special effect of the origin or if there's we don't know if the localization at the bottom means that there's localization in small interval or not ok, thank you Are there questions from this lecture or previous lectures so is this one dependent thing does it also go for 3 sets of vertices 4? 3 sets of vertices what do you mean 3 sets of vertices? so v1 v2 yes yes yes yes it's completely any subset that have no any family of subset that have no connection it's... the thing which is not clear is that ok I think it's not... the beta are not a function on an independent function on the edges because it's easy to create one dependent it's easy to create a one dependent potential by taking a function of if you take independent on a variable on the edges and you take a function of the neighboring edges that's obvious but I think it's not this type of one dependent I don't think that it's a function of independent variables on the edges I mean I have no proof of that but I at least... the other thing is these vanas are just supported on they just have to be greater than the degrees that's all or greater than degrees over 2 no no no they just have to be smaller so it means that this is not a mark of operator so if you look at Laplacian plus ok you can center so that you have Laplacian so it means that if you... ok imagine that you have the standard Laplacian W equal 1 then you could look at plus minus Laplacian but this can be positive or negative 2 beta minus d that's the diagonal of the matrix of the Laplacian so you put the Laplacian now to have a probabilistic interpretation then the thing is that this can be either positive or negative so in this sense it's not a mark of operator because the potential is not the potential is not positive if you write it in probabilistic term it's not positive you take the Laplacian and you subtract the negative diagonal it won't be positive anymore ok this one is positive or negative ok ok the minus Laplacian is positive ok I should write plus sorry that's a plus yes let's say it's a probabilistic Laplacian that's the positive Laplacian so you have 2d on the diagonal if you add positive things to the diagonal of course it will be positive no this is positive what I mean is that this can be negative so what I mean is that if you want to have a probabilistic interpretation in general you have Laplacian plus v where v is positive because that's a killing rate to the what I mean is that this this amyltronian is not of this type because the v can be a negative or positive so in probabilistic term it means that they can be killing or creation in your operator so it's not the probabilistic it's not you're saying even if you subtract something from some diagonal it can still be a positive yes it can be still positive the thing is that that's why the beta needs to be correlated somehow because it can be a positive you can actually have potentials where the potential becomes negative but the spectrum is positive yes but if you put a negative term then you need to compensate it by a positive term as well that's why you have at least one dependence on the beta otherwise it will not work 5 questions 5 questions you conditioned the construction of beta the measure on beta on the fact that each beta was positive yes but here it appears that for all choice of beta or at least maybe almost surely the spectrum goes down to zero for me it's not it's not obvious you conditioned on the fact that each beta was a positive measure a positive operator it's strictly positive there's no reason why it should go down to zero yeah actually we didn't prove that the spectrum we didn't compute the spectrum but here if you find this in the transient case if you find this extended case at zero yes the definition was for actually finite volume yeah yeah that's for finite volume but if you look you integrate and then you see that you have one over square root of the determinant so you want to put eigenvalues at the bottom somehow actually there's no reason not to put eigenvalues at the bottom for finite matrices I don't expect to have a spectrum going up to zero no no what I mean is that for for finite graph of course it is strictly positive but if you look at the distribution of the eigenvalues then you see that the green function is always one over two gamma so it means that it has the t to the minus one half so the probability to find an eigenfunction which is close to the bottom to zero is large I mean it's larger than if you take a Schrodinger operator on a box where it's one over t the probability to find a in a small interval of size t when your graph is a tree do you understand the balance better or when it's a line in fact the strange thing is that when it's a tree ok e i c s s ok when it's a tree then in this case it's a sum of independent things that's the one correlation is simple so in the case when it's a tree then what you have is that beta i it's the sum u g minus u i but in this case in the case of the tree these things are independent the gradients of this u are independent so in this case it's a sum of independent things on the edges so this things lives on the edges and the beta is a sum of independent things on the edges which explains the one dependence but except from that you understand the beta but ok you don't in fact the representation you get by the thing that you have on tree does not correspond to the representation you get there so there's strange thing different representation ok