 Merci beaucoup d'être revenu une deuxième fois, donc juste pour qu'on se souvienne un tout petit peu où est-ce qu'on avait fini le cours la semaine dernière, donc on avait cette notion de courant et on était arrivés à écrire les fonctions de partition d'un graph, enfin, d'easing, puis vous vous rappelez, il y avait un ensemble de, donc qui a été défini par la somme des produits pour x appartenant à A de sigma x fois l'exponentiel de moins beta volume étonnien. Donc cette quantité, on était arrivés à l'écrire en termes de courant aléatoire en disant que c'était de puissance le nombre de sommets dans mon graph, fois la somme sur les courants, donc les courants je vous rappelle, c'est tout simplement des fonctions qui vont des arrêtes dans les entiers, dont les sources, l'ensemble des sources c'était exactement A d'un certain poids que je vous rappellerai un peu plus tard quand on l'utilisera pour le courant. Donc c'était une somme avec des poids sur les courants et je vous rappelle que la définition de source, un sommet est une source si la somme des courants sur les arrêtes incidentes est un père. Et donc ça, ça permettait en particulier une des conséquences de ça, c'était que si on regardait la moyenne des spins sur l'ensemble A, alors c'était juste le rapport entre la somme sur les courants dans les sources A. Je ne fais que rappeler ce qu'on a fini la semaine dernière, donc c'est parfait, enfin ce sur quoi on a fini la semaine dernière, donc c'était un rapport de deux sommes sur des courants, d'accord, puisque c'est tout simplement la fonction de partition, c'est-à-dire Z de l'ensemble vide, enfin Z de A divisé par Z de l'ensemble vide, donc on obtient bien 7 sommes divisé par la même somme avec A qui est l'ensemble vide. On était arrivé là et il y avait un petit problème là, enfin il y avait quelque chose qui n'était pas tout à fait satisfaisant, qui était le fait que ce n'est pas vraiment écrit comme la probabilité de quelque chose, parce que l'ensemble sur lequel on somme en haut n'a rien à voir avec celui sur lequel on somme en bas. Donc le but là, dans le début de ce cours, ça va être d'essayer de pallier à ça en introduisant une nouvelle technique et qui est en gros la grosse technique pour ce qui est courant aléatoire. Donc petit B, ça va être le switching MEMA, je vais garder la dénomination anglaise. Ce switching MEMA il va exactement en fait nous permettre de se débarrasser du problème ici du fait que les sources ne sont pas les mêmes. Donc l'idée du switching MEMA ça va être de pouvoir en fait quand on a une paire de courants et non pas seulement un courant, faire parcer des sources qui sont sur un courant à l'autre courant, c'est-à-dire intervertir les sources entre deux courants. Je vais directement je pense vous énoncer le LEM, donc ce fameux switching MEMA. Donc ça va concerner deux courants et l'idée ça va être donc si je prends A inclus dans VG et puis aussi X et Y deux autres éléments de VG, je vais juste l'énoncer pour une paire, il y a des versions un tout un peu plus générale mais on s'en servira pas donc restons dans quelque chose d'assez simple. Si je fais la somme sur les courants, donc je vais prendre un courant dans les sources CA et l'autre courant ces sources vont être exactement XY. Donc je regarde W de N1, W de N2 et puis il y a Betta, n'oublions pas. Et ce que je vais refaire c'est que je vais regarder une certaine observable de la somme des deux courants. Donc je vais regarder F de N1 plus N2. Donc ça va être également vrai pour toute fonction F qui va de l'ensemble des courants, donc de N2G dans R. Donc ça c'est la première somme que j'ai envie de considérer et j'aimerais intervertir, c'est-à-dire j'aimerais que les sources qui sont sur ce courant N2 finissent sur le courant N1. Et pour faire ça, donc soyons optimistes, disons qu'on arrive à faire ça. Donc on arrive sans rien payer à écrire ça comme ça. Donc mon but, c'est d'expl... hop là, ça tombera pas plus bas. Mon but serait d'essayer d'avoir aucune source sur le deuxième courant et donc tu coups, on peut faire ça en fait. Pensez si j'avais un courant avec des sources A et les courants avec des sources AB, la somme des deux courants va avoir des sources A, A, delta B, la différence symétrique entre les deux et non pas l'union. Vous êtes d'accord si vous prenez deux courants avec des sources XY quand vous faites la somme, il n'y a plus de sources du tout. Donc ici, je vais prendre symétrique différence avec XY et donc ça, ce serait parfait si on avait quelque chose écrit comme ça. Alors juste ici pour vous montrer qu'une égalité comme ça a peu de chance d'être vraie, pensez qu'A c'est aussi XY. D'accord, j'ai XY, j'ai XY. Du coup, on l'a dit, un courant avec des sources A et XY a forcément un chemin qui va de XY. Mais du coup, ici dans la somme de N1 plus N2, il y aura forcément toujours un chemin qui va de XY. Or si on fait la différence symétrique ici, on va se retrouver avec pas de source, pas de source. Ici, on va sommer sur plein de fonctions. Beaucoup d'entre elles, les courants ici n'auront pas de chemin entre XY. Donc vous voyez déjà que par exemple, si vous prenez une fonction qui vaut zéro sur tous les courants qui ont un chemin entre XY et qui est non zéro sur tous les autres qui est strictement positive, là je dois avoir quelque chose à priori de strictement positif et ici quelque chose de zéro, ça ne peut pas marcher. Il y a quand même une condition avec X connecté à Y et la magie du switching LEMA, c'est que c'est la seule condition qu'il y a. C'est-à-dire que ici, il faut juste rajouter l'indicatrice que X est relié à Y dans N1 plus N2. Alors quand je vais vous dire un tout petit peu ce que j'entends par ça, ce que je vais faire est relier à, on voit bien ça quand on regarde des configurations de percolation, d'accord, quand on voit un sous-graphe. Donc ce qu'on va faire, c'est que ici je vais rajouter une petite notation, un petit chapeau comme ça. Donc définition, N chapeau de E, ce sera 1 si N E est strictement positif et zéro sinon. Donc ça veut dire quoi ? Ça veut dire en quelque sorte, je peux voir d'un courant, je peux lui associer une configuration de percolation ou si vous voulez un sous-graphe du graph initial en disant une arrête est ouverte si le courant est positif et elle est fermée si il est non zéro. Et donc maintenant j'ai un sous-graphe d'arrête ouverte et je regarde si j'ai un chemin ouvert entre X et Y. C'est ça que j'entends par ça. Est-ce que c'est clair pour tout le monde ? Alors oui, donc là ici, ça veut vraiment dire si j'ai X et si j'ai Y qui est là et que je regarde la trace de la somme de N1 et N2. Donc j'ai mes courants comme ça qui font des choses comme ça. Je veux qu'il y ait un chemin de X à Y donc que je puisse aller de X à Y en utilisant que des arrêtes pour lesquelles la somme des deux courants est strictement positive. Alors essayons de montrer ça. Donc ça je vais appeler ça gauche et ça ça va être droite. Ce qu'on va faire c'est qu'on va essayer d'écrire, on va écrire petit N, ça va être N1 et petit M, ce sera N1 plus N2. On va faire un changement de variable comme ça. Et regardons la somme de gauche. Bon, donc la somme de gauche, donc c'est la somme sur N1, les sources de N1, c'est A, les sources de N2 c'est XY. Excuse-moi, on va prendre N2 peut-être, ce sera plus simple. Donc M, dans ce cas-là, ces sources c'est bien la différence symétrique entre N1 et N2. Donc entre A et XY, excuse-moi. Et puis je vais avoir N qui est plus petit que M, forcément puisque avec cette construction et je dois avoir que petit N, ces sources, c'est XY. Après j'ai F2M, parfait. Et maintenant j'aimerais exprimer Wbeta de N1, Wbeta de N2 en termes de Wbeta de M. Alors faisons juste dans notre tête, peut-être ici là, un petit calcul. Donc Wbeta de N1, Wbeta de N2, c'est le produit sur toutes les arrêtes E de beta puissance N1E plus N2, enfin N1 plus N2E, sur N1E factorial, N2E factorial. Vous êtes d'accord, ça c'est juste la définition. Mais vous remarquez que là on a beta puissance Me, donc ça c'est très bien. Et ici on a quasiment un coefficient bignoméal, si on multiplie par Me factorial on divise par Me factorial. On va obtenir exactement Wbeta de M fois ce que je vais appeler M parmi M, où là j'entends par là le produit sur toutes les arrêtes E de N1E, exactement la même chose. Donc du coup ici c'est parfait, j'écris Wbeta de M et j'ai donc un N parmi M. Donc ça c'est le membre de gauche et je vais le réécrire, je vais juste regarder, je vais fixer M, donc ça va être A delta XY, j'ai F de M décidément F de M, Wbeta de M et ici j'ai la somme sur N plus petit que M, N parmi M. Alors quelle est l'interprétation de ce terme là ? Il y a une interprétation combinatoire très jolie. Pour chaque donc j'ai un graphe, donc j'ai un ensemble d'arrêtes, à chaque M je peux associer naturellement à un graphe M ronde, défini comme dessus. Pour chaque arrête je vais mettre autant d'arrêtes que ME. Donc si ça c'est l'arrête E et que ME vaut 5, je vais mettre 5 arrêtes entre ces deux sommets. Si ME vaut 0 je mets aucune arrête etc. Donc une arrête disons 2 arrêtes etc. Je crée comme ça un multigraphe dont l'ensemble des sommets est VG et puis l'ensemble des arrêtes est quelque chose où je multiplie des arrêtes entre chaque et que c'est M. N parmi M ici, enfin cette chose là en fait ça va compter quoi ? Ça va compter exactement le nombre de sous-graphes de M qui est exactement degré un père en X et Y et degré père partout ailleurs. Vous pouvez vérifier, ça revient exactement à ça. Ce que le NE parmi ME c'est exactement le nombre de façon de choisir NE arrête parmi les ME arrêtes et après la condition ici va correspondre exactement à dire que le degré est le bon etc. Donc cette chose là, vous pouvez essayer de regarder ça vous-même, c'est peut-être beaucoup mieux si vous essayez de vous convaincre, c'est le nombre de sous-graphes N de M donc avec le même ensemble de sommets mais pas le même ensemble d'arrêtes tel que on va dire déron N égal X Y dans le sens où là ce que j'entends par déron N c'est vraiment l'ensemble des arrêtes qui ont un degré inter. Voilà donc ça c'est une première interprétation complètement combinatoire, ça vient vraiment de la forme du poids W beta et de rien d'autre, c'est une interprétation combinatoire de notre terme. Maintenant si je prends le terme de droite et que je fais la même chose allons un tout petit peu plus vite je vais de nouveau avoir la somme, de nouveau le N1 plus N2 va avoir comme ensemble de sources A delta XY, je vais avoir F de M, je vais avoir un W beta de M et là je vais avoir quelque chose d'un tout petit peu différent, je vais avoir l'indicatrice de X relis à Y dans M bar, dans M chapeau, fois la somme, cette fois pour les N plus petit que M mais sans source de N parmi M et donc là de nouveau j'ai la même interprétation c'est l'ensemble des sous-graphes de M qui ont cette fois aucune source, tous les degrés sont pères. Donc si je veux prouver le résultat il me suffit de montrer que cet ensemble là a le même cardinal que cet ensemble là, donc l'ensemble des N inclus dans M, donc là c'est vraiment l'ensemble des events subgraphs donc des graves dont tous les sommets ont de vrais perts. Oui. Alors ça revient à faire la chose pour la somme mais c'est vraiment ça que je veux. Là quand tu fais le changement de variable N égale N2 et M égale N1 plus N2 c'est vraiment le terme de droite ou exactement ça. Effectivement on s'en sert pour la somme mais c'est vraiment ce que j'ai comme objectif c'est ce terme là. Voilà exactement, c'est équivalent à dire pour la somme. C'est-à-dire ça plus cette condition là que donne cette possibilité là seulement. Alors pourquoi il y a une égalité entre ces deux choses là, est-ce que quelqu'un a une idée ? Bon déjà il y a un cas simple. Imaginons que X et Y ne sont pas reliés dans M. D'accord ? Donc si X n'est pas relié dans M chapeau à Y, c'est-à-dire dans M rondes si vous voulez, s'il n'y a pas de chemin entre X et Y dans M rondes. Donc ce terme-là va au zéro. Donc on appelle le long petit D. Donc petit D égale zéro, ça c'est clair puisque petit D c'est ça. C'est ça x cette chose là, excusez-moi. C'est de l'indiquatrice x ça. Donc c'est au zéro. Mais ici petit G, ben petit G veut également zéro. Pourquoi parce que si vous avez comme ensemble de sources seulement X et Y, il existe forcément un chemin entre X et Y pour n'importe quel graphe N dont les sources sont X et Y. Si on n'a déjà pas dans M, il n'y a pas dans quelqu'un sous-grape de M. Mais donc G égale zéro car si vous avez ça égale X et Y, cela implique X est relié à Y dans N et donc du coup dans M. Voilà. Donc dans ce cas-là, c'est zéro dans les deux cas. Maintenant dans l'autre cas, si X est effectivement relié à Y dans M, comment on peut voir que en fait les deux ensembles ont le même cardinal ? Il y a une bijection très simple entre les deux. Enfin il y a beaucoup de bijection très simple entre les deux, mais il y en a une en particulier qui consiste à dire prenez n'importe quel graphe K, donc prenons K plus petit que M, telle que l'ensemble des sources, c'est X et Y. Tout simplement vous pouvez prendre un chemin qui va de X et Y, vous savez qu'il y en a un, donc vous en prenez un. Et vous prenez la transformation S qui a N associe N différence symétrique avec K. C'est une évolution, donc c'est bijectif et dans le cas présent, si j'ai aucune source dans N, je me retrouve exactement avec des sources avec X et Y qui est vice et versant. Donc il y a une bijection entre les deux, donc et bijectif. Donc en fait les deux ensembles ont le même cardinal, donc J égale. Voilà, c'est tout simplement, c'est la fin de la preuve, il n'y a pas plus que ça. Maintenant qu'est-ce qu'on peut faire avec ce switching les mains ? Première chose par exemple, corollaire, si je prends le carré d'une corrélation entre deux spins X, Sigma X et Sigma Y. Ça, ça vaut quoi ? On voit même que ça va être un corollaire qui contient la preuve, donc c'est parfait. Ça, ça vaut Z, on va peut-être écrire la preuve et en écrivant la preuve on aura l'énoncé, donc Sigma X, Sigma Y au carré. Donc c'est Z de XY au carré sur Z de l'ensemble vide au carré. J'enlève le G, le beta, enfin toutes les dépendances qui sont évidentes. Donc ça, si je l'écris sous la forme du switching les mains, c'est tout simplement la somme sur déron N1 égal X Y et déron N2 égal XY de W beta N1, W beta N2 divisé par la même somme, mais cette fois sans source. Vous êtes d'accord ? Mais maintenant vous voyez bien que si j'utilise le switching les mains sur la quantité d'en haut, si j'échange les sources ici, la différence symétrique va devenir 0 donc je ne vais bien avoir aucune source et la seule chose que je dois rajouter c'est l'indicatrice que X et Y sont reluées dans N1 plus N2. Donc cette chose-là, c'est tout simplement la somme sur déron N1 égal déron N2 égal l'ensemble vide de W beta N1, W beta N2 fois l'indicatrice de X redis à Y dans la somme, le tout divisé par cette somme. D'accord ? J'ai juste initialisé, ça c'est le switching les mains. Et maintenant il me semble que je vous avais défini une loi sur les courants qui était proportionnelle, la loi d'un courant était proportionnelle à son poids W. Donc là comment je réinterprète ça en termes de courant, en termes de cette loi ? Là le produit des deux vous voyez c'est prendre juste deux courants indépendants donc ça va être exactement P. Donc si je me souviens bien d'utiliser une notation comme ça pour dire ça c'était la loi sur les courants sans source sur le grave G à température inverse beta, donc ça c'est avec la loi de N1. Je vais prendre le produit avec la loi de N2 donc je prends deux courants indépendants et je regarde est-ce que X est relié à Y dans N1 plus N2. Donc maintenant j'ai vraiment une interprétation en termes de courants aléatoires. Voilà. Le prix à payer c'est qu'il faut passer par le carré des corrélations et c'est un bon prix à payer parce qu'en fait naturellement vous verrez un peu plus tard on va en reparler. C'est souvent les carrés qui sont satisfonds de bonne relation. Ça va ? Donc en quelque sorte là maintenant on a un modèle de percolation si vous voulez vraiment penser en termes de percolation pour ceux qui ont un peu l'habitude de la percolation de Bernoulli. On a un modèle de percolation qui est donné par la trace de la somme de deux courants aléatoires et les énergies et les corrélations de spin sont réécrées en termes de probabilité de connectivité pour ce modèle de percolation très dépendant lui pour peu. C'est pas du tout de la percolation de Bernoulli. Les sources vous forcent énormément de dépendance, enfin la contrainte sur les sources. Bon bah continuons dans les autres corollaires un peu. Si vous n'avez jamais vraiment travaillé avec le modèle d'easing c'est des résultats qui ne sont pas complètement élémentaires. Donc par exemple pourquoi ? Là j'aurais peut-être pu dire juste entre parenthèses une petite remarque si je regarde sigma0 plus gbeta au carré. Est-ce que quelqu'un a une idée comment ça s'écrirait probablement ? Vous vous rappelez quand on met le plus ça veut dire qu'on rajoute un sommet et il n'y a pas de contrainte sur les sources de ce sommet là. Donc là en fait cette chose là vous pouvez réfléchir rapidement ça va revenir à dire si je prends, j'avais utilisé g, je me semble peut-être pour le, si je prends deux courants aléatoires sur vraiment ce graph enrichi d'un sommet ça va être la probabilité en fait que 0 est relié à ce sommet g dans n1 plus n2. Vous pouvez vérifier c'est exactement le même calcul, ça marche de la même Il y a le grave g donc pour ceux qui n'étaient pas là c'était pas bien je me doute que vous aviez pas le choix, c'est ça il y a des gens qui venaient tous de loin Donc tous les éléments qui sont sur le bord du graph je les relis au sommet g qui lui est considéré comme étant un sommet qui ne met pas dans zd. Donc ça c'était quelque chose donc maintenant un autre corollaire c'est qu'on a défini bétacé comme étant la plus petite valeur de température inverse telle qu'il existe une magnetisation spontanée pour que ça on avait dit c'est l'infimum de ça par contre c'était pas tout à fait clair pourquoi au dessus ce serait toujours positif la magnetisation spontanée pourquoi en beta les corrélations croissent Bon bah là on va le voir de façon assez facile donc par exemple si je prends la dérivée par rapport à beta de sigma x sigma y avec frie ça ça va être positif et puis aussi mais je vais pas faire la preuve mais vous pouvez montrer exactement la même chose là c'est g, beta avec juste la corrélation avec des conditions plus on peut faire beaucoup mieux que ça mais je vais juste me concentrer sur l'essentiel donc comment on arrive à montrer ça donc ça ça justifie vraiment le fait qu'effectivement il y a de plus en plus d'ordres dans le modèle toutes ces choses là il faut savoir par exemple le fait que cette dérivée est positive il y a des milliards de façons de le faire c'est pas du tout c'est probablement pas la façon la plus simple de faire c'est pas loin d'être la plus rapide mais c'est pas la plus rapide mais en tout cas là il y a l'arrivée assez naturellement dans le cours donc j'ai pas privé de vous montrer ça alors prenons donc le terme d sur d beta de sigma x sigma y et puis je vais juste enlever le f le g le beta donc cette dérivée donc c'est la dérivée de la somme je ferai moi même le ménage après mais je rentre à 2 sigma x sigma y exponentiel de moins beta fois la somme de sigma u sigma v enfin plus beta sigma u sigma v pour u voisin de v divisé par ça somme sur sigma bien entendu donc quand on différencie ça qu'est ce qu'on obtient différentiel d'un rapport on va avoir le carré en bas et en haut on va obtenir la somme de sigma x sigma y sigma u sigma v exponentiel de beta somme de sigma u sigma v donc là c'est la dérivée du terme dans haut le tout fois donc ici si je mets au carré fois cette somme là ça c'est le terme du haut et on va avoir moins la somme de sigma x sigma y exponentiel de beta je fais ce calcul une fois en général quand on la fait une fois on n'a pas besoin de le refaire mais si on la jamais fait ça peut paraître un tout petit peu bizarre comme calcul donc somme sur x et y enfin somme excusez moi qu'est ce que je fais justement quand on la fait une fois j'ai dit si ça va faire sigma u sigma v exponentiel de beta somme de sigma u sigma v donc c'est une somme horrible mais c'est très très simple à réécrire parce qu'en fait cette chose là c'est quoi c'est la somme sur u voisin de v et là ici il y a une somme sur u et v aussi c'est la somme sur u voisin de v et donc si on somme sur u voisin de v ici on a quoi cette chose là donc là ça simplifie on va avoir sigma x sigma y sigma u sigma v vous êtes d'accord et ici donc si on sort la somme de u voisin de v on a ça divisé par la chose d'en bas c'est à dire sigma x sigma y la corrélation de sigma x et sigma y et ce terme là ici on va avoir la somme avec sigma u sigma v exponentiel de blabla divisé par la fonction de partition c'est à dire c'est sigma u sigma v donc on obtient quelque chose qui est toujours c'est toujours ce qu'on va obtenir dans ces cas là on obtient la somme sur u voisin de v de la covariance entre sigma x sigma y et sigma u sigma v d'accord et ça c'est quelque chose si vous regardez la différentielle pour la percolation de Bernoulli en fait vous pouvez toujours interpréter ça en covariance ça va être entre votre fonction x et la valeur de l'arrête la valeur ouverte ou fermée des arrêtes la somme sur ça si vous prenez le random cluster ça va être la même chose toutes ces fonctions quand on a une probabilité qui est proportionnelle à un terme de ce type là on voit toujours apparaître les covariance donc une fois qu'on a fait ce calcul en général on arrive bien à le refaire pour d'autres modèles maintenant est-ce qu'on peut utiliser le switching méma ici pour voir que ces termes là sont positifs donc par exemple idéalement que ce terme là pour tout u v et pour tout x y qui est positif donc si je prends sigma x sigma y sigma u sigma v moins le produit si je le réécris en termes de fonction de partition donc j'ai z de l'ensemble vide au carré j'ai z de x y u v z de l'ensemble vide moins z de x y z u v maintenant ici vous voyez cette chose là ici il faudrait être un tout peu précis quand je dis x y u v quand je dis que les sources sont x y u v vous comprenez bien si y et u sont égaux j'entends vraiment la différence symétrique en fait donc c'est la différence symétrique de ces quatre éléments donc ici qu'est ce que j'ai envie de faire j'ai envie de passer les sources de u v à x y les sources du deuxième courant au premier courant si je fais ça je vais me retrouver avec on va avoir toujours le z de l'ensemble vide au carré ici je vais avoir la somme sur le premier courant va avoir source x y delta u v le deuxième courant n'aura plus de sources ici je vais avoir w de n1, w de n2 et ici je vais avoir w de n1, w de n2 et ici je vais avoir l'indicatrice que u est relié à v relié à v donc là ça va me donner 1 moins l'indicatrice de u relié à v dans n1 plus n2 mais cette chose là est toujours positive donc ce terme là est toujours positive donc vous avez automatiquement que la dérivé est positive d'accord donc voilà ça c'est la fin de la preuve juste ici une remarque à essayer de retenir c'est que sigma x sigma y sigma u sigma v moins sigma x sigma y sigma u sigma v c'est en fait écrit comme la probabilité avec le premier va avoir des sources à x y delta u v le deuxième courant n'aura aucune source et c'est la probabilité du coup puisque c'est un moins c'est la probabilité que u n'est pas relié à v dans n1 plus n2 donc ça ce sera très utile dans la suite du coup pourquoi parce que là c'est ce qu'on appelle une corrélation tronquée on prend la deux observables x et y et on regarde la moyenne de x y moins la moyenne de chacun des deux termes donc c'est une corrélation tronquée et on l'a écrit en termes de probabilité de quelque chose qui se passe se passant pour la somme de deux courants donc l'une des forces de cette représentation en courant aléatoire c'est d'avoir des expressions très explicites pour les fonctions tronquées oui ? Est-ce qu'il est évident que c'est simétrique en x y éluvé ? non ça a l'air que la meilleure façon de le voir de mon point de vue c'est de passer par là c'est une bonne observation oui ? oui elles elles sont vraies en fait pour n'importe quel exactement et vous auriez pu mettre un ensemble A même ici ça ne changeait rien ça aurait pu être le produit des sigma x pour x dans A ça marchait très bien c'est une bonne remarque d'ailleurs on va s'en servir ici donc là on va vraiment mettre en avant pour tout x y il n'y a vraiment aucune contrainte voilà donc ça c'était pour les premières applications peut-être une dernière application nos propriétés ce qu'on appelle l'inégalité de Simon Lib en fait celle que je vais exprimer c'est plutôt celle de Lib mais on peut obtenir l'autre assez facilement donc prenons x prenons un ensemble S inclus dans ZD donc dans les sommets de ZD qui séparent 0 de x ce que j'entends par là c'est que n'importe quel chemin qui va de 0 à x doit passer par un sommet de S d'accord ? donc sur un dessin ça c'est un ensemble séparent je suppose rien sur l'ensemble S d'accord ? alors si je fais sigma 0, sigma x et on va dire que tout ça on va peut-être lecture dans VG excusez-moi alors sigma 0, sigma x est plus petit que la somme sur y dans S de sigma 0, sigma y g'beta sigma y, sigma x g'beta alors en fait je ne sais pas pour ceux qui sont amateurs ils ont eu un cours sur la percolation au premier semestre ce sera au deuxième ceux qui l'ont suivi pour ceux qui l'ont suivi juste une toute petite parenthèse imaginez qu'on essaie de montrer la même chose pour la percolation on veut montrer que 0 est relié à x c'est plus petit que la somme sur les y sur cette surface séparante doit projeter de 0 relié à y il faut la projeter de y relier à x ça on utiliserait quoi comme propriété on dirait l'inégalité béka on dirait si 0 est relié à x alors il existe un y sur le bord tel que 0 est relié à y de façon disjointe à y relié à x et ça ça permettra exactement d'écrire cette inégalité donc ça vous pouvez voir ça comme un équivalent en quelque sorte dans le modèle d'easing d'une application typique de la propriété béka et juste après j'aurais pas le temps de vous montrer la preuve surtout me concentrer sur ce qui arrive au point critique mais pour démontrer la décroissance exponentielle dans le cas du d'easing en fait on se sert de cette chose là donc si vous voulez, ça rappelle que les seuls modèles pour lesquels on sait vraiment bien montrer qu'il y a décroissance exponentielle ces modèles pour lesquels on a quelque chose qui ressemble à l'inégalité béka qui est présente dans toutes les preuves de décroissance exponentielle pour la percolation donc pour le modèle d'easing en fait sous jacin caché derrière ces choses là c'est le fait qu'il y a cette représentation en courant aléatoire qui a une propriété à la béka en quelque sorte voilà, ça c'était juste une parenthèse pour ceux qui n'ont pas fait le cours sur la perco ça n'avait absolument aucun sens ce que j'ai expliqué mais c'est pas grave alors, donc ce qu'on va faire c'est qu'on va regarder sigma0, sigmaY sigmaY sigmaX divisé par sigma0, sigmaX qu'est-ce que ça vaut ça réexprimons tout en fonction de partition c'est Z de 0Y Z de YX divisé par Z de 0X Z de l'ensemble vide d'accord j'ai simplifié par Z de l'ensemble vide en bas et en haut ici échangeons les sources faisons passer les sources de YX avec le second courant au premier du coup, je vais obtenir la somme le premier courant puisqu'il avait des sources à 0Y qui se retrouvent avec la différence symétrique avec YX, il va avoir des sources à 0X le deuxième courant n'aura plus de sources mais par contre, je paye l'indicatrice de X relié à Y et je divise par la somme n1 égale 0X et n2 égale l'ensemble vide donc du coup ça, si je le récris en terme de probabilité c'est quoi ? c'est la probabilité si mon premier courant a source à 0X mon deuxième courant n'a pas de sources de nouveau j'enlève toutes les dépendances qui sont évidentes la probabilité que X est relié à Y donc vraiment sur un dessin ça veut dire quoi ? c'est à dire que j'ai 0 j'ai X et je suis en train de dire qu'il y a un chemin automatiquement entre 0X puisqu'il y a des sources entre 0X mais je suis en train de dire ce chemin, il passe par le point Y c'est cet probat-là que j'estime d'accord ? bon mais l'ensemble S est séparant du coup quand je fais la somme sur tous les Y dans S si je fais la somme sur tous les Y dans S de cette quantité j'obtiens quoi ? l'espérance c'est la somme sur les Y de cette chose-là donc j'obtiens l'espérance du nombre de points dans S qui sont reliés à Y à X excusez-moi et puisque c'est séparant et que j'ai un chemin entre 0X j'ai au moins un point comme ça donc cette espérance elle est bien entendu plus grande au égal à 1 donc ça c'est automatiquement plus grand au égal à 1 je commence ensemble S donc quel que soit mon chemin de 0X il va devoir passer quelque part bon, donc ça c'était les petites applications les premières applications du lème de switching et vraiment si vous essayez vous-même de montrer ces choses-là c'est pas évident la preuve historique de cette inégalité elle est pas facile pas facile facile pas très dur mais disons que c'est pas un exercice très clairement on peut pas le donner en exercice parce qu'à partir du lème de switching ça c'est un exercice que j'aurais pu vous donner facilement oui, n'importe quel graphe voilà, n'importe quel graphe ça n'a même pas besoin d'être un réseau n'importe quel graphe on peut même mettre des interactions à longue portée on comporte très bien et il n'y a aucun problème voilà donc maintenant un petit détour ce sera juste un petit détour sur vers le comportement en haute température donc comportement pour beta plus petit que beta c alors on m'avait demandé la semaine dernière si on pouvait calculer facilement estimer facilement beta c et donc historiquement pour la percolation il y a une quantité introduite pour ça c'était la quantité suivante donc là je vais l'écrire pour le model design définissons phi tilde beta d'un ensemble S comme étant la somme pour x appartenant à S de sigma 0 sigma x et là alors dans cette section je vais tricher je vais considérer une mesure directement alors je ne vous ai pas dit comment on la définissait mais on peut définir la mesure sur zd comme limite de mesure en volume fini voilà je vais passer sous silence la difficulté pour définir ça donc définissons cette quantité là l'n s'il existe un ensemble S tel que donc un ensemble S contenant 0 fini tel que phi tilde beta de S est strictement plus petit que 1 alors dans ce cas là alors il existe une constante c positive tel que sigma 0 sigma x donc zd beta décroît exponentiellement vite en la distance donc en particulier ça nous dit que si vous voulez estimer si vous voulez estimer la beta si vous voulez avoir une borne inférieure sur beta il vous suffit de trouver un ensemble S dont cette espèce de moyenne est strictement négative excusez-moi je vais peut-être changer un tout petit peu la définition parce que ça c'est bien pour ce sera plus simple pour après et puis c'est on va plutôt mettre sur le bord de S mettons sur le bord de S ce sera mieux ce sera mieux parce que ce sera juste déjà et ensuite on pourrait l'écrire comme ça mais ce serait pas... alors essayons de montrer ce laine prenons donc on a 0 qui est ici prenons x là fixons peut-être fixons n tel que un S est inclus en lampe d'AN donc je veux montrer que 0 enfin je veux avoir une bande sur la priorité que 0 est relié à x qu'est-ce que je vais faire bah je vais utiliser ce laine là je vais dire bon bah sigma 0 sigma x c'est plus petit ou égal A, si j'écris comme ça ça va être quoi ? A phi P fin phi beta tel dA de S c'est des fois le supremum pour Y dans S de sigma 0 sigma x-y alors là j'ai triché à plusieurs endroits la première c'est que je vous ai montré ça que en volume fini bon en fait ça s'étend en volume infini il n'y a pas de problème là-dessus et ensuite ici ce que j'ai fait c'est que j'ai utilisé le phi là ici on voit bien apparaître le phi tel dA beta de S et là j'ai juste dit ici j'ai utilisé la variance par translation de la mesure sur ZD comme pour la perco et les choses comme ça vous vous doutez bien que vous arrivez à définir une mesure comme ça vous pouvez utiliser la variance par translation donc sigma y sigma x et comme sigma 0 sigma x-y et je prends le supremum pour être certain de voir apparaître phi tel dA beta de S bon mais maintenant imaginez que j'ai pris le supremum imaginez que je prends le supremum pour les x qui ne sont pas dans la boîte de taille k xn d'accord ? donc je prends le supremum sur tous les x qui sont en dehors d'une très grosse boîte kxn ou k est un entier positif ici je peux borner ça x-y puisque y forcément est dans S il est à distance au plus n du bord donc x-y qui est encore en dehors de la boîte de taille k-1 xn donc cette chose là ça va être plus petit ou égale à phi tel dA beta de S fois le supremum sur les x qui ne sont pas dans la boîte de taille k-1 xn sigma 0 sigma x si j'y taire cette relation qu'est ce que j'obtiens ? j'obtiens que tout ça c'est plus petit que phi tel dA beta de S à la puissance k dA beta de S c'est plus petit que 1 j'obtiens bien quelque chose qui décroit exponentiellement à la distance d'ailleurs on a même quelque chose d'un peu plus précis on a même une certaine vitesse en quelque sorte explicite en fonction du rayon de l'ensemble S et de à quel point S est proche enfin phi tel dA beta de S est proche de 1 d'accord ? ça c'est probablement quelque chose que vous avez fait quand vous avez montré que la décroissance exponentielle pour la percolation vous avez fait cet estimé normalement alors donc ça c'est super parce que ça nous dit du coup automatiquement que s'il existe un beta qu'il y a ça on a des croissances exponentielles en particulier beta et plus petit que beta C donc ça devrait nous donner trouver un ensemble S tel qu'on a ça devrait nous donner une bonne estime j'ai triché un tout petit peu là en fait qui est que si je vous donne juste ce critère là si vous avez une borne inférieure sur l'ensemble c'est terrible parce que là vous prenez une mesure en volume infini or si vous voulez dans un ordinateur essayer de calculer ces correlations là si c'est en volume infini vous avez très peu d'estimés sur chose donc en fait cette relation elle peut être améliorée on peut regarder la quantité suivante donc on peut également définir la quantité phi beta de S qui va être la chose suivante ça va être la somme pour X dans S pour Y qui n'est pas dans S et X voisin de Y d'accord 2 sigma 0 sigma Y sigma X excusez moi fri mais dans S donc là ça change tout c'est à dire que là vous regardez une mesure qui est sur un graph fini et il y a une estime en plus je ne me rappelle jamais si c'est tangent hyperbolique ou un moins exponentiel bon bien sûr je mette tangent hyperbolique peu importe oubliez ça ce que vous avez gagné ici c'est que maintenant vous êtes dans un ensemble fini et en fait il y a une remarque si pour un ensemble S cette chose là est plus petite que un alors il y a des croissances exponentielles des vrais critères entre guillemets de taille finie si vous voulez regarder si beta est critique si vous prenez S comme étant la boîte de taille 10 vous pouvez dans un ordinateur calculer explicitement cette quantité parce que c'est vraiment une mesure définie sur une boîte de taille 10 vous pouvez faire le calcul vérifier si c'est plus petit que un et ça vous donne une bande inférieure ok donc là c'est si phi beta de S plus petite que un alors des croissances exponentielles donc voilà ça c'était juste une parenthèse pour dire qu'en fait et les mêmes techniques permettent de faire ça c'est juste c'est plus compliqué donc je voulais pas prouver ces choses là mais on peut faire un peu mieux que cette quantité là-haut maintenant vous voyez il y a quelque chose je vous donne une application de S mais pas tout à fait du coup au point critique à beta C est-ce qu'il existe est-ce qu'il peut exister un S tels que phi beta de S est strictement plus petit que un non parce que s'il existait un S comme ça pour ce S pour un beta un tout petit peu plus grand ce serait toujours plus petit que un il y aurait des croissances exponentielles c'est l'ensemble l'ensemble des beta S tels que phi beta de S et là vraiment je mets phi et plus petit que un c'est un ensemble ouvert donc il peut pas contenir beta C et vous comprenez bien que ici enfin c'est peut-être pas évident à première vue mais on peut pas vraiment dire la même chose si on prend cette quantité là pourquoi parce que cette mesure c'est une mesure en volume infini pourquoi serait-elle continue en beta il n'y aurait aucune raison ce sera l'une des choses qu'on va montrer dans le prochain cours donc là quand on est en volume infini il y a un problème mais ça tombe bien en fait toutes les techniques elles marchent aussi elles permettent d'avoir ce critère qui là est en volume fini là il n'y a pas de problème ces quantités donc c'est ouvert donc en particulier en particulier si je regarde phi beta C de lambda N de la boîte de taille N c'est plus grand ou égal à un mais du coup ça me dit quoi ici si je prends lambda N c'est le nombre de points qui est sur le bord de la boîte de taille N la corrélation de speed entre sigma 0 et sigma x alors peut-être que je compte les points vous voyez ça ça dit juge je compte les points avec multiplicité si je suis relié à plus de points oublions ça pour un moment c'est en gros le nombre de points enfin c'est à peu près la somme sur les gars qui sont sur le bord de la boîte de taille N des fonctions de corrélation c'est plus égal à un en gros ou à un sur tangent hyperboli de beta 2D enfin c'est plus grand qu'une constante se met ça sur toute N ça vous donne que la somme pour x dans ZD de sigma 0 sigma x à beta C vaut forcément plus l'infini alors cette quantité là ça s'appelle la c'est la susceptibilité c'est forcément infini au point critique donc en particulier il n'y a pas de croissance exponentielle au point critique donc ça ça dit pas de décroissance exponentielle au point critique donc ça c'est vraiment une indication très forte en particulier qu'on devrait avoir une transition de phase continue mais c'est juste une indication à ce niveau donc ça c'est juste à retenir il n'y a pas de décroissance exponentielle au point critique alors continuons non faisons une pause on va faire une pause avec 55 minutes on va faire une pause de 10 minutes et juste après je vais vous mentionner très rapidement le théorème sur la décroissance exponentielle et comment on peut le montrer et après je vais passer à la dimension 4 essayer de commencer à manipuler les fonctions tronquées pour essayer de vous montrer que pour parvenir à vous montrer normalement que le chant enfin la théorie des chants associés est libre très bien voilà on fait une pause on reprend à 35 ça vous va ? très bien donc il n'y a pas de décroissance exponentielle au point critique effectivement on m'a fait la réflexion qui est une très bonne réflexion on a même en fait une décroissance polynomial on sait que sigma0, sigmax c'est vrai qu'en moyenne mais en fait il y a des moyens assez simples de montrer que c'est vrai pour chaque sommet donc effectivement sigma0, sigmax btc au point critique décroie plus lentement que 1 sur x à puissance des voisins voilà vous verrez qu'on va avoir une borne supérieure un tout petit peu plus tard alors donc le théorème que je vais juste vous mentionner et le suivant donc théorème excusez-moi théorème donc c'est un théorème qui a été démontré initialement par Eisenmann Barski et Fernandez et dont nous avons présenté une preuve alternative avec Vincentation donc pour ceux qui veulent valider en fait ce course que je propose c'est il y a la preuve elle fonctionne aussi pour la percoe je pense pas que vous l'ayez faite je sais pas si ça a été parce que c'est une nouvelle preuve donc c'est peut-être pas celle-là que vous avez faite en cours donc ce que je propose c'est ceux qui veulent valider vous venez me voir et puis en gros vous essayez de mettre quelque chose sur la preuve de la percoe et son application à easing voilà ça sera la validation de ce truc donc oui alors bon par contre il n'y a pas d'avantage pour c'est terrible avec tout le monde alors soit des plus grands ou égales à 2 nous avons la chose suivante si beta est plus petit que beta c alors nous avons que la décroissance exponentielle alors il existe c positive tel que des corrélations décroissent plus vite qu'exponentielle et si beta est plus grand que beta c en fait alors nous avons que la corrélation la magnetisation spontanée elle est plus grande que la racine de beta carré moins beta c carré sur beta carré donc on a en plus une borne inférieure sur l'explosion de la magnetisation spontanée donc on a quelque chose qui ressemble forcément au moins quelque chose comme ça alors je ne vais pas vous montrer ça parce que vraiment on a un temps limité en fait c'est des manipulations sur le random current et des choses comme ça et la chose importante entre guillemets c'est la chose suivante c'est de montrer on peut montrer que pour tout beta plus grand que beta on va l'appeler beta c tilde ou beta c tilde c'est l'infimum des beta tel qu'il existe un s c'est le supremum des beta excusez-moi non c'est l'infimum des beta tel que pour toutes s contenant 0 est fini on a phi beta de s plus grand au égal à 1 donc on sait qu'on a des croissances exponentielles jusqu'à ce beta c tilde par définition on sait pas si on l'a après ou non pour tout beta plus grand que ce beta c tilde ce que l'on peut montrer c'est qu'en fait la dérivée de sigma 0 plus beta au carré et plus grand au égal à 1 moins sigma 0 plus beta au carré et il y a juste une petite constante devant qui est 2 sur beta alors ça c'est quelque chose d'assez typique on essaie de montrer la décroissance exponentielle de quelque chose c'est d'essayer d'avoir des dérivées sur les quantités thermonidamiques de son modèle donc là par exemple la magnetisation je vais vous dire un tout petit peu d'où elle vient cette inégalité mais juste avant ça essayons juste de voir comment elle implique le théorème comment je vais faire j'intègre juste ça si je prends un beta plus grand que beta c tilde et que j'intègre cette équation je vais exactement obtenir une borne comme celle-ci avec beta c tilde au lieu de beta c c'est juste un tout petit calcul c'est dérivée de f prime plus grand que 2 sur beta 1 moins f donc ça s'intègre très facilement vous allez obtenir donc ça entre parenthèses ça implique que pour tout beta plus grand que beta c tilde on a sigma 0 plus beta je vais vraiment l'écrire au carré pour qu'est plus grand que beta carré moins beta c carré sur beta carré et là c'est un beta c tilde mais du coup c'est strictement positif dès que beta est strictement plus grand que beta c tilde je me répète du coup qu'est-ce que ça nous dit beta c tilde il était de façon évidente plus petit ou égal à beta c puisque en dessous on a des croissances exponentielles mais ça ça nous dit que beta c tilde il est aussi plus grand ou égal à beta c forcément puisque au-dessus j'ai tout de suite une magnetisation spontanée strictement positive d'accord donc ça nous dit que beta c est égal à beta c tilde a et qu'on a bien cette borne inférieure sur le carré d'accord donc ça c'est l'idée de la preuve surprenamment cette inégalité différentielle n'avait pas été utilisée auparavant c'est en quelque sorte la plus simple qu'on puisse imaginer en fait mais on peut la montrer donc pour ceux qu'on fait de la percolation on peut faire la même chose avec la probabilité que 0 est reliée à l'infini la dérivé de la probabilité de 0 est reliée à l'infini il n'y a pas de carré dans ce cas-là et plus grand que 1 sur beta une certaine constante fois 1 moins la probabilité d'être reliée à l'infini et dans le cas de la percolation en fait cette chose-là avait une représentation en termes défis beta de S donc laissez-moi vous donner juste là je résume parce que c'est pas tout à fait juste mais pourquoi on a cette inégalité c'est qu'en fait on peut écrire en gros que la dérivé de sigma 0 plus on va se restreindre sur un grave G parce que si vous réfléchissez la dérivé on sait pas du tout que la vraie dire elle ne l'est pas d'accord donc restrenions-nous un volume fini et mettons le carré cette chose-là en fait on peut montrer qu'elle est plus grande ou égale elle a chose suivante vous allez prendre l'espérance de 2 courants sans source indépendant d'accord donc 2 courants sans source indépendant et vous allez écrire phi beta de S ou S c'est quoi S c'est l'ensemble des c'est l'ensemble des X appartenant à G donc à VG tel que X n'est pas relié à au petit G dans N1 plus N2 et il y a juste une condition en plus ici c'est de rajouter indicatrice de 0 à partien S alors ça cette égalité elle est pas du tout facile à obtenir enfin cette inégalité elle est pas du tout facile à obtenir dans le cas de la percolation c'est 5 lignes utilisant la probabilité d'être pivot etc donc vous pouvez aller voir le papier pour ceux qu'on vit qui sont curieux dans le cas de model desing faut manipuler un peu plus mais on obtient exactement une quantité du même type donc en gros on peut exprimer on a une borne à failleur sur la dérivée d'utilisation spontanée en fonction d'une certaine moyenne de Phi Beta de S ça c'est vrai à n'importe quelle température Beta mais maintenant vous comprenez bien si je suis pour Beta plus grand que Beta 7 Ida je sais que cette quantité là est plus grande ou égale à une 6 Beta et plus grand ou égale à Beta 7 Ida donc du coup tout ça il y a une constante ici c'est Beta qui est en gros c'est là où je triche un peu c'est que c'est pas 2 sur Beta c'est quelque chose un tout petit peu différent mais résumons comme ça donc en gros si j'utilise cette inégalité j'obtiens en gros une constante fois la probabilité de 0 appartient à S c'est à dire 0 n'est pas relié à G dans cette somme de 2 courants mais ça on a vu que c'était quoi ça c'est exactement la probabilité d'être lié à G c'est le carré de la magnetisation donc la probabilité de pas être lié c'est 1 moins le carré et donc on voit bien apparaître cette quantité ici voilà je vous dis pas grand chose parce que je vous dis pas comment on obtient cette chose là mais bon c'est un petit peu si c'était un cours sur la Perco je le ferais volontiers là sur le Surizing c'est un peu plus complexe mais ce qui est très intéressant c'est que la même preuve fonctionne pour la Perco voilà donc ça c'était juste un petit détour pour vous dire ce qui se passe donc comment obtenir la décroissance exprévencée et comment obtenir la borne ce qu'on appelle la mean field lower bound donc ce racine 2 beta moins beta c maintenant on passe à la dimension 4 et plus je vous ai dit notre but là c'était d'essayer d'obtenir une version faible quelque chose qui tendait vers le résultat de Jörg et le résultat de Michael qui est de montrer la trivialité du champ dans ce cas-là donc là je vais pas montrer le résultat le plus fort possible au contraire je vais aller à l'essentiel je vais essayer de vous montrer celui qui est le plus simple mais qui vraiment monte ça pour qu'on ait le temps après de descendre en dimension de faire la dimension 3 plus la dimension 2 et essayer de montrer des choses là-dessus donc là un easing en dimension de plus grand l'égal à 5 en dimension 4 il y a des difficultés supplémentaires donc je vais remettre ça donc une des choses qui nous intéresse c'est de comprendre à quel point quand je regarde le champ associé donc on va se concentrer en gros beta égal beta critique j'aimerais pouvoir regarder donc un champ qui est défini par juste les spins à chaque sommet d'accord ça me donne une fonction de zd dans dans 0,1 enfin dans moins 1,1 et puis si je prends comme on avait expliqué la semaine dernière la limite d'échelle donc si je regarde de plus en plus loin j'obtiens entre guillemets j'ai envie de dire qu'au point critique j'aurai à la limite un genre de champ de rd dans moins 1,1 et ce que j'aimerais comprendre c'est les correlations de ce champ donc j'aimerais prendre les correlations entre 4 spins et essayer de voir comment je peux les exprimer et en particulier essayer de voir si j'obtiens une propriété qui est spécifique des champs gaussiens du gauchan free feed qui est est ce que le produit des 4 spins donc la corrélation de 4 spins est ce que je peux l'exprimer en fonction de produits de corrélation de 2 spins ce qu'on appelle la formule de vic est ce que la corrélation de 4 spins c'est égal à la somme sur les façons de faire des perring des perres de sommet des produits des spin spin donc pour ça ce que je vais faire c'est que je vais introduire u4 et donc u4 de beta mais de nouveau le beta je vais en général l'enlever ici pour simplifier les sommets je vais les appeler 1,2,3,4 d'accord parce que vous allez voir les notations où on commence à grossir un petit peu trop rapidement donc je vais les appeler 1,2,3,4 donc ça va être quoi ? 1,2,3,4 et j'aimerais voir à quel point elle est proche la de nouveau je vais mettre dans zd, je vais mettre à beta etc j'aimerais savoir à quel point elle est proche du produit 1,2,3,4 moins 1,3 2,4 moins 1,4,2,3 donc ce serait des il y aurait des correlations gaussiennes sur ça ce serait égal exactement à 0 là c'est pas égal à 0 mais j'aimerais savoir à quel point c'en est loin donc première chose c'est qu'on va essayer d'exprimer cette quantité en fonction du courant aléatoire voir ce qu'on obtient alors allons également proposition u4, 1,2,3,4 c'est égal on va pas écrire tout de suite ce que c'est on va essayer de deviner en faisant la preuve donc comme tout à l'heure on a une fonction tronquée donc on va essayer de tout exprimer en fonction de partition donc u4 1,2,3 et 4 donc c'est z de 1,2,3,4 z de l'ensemble vite parce que je vais renormaliser z de l'ensemble vide donc par la fonction de partition au carré parce que c'est ce qui apparaît dans les autres choses j'obtiens moins z de 1,2,z de 3,4 moins etc je vous laisse remplir ici alors je remplis et puis vous êtes pas obligés d'écrire parce qu'il faut que je fasse gaffe à aller plus lentement donc on a cette chose-là et maintenant qu'est-ce que je vais faire je joue à mon jeu habituel je vais passer toutes les sources d'un côté donc je vais faire passer toutes les sources sur le premier courant donc j'obtiens toujours 1,z de l'ensemble vide au carré et là je vais obtenir somme sur le premier courant il va avoir les sources à 1,2,3,4 le deuxième n'aura plus de sources du coup je vais avoir w de n1 w de n2 et là j'obtiens quoi ? ici j'ai fait passer 3,4 de l'autre côté donc j'obtiens 3 reliés à 4 ici 2 reliés à 4 et ici 2 reliés à 3 vous êtes d'accord ? alors il y a une façon beaucoup plus jolie d'écrire ça en fait vous remarquerez que si 3 est relié à 4 mais que 2 et 1 ne sont pas reliés à 4 alors même chose pour toutes les permutations de cette chose et à l'inverse si 1,2,3,4 sont tous reliés entre eux alors notez il y a 1,2,3,4 il y a des sources soit tout le monde est relié ensemble soit il y a un pairing entre les sources et ils sont pas reliés ensemble d'accord ? donc soit il y a 2 pairs qui sont reliés et elles sont pas reliés ensemble soit tout le monde est relié ensemble si il y a 2 pairs qui sont reliés mais pas ensemble il y a une de ces 3 indiquatrices qui vaut 1, les 2 autres valent 0 donc je obtiens exactement 0 ici et à l'inverse si tout le monde est relié ensemble les 3 valent 1 donc je vais obtenir moins 2 donc cette chose là en fait c'est exactement moins 2 faut à l'indiquatrice que 1,2,3 et 4 sont reliés ensemble alors c'est plutôt pratique ce qu'on va juste faire c'est qu'on va essayer maintenant qu'on a cette interprétation là et c'est juste de faire repasser 3,4 dans les sources ici pour essayer d'exprimer ça en fonction vous allez voir des corrélations de spin donc si je fais repasser 3,4 ici l'indiquatrice que 1,2,3 et 4 sont reliés ensemble je vous rappelle que ça c'est une fonction de la somme des 2 courants c'est un f donc je vais garder cette chose là quand je rebouge et j'ai bien le droit de faire passer 3,4 ici parce que 3 et 4 sont reliés ensemble dans cette chose là donc ça ici n'hésitez pas à me dire si je suis allé trop vite mais ça c'est égal à 1 sur z de l'ensemble vide au carré et ici c'est la même chose que somme sur n1 enfin il y a un moins 2 somme sur n1 égale 1,2 et n2 égale 3,4 W W 2,3 et 4 reliés ensemble donc ça c'était ma fonction f et puis j'ai juste utilisé que cette fonction f en fait de toute façon elle ne vaut 0 que quand 3 et 4 sont reliés entre eux donc je peux rajouter l'indiquatrice de 3 et 4 entre ici et faire le switching mes mains l'avantage de l'écrire comme ça c'est que je peux multiplier par z de 1,2 z de 3,4 et diviser par z de 1,2 z de 3,4 pourquoi j'ai envie de faire ça parce que j'ai envie de faire apparaître une probabilité ici du coup tout ça après avoir beaucoup bougé les mains ça nous fait quoi ça nous donne moins 2 z de 1,2 sur z de l'ensemble vide c'est sigma 1, sigma 2 z de 3,4 sur z de l'ensemble vide c'est sigma 3, sigma 4 et ici j'obtiens la probabilité 1,2 fois la probabilité 3,4 de 1,2,3 et 4 reliés ensemble donc de nouveau je suis arrivé à exprimer la fonction une genre de fonction tronquée en termes d'une probabilité exprimée en fonction des courants aléatoires donc ça c'est également possible de le faire avec la représentation que Jörg avait introduite donc là c'est vraiment là où la magie en quelque sorte intervient c'est dans la façon de le fait qu'on puisse exprimer ces fonctions tronquées en fonction de quantités naturelles de ces représentations géométriques est-ce que ça va cette expression ou pas alors maintenant j'ai une question avant d'essayer de faire vraiment une preuve rigoureuse de la chose ce qu'on a envie de dire maintenant c'est qu'en dimension 4 et plus en dimension 5 et plus là ici j'ai quoi j'ai 4 points 1,2,3 et 4 et je suis en train de dire j'envoie un je prends un courant aléatoire avec des sources à 1 et 2 et un courant aléatoire entre 3 et 4 donc s'il y a un courant entre 1 et 2 ça dit qu'il doit y avoir forcément un chemin entre 1 et 2 de même il y a forcément un chemin entre 3 et 4 et la question en quelque sorte c'est si je prends ce chemin plus les boucles comme ça est-ce que j'arrive à connecter les deux pensez à ce chemin comme étant en quelque sorte une marche aléatoire entre 1 et 2 si cette espèce d'ensemble de boucles la ressemble à une marche aléatoire si je prends deux marches aléatoires dans des positions génériques dans une boîte de taille N en dimension 5 et plus si je prends 2 points une marche aléatoire entre ces 2 points elles vont pas s'intersecter asymptotiquement en dimension 5 et plus en dimension 4 non plus dure à montrer en dimension inférieure là elles s'intersectent typiquement mais en grande dimension elles ne s'intersectent pas du coup ce terme là c'est pas totalement absurde d'imaginer qu'il va tendre vers 0 si je prends 1, 2, 3, 4 qui sont de plus en plus loin l'un de l'autre et c'est effectivement ce qu'on va montrer du coup on va montrer que asymptotiquement c'est pas vrai au niveau discret parce que c'est pas exactement un GFF mais asymptotiquement on a effectivement que cette chose-là quand elle est renormalisée par une valeur typique qui serait le produit de deux spines ça tend vers 0 c'est ça qu'on va montrer alors c'est l'intuition elle est très jolie après la traduction la preuve vous allez voir est un tout petit peu plus pénible je pense qu'on va avoir le temps de la finir aujourd'hui on va très clairement avoir le temps de la finir aujourd'hui mais elle est un tout petit peu plus technique parce que bien entendu c'est bien joli de dire que c'est comparé que ces chemins ressemblent à des marchés aléatoires encore faut-il le montrer parce qu'à priori y'a absolument aucune raison que ce soit le cas alors peut-être avant de commencer la preuve je devrais vous mentionner un résultat qui va être extrêmement important pour nous qui va être peut-être que je sais pas montrer que ça ressemble à des marchés aléatoires mais je sais montrer la chose suivante c'est le théorème ce qu'on appelle l'infrarête bande vous vous gardez en anglais et qui dit la chose suivante elle dit que je lui dis toujours la constante du coup je vais botter en touches assoucieusement en disant donc il existe une constante C tel que et je vais aussi botter en touches dans le sens que je vais juste regarder pour bêta plus petit que bêta c si je regarde la corrélation de spin entre 2 points c'est plus petit ou égale c'est 2 sur bêta peut-être je veux pas écrire quelque chose de faux donc on va mettre c sur bêta je crois que c'est 2 fois la fonction de green entre 0 et x donc ou là ça ou g de 0x c'est la fonction de green de la marche aléatoire simple sur z donc c'est juste l'espérance du nombre de visites en x pour une marche aléatoire simple partant de 0 alors ce résultat on peut le montrer mais c'est pas je vais pas le faire dans ce cours mais ça utilise la notion de reflection positivity qui a été introduite dans ce contexte by Jörg Simon Spencer je pense que c'est une bonne et donc vraiment une technique très forte et pour ceux qui sont intéressés pour ceux qui sont intéressés vous pouvez venir me voir aujourd'hui je dois partir relativement vite mais la semaine prochaine si vous voulez je peux vous parler un peu plus de ça mais je vais le faire en marche du cours donc il y a une espèce c'est magique on peut comparer les corrélations du modèle d'easing en fonction des corrélations du GFF alors il faut voir que le GFF c'est aussi un modèle de spin exactement comme le modèle d'easing donc en quelque sorte on est en train de comparer les corrélations d'un modèle de spin en fonction d'un autre modèle de spin c'est un peu moins surprenant quand on le voit de cette forme là et en plus il y a un modèle qui s'appelle 540 modèle de 540 sur le réseau qui interpelle entre les deux et en fait le GFF est d'un côté de ce modèle et l'easing est exactement à l'autre extrémité en quelque sorte c'est pas du tout comme ça qu'on montre mais on peut s'imaginer qu'en fait les corrélations sont plus ou moins monotones en suivant cette chose c'est pas du tout comme ça qu'on le montre c'est pas du tout le montrer comme ça donc magnifique technique vous allez voir qu'on va le réutiliser en dimension 3 également c'est la chose qu'on a qu'on n'a pas pour percolation si vous voulez c'est vraiment la technique qu'on a dans ce cas-là et on va voir comment on utilise ça maintenant alors donc en particulier là je vous rappelle juste ça nous donne une constante sur la distance à la puissance des moins 2 voilà allons-y gaiement parce que là c'est là que ça se complique pour moi proposition proposition moins u4 de 0 enfin de 0 1, 2, 3, 4 ça va être plus petit ou égale à deux fois la somme sur les y de sigma 1 sigma y sigma 2 sigma y sigma 3 sigma y sigma 4 sigma y donc on a une bande comme ça alors vous remarquerez que la formule de u4 vous dit que c'est positif enfin c'est toujours négatif donc ici on a un 0 plus petit ou égale mais j'ai aussi une bande supérieure sur moins u4 et vous voyez là ça commence à sentir bon parce que ici on n'a que des corrélations à deux points qu'on va pouvoir borner à la fonction de green juste après donc ce sera l'étape d'après ce sera exactement de wrap everything together pour essayer de montrer que celui 4 converges alors allons-y allons-y donc là la preuve en toute honnêteté je la trouve pas très éclairante mais elle est pas si longue que ça donc ça va aller donc on va souffrir ensemble un tout petit peu donc l'idée c'est d'essayer qu'est-ce qu'il faut que je fasse relier ensemble d'accord ça c'est mon pute donc ce que je vais faire c'est que déjà en quelque sorte j'ai un petit problème quand je regarde cette quantité là donc 1, 2, 3, 4 liés j'ai un problème j'aimerais ajouter un petit peu plus d'indépendance en quelque sorte dans ma quantité donc ce que je vais faire ce que je vais faire c'est que je vais rajouter un troisième courant je le dis toujours relié dans n1 plus n2 comme ça donc si je rajoute un troisième courant et que je lui demande rien du tout à ce courant c'est une égalité j'ai rien changé mais maintenant l'idée c'est que ici quand j'ai les sources à 1, 2 et 3, 4 ce 1, 2, 3, 4 liés dans n1 plus n2 c'est exactement la même chose que de dire 3 appartient au cluster C dans n1 plus n2 2, 1 vous êtes d'accord ça c'est juste une notation c'est exactement équivalent parce que je sais que 1 et 2 sont reliés ensemble je sais que 3 et 4 sont reliés ensemble donc bien entendu ils sont tous reliés si et seulement si 3 est relié à 1 et là ce que je vais changer c'est que je vais essayer de montrer que cette chose là est plus petite ou égale à la même probabilité mais cette fois je vais regarder la probabilité que le cluster de n1 plus n2 a une intersection non vide avec le cluster pour n3 de 2 excusez moi non pour n1 plus c'est en ça que c'est un tout petit peu voilà en plus ce qui est bien c'est que j'ai pas pris les mêmes numérotations dans le cours donc je pense que c'est absolument aucune chance que j'arrive à le faire correctement c'est pas grave donc là je fais quelque chose de vraiment bizarre c'est que ici vous pouvez voir comme j'ai un cluster donc j'ai n1 plus n2 et disons 3 et 4 là j'ai je vais utiliser 3 couleurs bleu blanc rouge c'est parfait donc rappelez-vous j'ai des sources en 1 et 2 j'ai des sources en 3 et 4 et je regarde si 3 est relié à n1 plus n2 dans la somme des 2 donc en particulier il pourrait y avoir j'ai le droit de faire des choses comme ça d'accord j'ai le droit de l'utiliser les 2 puis j'ai n3 qui se balade comme ça je vais mettre du blanc ici et un rouge là disons que n3 il fait des choses comme ça et donc ce que je prétends là c'est que cette probabilité d'avoir 3 dans ce cluster blanc et bleu et en fait plus petite que la priorité que le cluster de n1 plus n3 dans 1 donc ça je prends le blanc et le rouge intersect le cluster bleu 2 sauf que c'est pas 2 du coup ça doit être 3 j'imagine voilà ne me demandez pas pourquoi cette inégalité enfin je vais vous dire pourquoi mais intuitivement c'est pas du tout évident pourquoi il faut faire ça de mon point de vue on a envie de faire passer en quelque sorte les les boucles rouges qui servaient à rien on a envie de les mettre sur le premier et voir que en fait ça nous aide pas tant que ça que ça nous aide beaucoup excusez-moi au contraire on va le montrer mais c'est pas très très intuitif mais peut-être avant de le montrer regardons ce que ça implique alors l'avantage de faire ça c'est qu'on peut aller encore plus loin dans la folie donc ça ça va être notre notre inégalité miraculeuse continuons et rajoutons ce qu'on est en bonne voie rajoutons un autre courant un quatrième pourquoi s'arrêter en si bon c'est bon chemin et donc j'aimerais que le courant la somme des courants de N1 intersecte et puis là je vais mettre le cluster de N2 mais je rajoute N4 aussi donc je rajoute des boucles c'est encore plus grand super et je regarde si ça s'intersecte alors pourquoi là c'est clairement mieux qu'est-ce qui était bien là c'est que ça et ça c'est indépendant c'est ça qu'on a gagné en faisant cet échange alors là maintenant c'est encore mieux parce que ça et ça c'est toujours indépendant mais en plus c'est la même loi en gros c'est un terme qui est un peu de la même forme et là on va faire quelque chose d'horrible c'est qu'on va dire la probabilité d'intersecter c'est plus petit que l'espérance du nombre de points dans l'intersection a priori c'est horrible mais rappelez-vous que de toute façon on attend à ce que typiquement il s'intersecte pas donc c'est pas bien grave de faire ça donc on va faire c'est plus petit que la somme sur y dans zd alors ça on va peut-être l'appeler p parce que sinon on va pas s'en sortir ou quoi que cette chose là et là je vais dire y appartient et y appartient à l'autre aussi mais maintenant notez les choses sont indépendantes donc c'est le produit de la probabilité que y appartient à ça et re-notez ici que ici j'ai des sources entre 1 et 2 donc j'ai une source entre 1 et 2 et je regarde est-ce que y appartient au 2 mais ça c'est une quantité qu'on a rencontré juste avant c'était quoi ? voilà maintenant c'est un y c'était exactement sigma 1 sigma y sigma y sigma 2 sur sigma 1 sigma 2 c'était exactement cette quantité là qu'on avait déjà rencontré ça c'est pour celle là pour celui là j'obtiens le même terme donc j'obtiens sigma 3 sigma y sigma y sigma 4 sur sigma 3 sigma 4 bon mais je vous rappelle que c'était sigma 1 sigma 2 sigma 3 sigma 4 fois ma probat donc quand je fais sigma 1 sigma 2 j'obtiens exactement la grosse somme là bas d'accord donc en quelque sorte on balance tout le monde on balance tout ce qu'on a on rajoute un n2 on fait un échange on rajoute un n3 mais on arrive toujours à une bonne borne d'accord et ce qu'on veut c'est ajouter de la dépendance moralement probablement on pourrait directement faire le calcul là mais ce serait beaucoup plus compliqué parce qu'on n'aurait pas d'indépendance on aimerait on aimerait juste remplacer par l'espérance directement ici la somme sur les y problème c'est qu'après calculer ça ce serait plus compliqué alors il me reste à vous convaincre de cette inégalité d'accord donc voilà et ça c'est ce qui conclut donc du coup là maintenant on veut chercher donc le rapport entre les deux donc il y a une fonction de partition dans les deux cas la somme donc je veux montrer que la somme sur déron n1 égale 1,2 déron n2 égale 3,4 déron n3 égale l'ensemble vite DW il faut à l'indicatrice et là ce que je vais prendre c'est l'indicatrice de 3 n'appartient pas à c2n1 plus n2 de 1 et j'ai envie de montrer que ça c'est plus grand ou égal à la même somme cette fois n2 je vais écrire ça comme ça pour faire pour mettre en valeur un genre de switching les mac qu'on va faire et donc si j'ai échangé n2 et n3 là ça nous donne c ça nous donne toujours les produits des 3 et donc là j'ai échangé la notation n1 et n2 donc je veux que le cluster de n1 plus n2 n'intersecte pas le cluster de 3 dans n3 d'accord c'est exactement j'ai fait l'inverse j'ai pris les complémentaires ici parce que c'est des probats ça m'ira très bien et là ce que j'ai juste fait c'est que j'ai échangé n2 et n3 j'espère ne pas avoir fait d'erreur d'accord pas très j'ai quand même envie de vous donner la preuve complète parce que ce serait dommage il y a 4 lignes elles sont pas très transparentes pour moi pour Michael elles le sont beaucoup plus mais c'est vrai que moi excuse moi une inégalité on n'a pas de quelque chose là c'est ce que je veux montrer c'est une reformulation c'est une reformulation de ça donc mon but c'est de montrer ça alors et donc maintenant regardons ces soms et essayons vraiment de voir que c'est juste cette inégalité alors ce que je vais faire c'est fixer c'est un peu la catastrophe donc on va sommer donc je regarde le terme de gauche donc c'est la somme et ce que je vais faire c'est que je vais sommer sur N1 je vais avoir W de N1 parce que N1 c'est le même en haut et en bas on a les mêmes sources et par contre je vais sommer sur M qui va avoir source 3 4 la tête c'est N2 plus N3 d'accord et je vais même rajouter un C donc je vais sommer sur ces choses là et l'indicatrice ça va être que le cluster dans M de 1 égal C d'accord donc je suis juste en train de décomposer cette somme donc qu'est-ce que j'obtiens ici donc j'ai la somme sur les N2 c'est plus petit que M je vous l'ai fait que je vous dis pas de bêtises les sources de N2 c'est quoi ces 3 et 4 dans le premier cas et là j'obtiens quoi j'obtiens juste N2 parmi M vous pouvez vérifier si c'est juste une réécriture donc j'ai fait vous voyez ça c'est la même manipulation que dans le Peking Lema exactement la même et j'ai juste rajouté cette chose si je regarde le même terme à droite donc là faut me faire un peu confiance parce que c'est vrai que si on passe voilà c'est comme ça mais ça vous le faites sans aucun problème donc si je refais la même chose pour le terme de droite je vais avoir la même somme là le M il a les mêmes sources quand je fais la somme des 2 c'est juste que maintenant ce que j'obtiens et excusez-moi il y a quand même une indicatrice de 3 n'appartient pas à la somme de N1 plus N2 de 1 ce serait trop beau si il n'y avait pas ça voilà qui est d'ailleurs juste qui est C en fait et là quand je fais la même somme j'obtiens N2 plus petit que M cette fois les sources de N2 c'est l'ensemble vide j'ai de nouveau N2 parmi M maintenant l'indicatrice ici c'est l'indicatrice de 3 n'est pas relié à C dans N3 donc N3 c'est quoi c'est M moins N2 pas facile hein on y est vous inquiétez pas on y est voilà donc qu'est ce qui me suffit de faire il me suffirait de voir que ce terme là est plus petit que ce terme là d'accord ça serait suffisant pour moi de faire ça alors là je suis en train de compter si je reprends l'interprétation en termes de sous-graphes franchement c'est plus pour vous avoir fait la preuve c'est pas mais si je regarde en termes de sous-graphes de petits thèmes enfin de aimerons excusez-moi ici je compte les sous-graphes de M ronde d'accord tel que dans le compte non les sous-graphes N sous-graphes de M ronde avec source aucune source dans N et dans M privé de N 3 n'est pas relié à C à l'ensemble de ce mes C c'est ça que je compte ici ok ici je compte l'ensemble des N tel que l'ensemble des sources c'est 3 à 4 et 3 n'appartient pas à C donc le 3 n'appartient pas à C en fait d'ailleurs j'aurais pu mettre l'indicatrice en dehors si 3 appartient à C cette chose là vaut 0 mais ici 3 est forcément relié à C également donc il n'y a pas donc si 3 maintenant n'appartient pas effectivement à C ce qu'il faut que je vois c'est qu'il y ait moins de gens ici que là mais en fait si vous regardez si j'ai un N qui vérifie ça enfin si on est dans cette condition excusez-moi il existe un cas qui est inclus dans M tel que les sources de cas c'est 3 à 4 et l'intersecte passé c'est pas vous pouvez vérifier il existe un cas comme ça et du coup pour passer de là à là qu'est-ce que je fais je prends juste N différent symétrique avec K alors il n'est pas du tout c'est pas une bijection cette fois parce qu'il y a des éléments ici vous ne pouvez pas trouver de cas comme ça ou en tout cas où ce cas là ne va pas fonctionner mais c'est une injection pour n'importe quel graphe vous allez trouver donc je vous rappelle M des sources de M c'est 3 à 4 donc j'ai 3 et 4 qui sont comme ça j'ai C qui est là et donc ce que je prétends c'est qu'ici il y a forcément un graphe K qui va correspondre un chemin de 3 à 4 qui ne relit pas C parce que c'est cette chose-là qui me dit cette indicatrice elle me dit exactement elle me donne l'existence de ce graphe K bon voilà je pense qu'on est tous d'accord oui géométriquement si on revient sur la figure c'est peut-être n'importe quoi mais je pense quand même sur la figure que tu as faite là-bas donc la première probase 1, 2, 3, 4 c'est donc on prend le blanc on prend le bleu et on peut passer du blanc en bleu mais ce qui pourrait se passer si j'essaye de comprendre c'est que dans le cluster de 1, 2 dans le bleu il y a un cluster 3, 4 dans le blanc il y a un cluster 1, 2 je me sens exactement comme vous quand c'est moi qui vous parle alors 3, 4, attends non, non, non dans le 1, 2 c'est le truc blanc ouais, le 3, 4 c'est le truc bleu mais en plus dans le truc bleu il y a des petites boucles qui se tramblent il n'y a pas que le cluster exactement d'ailleurs ça c'était mon but c'était de faire un dessin plutôt comme ça 3, 4 liés dans N1 plus N2 ce qui se passe c'est qu'on peut passer du gros cluster 3, 4 par exemple sur une petite boucle blanche plus sur une petite boucle blanche pour arriver dans le gros truc blanc tu peux faire la même chose avec le rouge en quelque sorte peut-être qu'intuitement le truc dans bas c'est juste de dire les petites boucles du bleu on va les rajouter au blanc et aujourd'hui ces petites boucles c'est comme le rouge les petites boucles du bleu on va les rajouter au blanc plutôt l'intuition c'est plutôt de mon point de vue c'est plutôt tu enlèves un chemin de 1, 4 au bleu et tu décides maintenant que ça c'est le rouge voilà et ça en fait enlever ce chemin 1, 4 ça réduit la distribution de ce qu'il reste donc intuitivement c'est ça mais pourquoi ça réduit c'est quelque chose qui n'est pas évident c'est une bonne façon de c'est vrai que j'aurais pu le dire comme ça tout à fait très bien parfait bon voilà donc on a cette inégalité donc maintenant dans les 5 dernières minutes je vais peut-être dépasser de 2 minutes d'accord on n'en est pas loin alors alors quelle est la quantité qui nous intéresse quelle est la quantité dont on veut quelle est votre adversaire on aimerait prendre en quelque sorte les poids 1, 2, 3, 4 de façon on aimerait moyenné sur les positions de 1, 2, 3 et 4 donc en particulier on aimerait on aimerait prendre la somme de on va fixer 1 et on aimerait prendre la somme de u4 d'état de 1, 2, 3, 4 et on aimerait sommer sur 2, 3 et 4 d'accord ça ce serait une genre de moyenne de des fonctions de corrélation alors maintenant à quoi on veut la comparer cette moyenne quelle est la chose typique on aimerait comparer au cas ou pour montrer quel temps vers 0 on aimerait dire ok imaginons qu'elle ne tente pas vers 0 que cette chose là elle ne soit pas par exemple typiquement du terme 1, 2, 3, 4 de l'ordre de ce terme là imaginons que ce ne soit pas du tout qui n'est pas d'annulation en quelque sorte donc si je sommais mettons juste une petite parenthèse là si j'ai la somme de s1, s2 s3, s4 sur 2, 3 et 4 voilà je tombe sur l'infini parce que s3 mais ce qu'il faut se dire c'est que quand je prends mes corrélations là j'ai quand même il y a vraiment des corrélations donc si s3 tend vers l'infini si c'est 2 points la tend vers l'infini cette chose là va vraiment tend vers 0 d'accord donc ici il y a une corrélation qui va être encodée par le fait que l'important c'est de prendre sigma3 à une certaine distance de 1 et cette certaine distance c'est ce qu'on appelle la longueur de corrélation donc on va prendre sigma3 enfin on va prendre 3 dans une boîte qui est typiquement de l'ordre de ce qu'on appelle la longueur de corrélation que je vais vous définir dans 2 secondes donc cette chose là le troisième c'est comme si on sommait sur beta bah si beta excusez-moi à la puissance d il y aura si beta la puissance d choix pour le troisième et maintenant quand je somme sur 2 avec 1 fixé j'obtiens quoi j'obtiens cette susceptibilité dont je vais vous parler la moyenne sur tout le monde qu'on appelle qui de beta donc je vais avoir qui de beta et quand je vais sommer sur 4 avec 3 fixés je vais avoir qui de beta donc ce que j'aimerais c'est regarder cette quantité divisé par qui de beta au carré c'est si beta puissance d et cette quantité je vais l'appeler la constante de couplage renormalisé ça c'est la constante de couplage renormalisé donc dites-vous vraiment l'intuition c'est que si u4 il n'y a vraiment pas d'annulation qui se passe ce truc là est d'ordre 1 donc ici qui de beta c'est la somme de sigma1 sigmax pour x dans zd et que si beta je dois vous dire ce que c'est si beta c'est 1 sur la limite quand x t'envers l'infini de moins 1 sur distance avec x log de sigma0 sigmax beta c'est pas tout à fait défini donc n t'envers plus infinie de 1 sur n et ici je vais prendre n fois le vecteur e1 c'est bien défini donc tout ça pour que ça ce soit bien défini ici il faudrait qu'il y ait une décroissance exponentielle donc je vais regarder pour beta plus petit que beta c je regarde cette quantité voilà c'est une définition à prendre la constante de couplage renormalisé elle vaut pas zéro a priori d'accord s'il n'y a pas d'annulation elle vaut vraiment pas zéro mais notre but c'est de montrer d'ison man et indépendamment de freluche c'est de montrer que j'ai de beta t'envers zéro quand beta t'envers beta c donc asymptotiquement quand on approche le point critique la constante de couplage renormalisé t'envers zéro donc on a un champ qui est trivial alors essayons de montrer ça on y est quasiment je suis désolé je déborde de 5 minutes mais c'est un petit peu dommage de repousser ça surtout pour ceux qui ne seront pas là la semaine prochaine alors il y a une première chose c'est d'observer que si beta il peut être comparé à la fonction si beta bar qui va être l'infimum des n tels que la somme de sigma 0 sigma x donc x sur le bord de la boîte est plus petite que je vais prendre un sur eux alors x, voilà c'est une quantité que je définis comme ça c'est la première quantité quand on voit les phi p de s phi beta de s en quelque sorte c'est le plus petit n pour lequel le phi beta de n de la boîte de taille n est plus petit que un sur eux est ce que vous avez une idée comment on peut comparer si beta bar et si beta est ce qu'il y a une inégalité qui semblerait clair par exemple si je reprends le calcul que j'ai fait avec le phi beta de s qu'est ce que j'obtenais si j'ai donc si je prends en si beta bar ça c'est mon phi beta de si beta d'accord j'obtiens automatiquement donc là astuce j'obtiens automatiquement que sigma 0 sigma de n e1 ou de n si beta bar e1 ça va être plus petit que quoi ça va être plus petit que que ce qu'on avait appelé phi beta de la boîte sa et beta bar à la puissance n d'accord donc ça va être plus petit que exponentiel de moins n avec cette notation là mais ça c'est donc exponentiel de moins n si beta bar sur si beta bar donc ça ça nous dit quoi sur si beta par rapport à si beta bar je vais forcément le faire dans le mauvais sens donc ça nous dit que si beta bar ça doit être probablement plus petit ou égal à si beta raté raté ou pas raté donc ça c'est plus grand peut-être bon donc cette quantité elle se comporte c'est exponentiel de moins n sur si beta voilà donc c'est croissant donc c'est comme ça n'hésitez pas à me dire que je ne sais pas calculer exponentiel de moins n sur x ça fait beaucoup d'échange en fait je crois que c'est bon là d'accord à l'inverse si vous prenez si vous calculez cette quantité là vous prenez des x qui sont à distance plus grande que grand c si beta log de si beta d'accord ça grandaine si vous prenez un x qui est plus grand que ça et que vous utilisez en gros cette formule que je n'ai pas tout à fait justifié mais que la vitesse ça c'est à peu près l'ordre de grandeur de votre correlation de spin ça va vous dire que sigma 0 sigma x dans ce cas là est plus petit que 1 sur exponentiel de moins si beta log de si beta sur si beta fois c donc ça va me donner à peu près 1 sur si beta à la puissance c d'accord à peu près je suis en train de tricher un petit peu mais j'ai quand même envie de vous libérer pas trop tard mais du coup si je prends un c qui est très grand qui est beaucoup plus grand que des moins 1 si je somme sur tous les gens sur le bord de ma boîte je vais tomber sur 0 quand même enfin je vais tomber sur quelque chose proche de 0 quand même donc ça nous dit que cette personne là il est plus grand que cet infimum donc ça nous dit que si beta bar est plus petit au égal à grand c si beta log de si beta là j'ai sauté des petites étapes vraiment si vous voulez essayer de le prouver rigoureusement vous pouvez le faire il n'y a pas de je ne suis pas en train de cacher quelque chose sous le tapis c'est vraiment des choses qui sont accessibles à tous donc si beta bar en quelque sorte c'est une comparaison on peut le comparer à si beta du coup pourquoi je me suis battu à essayer de vous montrer ça enfin à vous introduire ça nous calculons la susceptibilité est ce que je peux trouver une borne en fonction de la en fonction de la longueur de corrélation si p si x, si beta bon ça c'est la somme surtout les x dans zd d'accord mais faites des paquets de taille si beta des boîtes vous pavez votre chose en boîte de taille si beta à chaque fois que si vous voulez avoir la corrélation entre 0 et 1.x qui est par là vous devez passer si cette boîte elle est à distance k de cette boîte là, k si beta de cette boîte là à chaque fois que vous allez à distance si beta vous payez un coup 1 sur E en quelque sorte avec cet argument de Simon's Lib donc vous allez payer un exponentiel de moins k et après vous allez être par là et vous allez sommer sur tous les points qui sont dans la boîte de taille si beta autour de vous donc une grosse là de nouveau je vais vite je repasserai peut-être je vais peut-être refaire ça au début du cours prochain mais ça c'est plus petit en quelque sorte que la somme sur les boîtes de exponentiel de moins ou directement faire il y a k boîtes qui sont à distance k j'ai un exponentiel de moins k donc c'est la somme sur k et là ici j'ai la somme pour les x sur la boîte de taille si beta de sigma 0, sigma x donc qu'est-ce que je viens de montrer là je vais montrer que c'était plus petit plus constante fois quelque chose qui ne dépend plus que de la boîte de taille si beta de la boîte de taille si beta excusez-moi maintenant qu'est-ce que je vais utiliser je vais utiliser la borne infrarouge ça c'est plus petit que 1 sur x à la puissance des moins 2 quand je somme sur la boîte j'obtiens quoi j'obtiens que si beta au carré c'est le temps passé par votre marche aléatoire dans la boîte de taille n c'est n carré à peu près donc j'obtiens c'est fois que si beta au carré tout ça pour dire que si beta maintenant si j'ai envie de le borner donc là c'est la preuve qui commence maintenant j'ai de beta si j'ai envie de le borner c'est plus petit que la somme sur y de sigma 1 donc c'est la somme donc déjà c'est 1 sur ça, après j'ai la somme sur 2, 3, 4 et y de sigma 1, sigma y etc un variance par translation vous pouvez fixer y et dire que c'est vraiment la somme sur 1, somme sur 2 sur 3 sur 4 donc ça vaut quoi ça ? ça vaut juste la fonction de carré ça vaut juste la susceptibilité à la puissance 4 c'est une égalité donc tout ça c'est la susceptibilité à la puissance 4 divisé par la susceptibilité au carré fois si beta maintenant j'utilise ma jolie borne excusez-moi, là c'était un bar si je voulais être précis parce que c'était des bars donc c'était plus petit que c c'est beta log de c'est beta au carré avec une constante c'est prime on va dire donc là ici le c'est de beta au carré je vais le borner par ça donc ça va me donner plus petit que c'est beta puissance 4 log de c'est beta puissance 4 une très grosse constante divisé par c'est beta à la puissance d maintenant je vous ai dit au point critique qu'il n'y a pas d'écroissance exponentielle ça veut dire quoi qu'il n'y a pas d'écroissance exponentielle au point critique en termes de c'est beta ça veut dire que c'est beta tend vers plus l'infini du coup ici vous voyez que dès que la dimension d est strictement plus grande que 4 cette chose là tend vers 0 tend vers 0 quand beta tend vers beta c alors voilà bon la fin je suis allé trop vite j'en ai conscience mais bon c'est un théorème vraiment non trivial donc j'avais quand même envie de vous faire la fin de la preuve je ne vous ai pas caché là ici il y a vraiment ces choses là c'est des exercices c'est pas on parle pas de remplir les trous dans la preuve là c'est vraiment vraiment des tout petits exercices donc vous avez une preuve complète du résultat de trivialité en dimension 4 enfin en dimension 5 et plus la semaine prochaine je vous montrerai qu'en fait au point où on en est là on peut aussi par exemple étudier le comportement de 6 beta et de la susceptibilité montrer que l'exposant est 1 en fait donc ça va se comporter comme 1 sur beta c'est moins beta ce sera facile à montrer de là et c'est un autre exposant critique c'est une autre manifestation du fait qu'en fait le modèle a ce qu'on appelle le comportement en champ moyen puis après on passera à la dimension 3 pour montrer que la transition est continue ce sera moins technique ça va être plus géométrique les techniques puis après on se conforme en dimension 2 voilà merci de votre attention et si vous avez des questions n'hésitez pas à venir me les poser et à la semaine prochaine j'espère