 On va parler, en fait, de pas mal de choses qui ont été mentionnées. C'est parfait dans le dernier exposé. Oui, donc mon but, c'était d'essayer à travers cet exemple, enfin, ce modèle de physique statistique, de vous donner un petit historique, finalement, des progrès qui ont été faits en physique statistique au XXe siècle. Parce que, quel que soit, si on prend la percolation, les marches auto-hévitantes, le modèle d'easing, mouvement brunil, etc. Finalement, dans tous ces modèles, les progrès ont été faits à peu près de façon parallèle. Donc, à travers ce modèle-là, j'ai envie de vous donner un petit historique de ça. Et puis finir sur des questions ouvertes que les personnes n'arrivent pas à résoudre. Et moi, y compris, donc, si l'un de vous sait résoudre ce problème, ce serait parfait. On a besoin d'aide. OK, donc déjà, commençons par la définition. Elle a déjà été mentionnée juste avant, mais je vais vous la redonner. Donc, l'idée, c'était... C'est Or et Florie qui ont introduit ce modèle. Florie, c'est un prix Nobel en chimie. Or, elle l'a définie avant, mais elle a été un petit peu oubliée. Le pauvre est décédé très jeune. Et donc, tout le monde retient Florie, mais c'est bien Or qui a introduit ce modèle. Et l'idée, c'était de modéliser des polymères idéaux. Donc, l'idée d'un polymère, c'est juste une longue chaîne de monomères qui sont reliées par des connexions. Et l'idée de Florie, donc, il faut quand même admettre que Or l'a vu comme un modèle plutôt combinatoire. C'est Florie qui m'a vu l'interprétation physique. Donc, l'idée, c'est de dire qu'en fait, nos monomères sont juste les sites d'un réseau. Donc, je vais prendre dans tout cet exposé, je prendrai L qui sera soit ZD ou vers la fin je vous parlerai du réseau hexagonal. Et donc, un polymère, c'est juste une suite finie, gamma 0 qui sera toujours 0, gamma 1, etc. Gamma N. Deux sommets de mon réseau L. Et la chose que je vais demander, c'est que je veux ce polymère, je veux qu'il soit idéal de façon... Donc, la première, c'est que je ne veux pas qu'il y ait deux particules au même endroit. Donc, je vais demander que cette suite gamma, elle soit en fait injective. Donc, tel que gamma i égale gamma j, ça, ça implique i égale j. Et la deuxième chose, c'est que je veux en fait modéliser les connexions entre mes monomères comme étant des arrêtes de mon réseau. Donc, je vais supposer que gamma i, gamma i plus 1, c'est une arrête de mon réseau L pour toutes. D'accord ? Donc, ça, ça me décrit un polymère, une marche auto-évitante. Donc, on va appeler MN, ce sera l'ensemble des marches auto-évitantes de longueur N. Donc, la longueur, là, c'est le nombre... C'est vrai que c'est pas très astucieux, on aurait peut-être dû mettre N-1 ici, mais on va fixer N comme étant le nombre de connexions. C'est juste, historiquement, on fait plutôt ça comme ça. Et la première question qu'on peut se poser, quand on voit un modèle comme ça, c'est quelle est l'anthropie du système, c'est-à-dire combien il y a-t-il de configurations possibles, combien il y a-t-il de marche auto-évitante de longueur N. Donc, si je définis CN comme étant le cardinal de MN, la première question, c'est que vos CN. Et c'est effectivement la première question qui est venue à l'esprit de Or, qui est en fait calculée sur Z2 le nombre de marche auto-évitante jusqu'à N égale 6. Et ça croit très vite. Parce que c'est assez facile de se rendre compte, par exemple, si je prends Z2, que CN va être plus grand que 2 puissance N et plus petit que 4 fois 3 puissance N-1. Je vous laisse réfléchir à ça. Je pense que tout le monde dans la salle est capable de faire ça. Donc, ça croit essentiellement vite et en particulier même avec les meilleurs ordinateurs et avec des algorithmes qui sont vraiment non-triviaux. Les gens n'arrivent toujours pas à calculer le nombre de marche auto-évitante avec N plus grand que 100, par exemple. Donc, on est très très vite limité, mais avec des heures et des heures et des heures de calcul sur des super computers. Il semble pas, en fait, qu'il y ait une formule exacte, jolie, permettant d'énumérer CN, une formule close. Et c'est pas si surprenant que ça. Pourquoi ? Et c'est ça, peut-être, qui rend le modèle si intéressant. C'est que c'est un modèle qui est fortement non-marcoviens. C'est presque le plus loin qu'on puisse faire. Dans le sens que même pour savoir si une marche, on peut pas la décrire comme une évolution. Pourquoi ? Parce que savoir si je peux faire encore un pas, dépend, peut-être que j'ai fait une quasi-boucle comme ça, et que là, je me retrouve bloqué et que je peux pas continuer. Donc, bien entendu, l'endroit où je suis n'est pas suffisant pour déterminer la distribution de mon prochain pas. Alors, quand on est un processus marcoviens, en général, on a quand même une description avec le générateur, etc., qui permet d'avoir des formules simples, des formules de récuances, etc. Là, ce sera pas le cas. Donc, on ne sait pas, on n'a pas de formule close pour CN. Là, en général, soit on panique, soit on panique, enfin, non, soit on panique, soit on s'appelle amersley, en fait. Et on se dit, bon, c'est pas grave, c'est que c'est pas la bonne question. On s'en moque d'avoir CN exactement. Ce qu'on va faire, c'est qu'on va juste estimer la vitesse à laquelle CN croit. Et donc, premier théorème d'amersley, c'est l'un des premiers résultats sur ce modèle de résultats rigoureux. Je vous parlerai après de ce qu'a fait Flory. Les premières théorèmes d'amersley, c'est qu'en fait, il existe une constante musée qui dépend juste du réseau, et qui est entre 0 et plus l'infini, tel que, en fait, musée vaut la limite quand n t'envers l'infini de CN à la puissance insurée. Donc ça, ça nous dit quoi ? Ça nous dit que CN, il croit comme une exponentielle, c'est-à-dire comme une certaine constante musée à la puissance n. Ça dit quasiment rien de plus que ça. C'est musée à la puissance n plus petite au de n, mais ça dit déjà ça. Alors juste parce que c'est un très joli argument que j'imagine que je vais dire pas mal de choses que beaucoup d'entre vous ont déjà entendu, mais c'est pas grave. Donc je vais quand même vous faire cet argument parce qu'il est trop joli et en particulier, par exemple, qu'il aurait pu être adapté aussi tout à l'heure qu'on a fait le mouvement L, le L mouvement brognière pour montrer l'existence de la constante. C'est des arguments de sous-multiplicativité. D'ailleurs, ça a été aussi mentionné à un autre moment. Donc l'idée, c'est quoi ? C'est que si je prends une marche de longueur n plus grandaine, si je la coupe après n pas, j'ai une marche de longueur n auto-évitante et la deuxième partie est une marche de longueur grandaine auto-évitante. Donc par définition, c de n plus grandaine, c'est plus petit que c de petite n fois c de grandaine. Si vous combinez ça, par exemple, prenons le réseau carré, si vous combinez ça avec ces bornes-là exponentielles, ça va vous donner par le l'M de fait qu'était que c'est une puissance n sur n converges. Donc c'est complètement, c'est une conséquence du l'M de fait qu'été qui en général est nancée plutôt dans le cas additif qui est que u n plus m plus p'tit que u n fois u m implique que u n sur n converges. Après, ça peut converger vers 0 vers plus infinit et c'est là où vous allez utiliser le fait que vous avez deux bornes a priori comme ça pour dire qu'en fait que votre constante, elle est vraiment entre 0 et plus infinit. Voilà donc, argument très court. C'est peut-être la première apparition d'ailleurs de cet argument de sous-multiplicativité en probabilité et donc c'est un superbe, c'est un argument qui a été réutilisé après très, très souvent. Une grande partie d'entre vous l'a déjà utilisée. Très bien. Alors, là on se dit c'est super. Amersley, c'est donc florie introduction en 53, je crois quelque chose comme ça. Amersley, ça doit être 56. On se dit, oh là, ça part vachement bien avec ce modèle peut-être qu'il n'est pas si dur que ça. Le problème, c'est que l'étape d'après, c'est de se dire, bon, maintenant je sais que c n, c'est mucé puissance n plus p'tit au de n. Bon, essayons de réduire ce p'tit au de n, à quoi il ressemble. Donc là, les mathématiens, ils sont restés bloqués. Et les physiciens se sont dit, bon, puisque nous on n'a pas besoin de démontrer les choses, c'est vachement plus simple. Et donc, ce qu'on va faire, c'est qu'on va faire des prédictions. Puisqu'on a vraiment la foi, on se dit, bon, qu'est-ce qui est plus compliqué que l'exponentiel ? Peut-être le polinomial. Donc on va juste mettre un polinôme devant l'exponentiel et puis avec un peu de chance, ça va converger. Donc c'est prédit par les physiciens comme étant a x n à une certaine puissance qui, pour une raison que je ne vais pas vous expliquer, ils ont appelé gamma moins 1, x mucé à la puissance n. Et là, maintenant, l'équivalent, c'est un vrai équivalent. Donc là, on a vraiment la description du p'tit au de mucé puissance p'tit au de n. C'est exactement ça. Où, il faut que je vous dise quand même 2-3 petites choses, le gamma est prédit en fait comme dépendant de la dimension. Donc gamma vaudra. On commence par la moisse nouvelle ou la bonne nouvelle ? Le facile ou le dur ? Le facile, ok, le facile. Donc vaux 1, d'où l'astuce de mettre gamma moins 1, si la dimension d est plus grand au égal à 4. Alors là, on va, d'abord, se restreindre à z d. Donc en dimension d plus grand au égal à 4, il existe une constante a telle que c n, c'est juste mucé puissance n. Fois cette constante a. Il n'y a pas de correction devant, en fait. Alors là, je triche un tout petit peu en fait en dimension... Là, je devrais mettre en dimension 5, et mettre une petite parenthèse ici si je veux mettre dimension 4, dans le sens que, en dimension 4, il y a un log de n puissance 1,4 devant. Donc c'était un tout petit peu optimiste de penser que c'était si joli que ça. En fait, il y a un log de n puissance 1,4. En dimension 3, c'est malheureusement complètement ouvert. On ne sait pas du tout ce que ça vaut. On a des analyses, on a des calculs numériques, mais on n'a pas plus que ça. Et en dimension 2, gamma, ça devrait valoir, comme vous l'avez tous deviné, 43, 32e. Voilà. Et pire que ça, en fait, donc en dimension 2, il y a z2, mais il y a aussi le réseau hexagonal. Le réseau hexagonal, c'est aussi un réseau planaire. Pour 1, on est d'accord. Ça, c'est le réseau enidabaye, pour ceux qui n'ont jamais rencontré cette chose-là. Bon, ce n'est pas très dur de se rendre compte. Là, je vous ai dit que c'est n'était plus grand que 2 puissants saines sur le réseau carré. Ce n'est pas très dur de voir que c'est n'est plus petit que 2 puissants saines sur le réseau hexagonal. Donc il y a, en fait, même le musée, c'est facile de voir que ce n'est pas le même pour le réseau carré et le réseau hexagonal. En fait, on verra tout à l'heure ce que vaut le musée pour le réseau hexagonal. Mais en tout cas, le musée pour le réseau carré est plus grand que 2 et on verra que l'autre est plus petit que 2, strictement. Donc il n'y a pas du tout le même nombre de marches auto-évitantes. Ça n'a rien à voir. La quantité exponentielle, il y en a vraiment beaucoup moins sur le réseau hexagonal. Et bien, la correction, c'est quand même N puissance 43, 32e, moins 1. Donc N puissance 11, 32e. Donc, malgré le fait qu'il n'y ait pas du tout le même nombre de marches auto-évitantes, la correction devant est la même. C'est ce qui est prédit par l'effisition. Ce qu'on appelle un phénomène d'universalité. Très bien. Donc tout ça, à ce niveau-là du courge et du courbe. J'enseigne pas ce semest, donc je me sens un peu en manque. De l'exposer, excusez-moi. Tout ça, je ne prétends pas que ce sont des théorèmes mathématiques. Enfin, ce ne sont que des prédictions. Donc ça, ce sont des conjectures. Maintenant, essayons de voir ce qui est démontré. C'est là qu'on rentre un peu dans un historique. Donc d'abord, il y a ce 1 ici. Donc il y a CN qui équivalent à musée puissance N. Il n'y a pas de correction devant. Donc là, ça croit exactement comme une exponentielle. Et c'est peut-être là que j'ai envie de commencer le parallèle avec les marches aléatoires, toute simple. Si je retire la condition d'auto-évitante, je peux poser la même question. Combien y a-t-il de marche aléatoire sur mon réseau en dimension D ? Il y en a 2D puissance N. Ça, ce n'est pas très dur. En particulier, il n'y a pas de correction devant. Là, je prétends qu'il n'y en a pas non plus. Et en fait, ce n'est pas un mystère parce qu'en dimension suffisamment grande, le modèle va avoir un comportement qui est similaire au comportement des marches aléatoires. Donc petit 2, on va parler de comportement, juste brièvement, mais de comportement en grande dimension. Contrairement à ce qu'on pense, en physique statistique, assez souvent, les dimensions les plus simples à étudier sont les grandes dimensions. La raison et la suivante, c'est que, en fait, le modèle va se comporter comme sur un arbre ou comme sur un grave complet. Qu'est-ce que c'est le modèle de marche auto-évitante sur un arbre ? Bon, c'est juste, en fait, le modèle de marche aléatoire non rebroussante. Vous avez entendu parler juste avant. Parce qu'en fait, la seule contrainte que vous ayez vraiment, c'est de ne pas reculer, parce que si vous ne reculez jamais, vous avez continué à avancer dans l'arbre et vous allez être auto-évitants automatiquement. Donc c'est un joli processus marcovien ou quasiment marcovien, il dépend juste des 2 derniers sauts. Et donc en particulier, c'est la croissance exponentielle du nombre de marches auto-évitants. Là-dessus, en fait, c'est très simple à calculer sur un déaritris, c'est juste des fois des moisins puissants. Moisins, quand le nombre de marches auto-évitants de longueur, vous avez des choix au premier, et puis après, vous avez plus que des moisins puissants à chaque fois. Bon, en fait, en grande dimension, c'est un peu la même chose. Sur ZD, c'est un peu la même chose. Bien entendu, il y a toujours la contrainte qu'on n'a pas envie de reculer. Mais puisque vous êtes en grande dimension, dites-vous que finalement, la contrainte d'être complètement auto-évitante, elle va pas être si grave que ça, parce que les cycles sont assez grands et parce qu'il y a énormément d'espace dans votre grave. Si vous réfléchissez et que vous regardez en fait les marches aléatoires en grande dimension, juste marches aléatoires tout courts, les marches aléatoires, elles font pas de grands cycles en grande dimension. Elles ne se réintersectent pas, en fait. Elles se réintersectent localement, mais elles ne font pas de grands cycles. Donc si les marches aléatoires ont déjà un comportement qui a l'air plus ou moins auto-évitant, c'est pas si surprenant que, du coup, les marches auto-évitantes aient un comportement proche des marches aléatoires. Et dans les années 90, là, on fait quand même un saut d'une trentaine, 30 à 40 ans, il y a une technique qui a été développée, qui s'appelle la technique de less expansion, et ça a été étudié en premier par Bridges Spencer, dans le cas des marches auto-évitantes, qui a consisté à faire une comparaison, si vous voulez, à décomposer votre marche auto-évitante en essayant de la faire ressembler à une marche non-reboussante. En disant, c'est comme une marche non-reboussante. Parfois, ma marche non-reboussante, elle fait une boucle, ça lui arrive. Bon, on va enlever toutes les marches non-reboussantes qui font une boucle, mais là, j'enlève trop. On fait en fait un raisonnement d'inclusion et exclusion qui permet de décomposer, de faire une comparaison efficace entre les marches auto-évitantes et les marches non-reboussantes. Alors là, c'est toute une théorie, c'est très compliqué. Mais Gordon Slade, donc Slade, Ara et Slade, sont arrivés à montrer le théorème suivant, donc théorème. Ils sont arrivés à montrer qu'effectivement, CN est équivalent à A ou à Musée puissant Seine, si D est plus grand ou égal à 5. Donc en dépensant 5 ou plus, on a cette propriété et pour ceux qui connaissent un peu les marches aléatoires, c'est exactement en dimension 5 et plus qu'on commence à plus avoir les propriétés d'auto-intersection des marches aléatoires. On l'a déjà en dimension... Sans connaître la valeur de Musée. Sans connaître la valeur de Musée. C'est tout le jeu de la physique statistique, c'est d'arriver à donner de l'information à un point très particulier, qui est le point critique, sans savoir quel est ce point. C'est beaucoup moins drôle quand on sait quel est ce point. Malheureusement, on ne sait en général pas faire quand on ne sait pas où il est. Mais oui, sans savoir où est ce point effectivement. En fait, il sait faire un peu plus que ça. Parce qu'il y a une quantité assez naturelle qu'on peut faire maintenant. On peut aussi se poser la question à quoi ressemble une grande marche aléatoire prise au hasard. Donc je vais revenir sur ça juste après. Parce qu'en fait, ça... Oui, temporellement, ça ne va pas être très linéaire. On revient en arrière maintenant. On passe à que voulait savoir Fleury. Fleury, le nombre de marches aléatoires, ça l'intéresse, mais moyennement quand même. Ce qu'il voulait savoir, c'est surtout à quoi ça ressemble un polimer quand on le met comme ça devant soi, quand on en prend un au hasard. Donc il avait proposé de faire la chose suivante. Il avait proposé, tout simplement, de regarder la distance entre le dernier point de ma marche habitante et l'origine, quand je la prends uniformément dans MN. Donc on va définir une mesure EN, qui est juste, enfin PN, qui est juste la loi uniforme sur MN. Et Fleury est juste pour information, on pourrait, pour ceux qui veulent pas vraiment fixer la longueur de la marche, on pourrait imaginer quelque chose d'un tout petit peu différent, et après je vais repasser sur Fleury. On pourrait imaginer aussi de ne pas fixer la longueur de ma marche, mais plutôt de juste pénaliser par la longueur de façon exponentielle. Donc on pourrait aussi, donc ça c'est pour un N positif, on pourrait prendre un mu positif et définir P mu, qui serait la loi sur les marches, sur l'union des MN. Donc là je ne fixe pas la longueur, mais qui attribue une probat, alors là je me suis engagé, qui donne une probat à mu puissance moins la longueur à la marche gamma. Alors mu puissance moins la longueur, ça ne vous donnera pas une mesure de probabilité, vous renormalisez, vous dites juste proportionnel à mu puissance moins la longueur, et vous noterez que cette mesure, elle va être définie pour quelle valeur de mu, elle n'est pas définie pour toutes les valeurs de mu, mais elle va être définie pour toutes les valeurs de mu plus grandes que mu C. Donc là ici, on va prendre mu appartenant à mu C, plus l'infini, et pour les petits malins qui aimeraient la définir à mu C, pour remarquer qu'il y a un tout petit problème, c'est que là-haut, cet argument, c'est l'aim de fait qu'été, vous dis quoi ? Vous dis que C est en fait plus grand que mu C, donc ici, la masse de ma mesure, si je voulais la définir exactement à mu C, on voudrait plus l'infini. Donc c'est vraiment pour mu C plus grand que mu C. Donc c'est deux lois assez naturelles. Je pense que quand on rencontre pour la première fois les marches auto-évitantes, on se dit que celle-là, c'est quand même la plus naturelle, de juste prendre la mesure uniforme. En fait, quand on les manipule encore et encore, on se rend compte que celle-là est pas mal non plus, je vous en reparerai après. Mais commençons par celle-là. Donc Florie a posé la question suivante. Il a dit que vaut l'espérance de gamma de n. Et en fait, puisque c'est un physicien, il a pris gamma de n au carré. Quel est l'espérance de le carré de la distance à l'origine ? Alors Florie a fait une magnifique prédiction. Il a dit, bon, cette espérance, elle va se comporter comme n à la puissance 2 fois nu, ou nu, un petit peu comme gamma, est un exposant qui dépend de la dimension. Et il a prédit la chose suivante. Il a prédit que c'était 4 tiers en dimension 2. Qu'est-ce que je dis ? 3 quarts. Alors, je ne m'en rappelle jamais parce que c'est faux. Mais 4, 5ème, je crois, en dimension 3. Et non, ça ne doit pas être ça. 2 tiers et 1 demi en dimension plus grand ou égal à 4. Il a prédit ça, c'est la contribution de Florie. Il a fait un très bel argument. C'est vraiment ce genre d'argument qui est suffisamment superbe pour contenir deux fautes qui s'annulent exactement. Parce que le 3 quarts est juste. Et 3 quarts, ce n'est pas si naturel que ça, comme prédiction. Donc ce n'est pas diffusif. En fait, c'est juste. Le 2 tiers est complètement faux et le 1 demi pour dimension plus grand ou égal à 4 est juste. C'était là où je voulais en venir. Que Ara et Slade, en plus de pouvoir compter les marches autoévitantes, sont capables, en fait, de montrer que cette quantité, appelons-la mn, que mn croit comme n à la puissance, comme n, comme une constante fois n. Et en fait, ici, donc ça veut dire que gamma2n est typiquement à distance racine2n de l'origine. Et en fait, qu'est-ce qu'ils arrivent à montrer ? Ils arrivent à montrer que si on renormalise par 1 sur racine2n, on va obtenir un mouvement bronnière, en fait, sur un certain temps. Donc ils arrivent aussi à montrer que gamma, divisé par racine2n, converge vers sigma2f ou un mouvement bronnière, avec une certaine constante. Donc on arrive vraiment à décrire, à dire en dimension 5 et plus, on ressemble vraiment aux marches autoévitantes, aux marches aléatoires. Il n'y a vraiment pas de différence. La comparaison, on pensait vraiment plus la comparaison aux marches non-rebrousantes, mais elle, c'est un beau gentil processus de nouveau de Markov sur deux états, qui ne regarde qu'à distance 2. Donc ça, ça converge aussi vers le mouvement bronnière. D'accord ? Voilà. Donc ça, c'est l'histoire en dimension d'égal 5 ou plus. Donc on appelle la dimension qui est au-dessus de la dimension critique supérieure. Vous verrez peut-être l'Upper Critical Dimension. C'est en fait la dimension à partir de laquelle on a un comportement qui ressemble au comportement en champ moyen. Le graphe est suffisamment gros. On ressemble à ce qui se passe sur un arbre ou sur un graphe complet. Donc ça, c'est les années 90. On comprend bien ce qui se passe. Et les mêmes progrès ont été faits pour la percolation, pour le modèle de Dising, pour d'autres modèles de physique statistique. Maintenant, passons aux années 2000. Parce que, en tant que mathématicien, en tant que physicien, peut-être, c'est la dimension 3 qui nous intéresse le plus. Mais là, en tant que mathématicien, on voit 43, 32e, mais là, on ne peut pas se... Ça nous donne quand même envie de le montrer. Moi, ça me donne envie de le montrer, même si je n'y arrive pas. Mais ça donne envie de le montrer. Mais au moins, peut-être qu'on peut essayer de comprendre comment les gens peuvent arriver à 43, 32e comme prédiction. Et on l'a mentionné un tout petit peu aujourd'hui. Ces prédictions sont basées sur la théorie conforme des champs. Donc, petite 3. Dimension 2. Théorie conforme des champs et intégrabilité. On va laisser ça. Oui, je ne vais pas l'écrire. Donc, il y a deux outils qui ont été introduits à la fin des années 90, début des années 2000, en probabilité et en math, en général. C'est une idée... La première, c'est une idée qui vient, en fait, plus ou moins des années 70, 80, en physique, qui est l'idée d'invariance conforme. Et la deuxième idée, c'est une idée qui est encore plus vieille, qui vient, qu'on peut aller voir jusqu'à Ongegaert, qui est l'idée d'intégrabilité. Il y a des structures algébriques sous-jacentes à nos modèles deux dimensionnels qui permettent de les étudier. Donc, j'aimerais un peu vous illustrer ces deux concepts dans cette section-là. Et le premier, c'est le concept d'un variance conforme. Vous en avez entendu un petit peu parler aujourd'hui, en particulier avec la théorie Quantum Gravity. Mais moi, je vais vous la formuler de façon très simple, une conjecture qui est due à l'oleur, chrames et vernaires, et qui, je pense, illustre parfaitement la notion d'invariance conforme, qui consiste à dire la chose suivante. La limite d'échelle des marches auto-évitantes en dimension 2 doit être un objet qui est invariant conforme. Qu'est-ce que ça veut dire ça ? C'est-à-dire la chose suivante. Prenez cette mesure, P mu, mais, comme je vous ai dit, amuser un petit problème d'intégrabilité. Donc, ce qu'on va faire, c'est qu'on va le restreindre à un domaine fini. Donc, je vais prendre un domaine, prenons simplifiant. Je prenons le disque. Et ce que je vais faire, c'est que je vais grossir mon grave. Ça va être mon grave. Je vais le grossir, mais plutôt que de le voir comme un grave de plus en plus grand, je vais plutôt le voir comme un grave d'allure finie, enfin de forme fixe, mais de plus en plus fin. Donc, ce que je vais faire, c'est que je vais prendre un réseau, par exemple, le réseau carré, mais je vais décider que chaque carré est à longueur 1 sur 1. Et je regarde son intersection avec le disque. D'accord ? Donc, j'ai un grave fini, gn, et je vais regarder la mesure P mu, mais restreinte aux marches qui sont dans ce grave, et qui partent de zéro. Donc, elle part de zéro ces marches. Et je vais les restreindre, je vais regarder toutes les marches dans l'union des MN, donc je ne fixe pas la longueur, qui finissent, on va dire, exactement en 1, et qui ne sortent pas de ce grave. D'accord ? Donc, j'ai un nombre fini de marche comme ça, donc je peux définir la mesure P mu pour tout mu. Vous êtes d'accord ? Alors, maintenant, il n'y a pas de problème. Ce que je vais faire, c'est que je vais la regarder à musée. Donc, prenons la mesure, donc je vais l'appeler P, gn, musée. Donc, c'est une mesure sur les marches auto-évitantes partant de zéro, arrivant à 1, restant dans le cercle sur ce réseau un petit peu fin. Donc, je vais prendre un gmn, selon cette loi, et ce que dit la conjecture de Loller-Schramme-Werner, c'est que ce gmn converge en distribution vers une courbe fractale partant de zéro, arrivant à 1, aléatoire, qui s'appelle le SLE 8 tiers. Alors, je pense que certains d'entre vous ont probablement déjà entendu parler de cette courbe, c'est donc la Schramme-Werner-Evolution de paramètres 8 tiers. Et la seule chose que je veux que vous reteniez là-dessus, c'est le fait, parce que pour l'instant, il n'y a pas d'invariance conforme, c'est le fait que cette courbe, c'est une courbe invariante conforme. Donc, c'est une courbe fractale. Je peux essayer de vous la dessiner, mais je ne suis pas très bon. Donc, c'est une courbe qui va faire comme ça. Pas mal, hein, comme fractale. Comme premier g. Voilà. Donc, c'est une courbe fractale aléatoire. Mais, vous voyez, j'ai pris un domaine, le disque partant de zéro, arrivant à 1. J'aurais pu demander partant de zéro, et puis arrivant à ce point-là. Et puis, sans it-état. Et je pouvais demander la même mesure. Enfin, cette mesure-là. J'aurais convergé vers une courbe qui a priori et qui va être différente du sc le 8°, parce qu'elle va arriver ici. D'accord ? Alors, si je mets mon point ici, si je le mets en I, ma courbe, c'est clairement juste, parce que j'ai une symétrie du réseau, ça va juste être la rotation par pi sur 2 de la courbe initiale. Donc, c'est très simple de décrire cette courbe dans ce cas-là. En fait, c'est toujours très simple de décrire cette courbe. Même si je le mets à E, puis sans it-état, en fait, cette courbe, ça va être juste la rotation dans le theta de la première courbe. Donc, ça veut dire qu'en quelque sorte, dans la limite, la limite d'échelle de ces marches devient invariante par rotation, ce qui n'était pas du tout le cas de la marche, elle-même, au niveau discret, puisque le réseau carré n'a pas du tout cette symétrie par une rotation dans que theta. Et en fait, c'est beaucoup plus fort que ça. Vous avez un point ici, un point ici. Si j'avais pris n'importe quel autre domaine, avec un point A et un point B sur le bord, en fait, j'ai une unique, donc ça, c'est un domaine simplement, si je me restreins au domaine simplement connex, j'ai une unique application conforme qui envoie le domaine, le disque avec 0 et 1 sur ce domaine, on va dire, omega AB. Il y a une unique application conforme qui envoie ça. Et en fait, dans ce domaine-là, la courbe que limite des marches auto-évitantes que j'aurais prises dans ce domaine-là, c'est juste l'image par cette application fie de la courbe dans ce domaine-là. Donc il n'y a que tout un groupe de symétries, en plus, qui apparaît dans la limite d'échelle et qui vous permet de décrire en fait, en physique et en maths, plus vous avez de symétries pour un objet, moi, vous avez besoin de degrés de liberté pour le décrire. Donc là, le fait qu'on ait toutes les symétries conformes comme groupe de symétries, permet en fait de décrire très justement ce SLE, et c'est une courbe qu'on comprend très bien aujourd'hui. Et en particulier du coup, je peux par exemple essayer de vous convaincre, enfin non, je ne vais pas vous convaincre du tout en fait, mais je peux essayer de vous dire comment on peut en déduire au moins que la prédiction. Ça c'est une conjecture, ce n'est pas une preuve, ce n'est pas un théorème, mais pourquoi le 11 32e, ou le 43 32e si vous préférez. Prenez ces deux N et divisez-le par CN au carin. Si vous pensez que vous avez la conjecture, si vous avez la prédiction des physiciens, ça, ça doit se comporter comment ? Ça doit se comporter à peu près, ça ne tombera pas plus bas, comme 1 sur A x N puissance 11 32e. D'accord ? Parce que le nombre essentiel se disparaît, donc j'obtiens ça. Bon, mais maintenant, ces deux N sur CN au carin, si vous réfléchissez, c'est exactement CN au carin, c'est comme si je lançais deux marches auto-évitantes depuis l'origine, et ces deux N, c'est quoi ? Ça va correspondre aux marches qui ne se réintersectent pas à part à l'origine. Donc ces deux N sur CN au carin, ça a une interprétation probabiliste qui est la probabilité si je lance deux marches auto-évitantes depuis l'origine de longueur N, qu'elles ne s'intersectent pas. Mais du coup, si on imagine que les marches auto-évitantes ont une limite d'échelle qui est le SC le 8 tiers, il est descendre, pensez que du coup, ce genre de quantités vont être liées à la probabilité que deux SC le 8 tiers indépendants, partant proche l'un de l'autre, ne s'intersectent pas avant de toucher le bord d'un domaine. Et ça, ce sont des choses puisque 7 SC le a énormément de symétrie, on peut calculer ces choses-là, on peut montrer que ça se comporte comme, si je les fais partir à distance epsilon et qu'il doit valer à distance 1, ça se comporte comme epsilon puissance 11-32e. Et donc le 11-32e vient de là. Bien entendu, ce n'est pas du tout une preuve. Mais c'est une très belle illustration de la force du continu contre le discret en quelque sorte, qui est que ces symétries supplémentaires dans le continu vous permettent d'avoir accès à des choses qui sont complètement absentes du discret. Donc ça, c'est magnifique. Du coup, il suffit juste d'arriver à prendre la limite pour obtenir un objet continu, et puis voilà, on peut tous rentrer à la maison, on n'a plus besoin de travailler pour le reste de notre vie. Le problème, c'est que c'est très dur de faire ça. Si on obtient un objet avec beaucoup de symétrie dans le continu, il faut quand même qu'on paye le coût et ça ne peut pas venir gratuitement. Et donc, a priori, cette super bidet de la Schramm-Lovner-Evolution et cette super bidet des déficitiens d'avoir cette théorie conforme des champs, on aurait pu rester l'être morte d'un point de vue étude de modèle discret. S'il n'y avait pas eu une seconde idée qui est apparue au même endroit, au même moment, qui est que, en fait, ces modèles discrets en dimension 2, ils sont très riches au niveau intégrable. Il y a beaucoup de... Pour résumer, il y a beaucoup de petites astuces qu'on peut faire localement qui nous permettent de calculer des choses. Et j'aimerais vous illustrer ça à travers un théorème que nous avons montré avec Stas Myrnoff il y a maintenant quelques années, qui est de calculer. Alors, on ne sait pas faire tout ça, malheureusement, encore. On pensait qu'on y arriverait, mais malheureusement, on n'y arrive pas. Mais ce qu'on va faire, c'est qu'on va déjà essayer de montrer ça, mais avec un musée qu'on peut calculer. Alors, le problème, c'est que, bon, on s'est quand même un petit peu renseigné avant d'essayer. Le musée, à priori, n'a aucune raison d'être joli. Si vous réfléchissez, je peux vous laisser comme exercice d'essayer de calculer le musée de l'échelle. Ça, c'est joli. Mais le musée de Z2 ou le musée de Z3, ou la consent de connectivité d'un graphe, d'un réseau qu'on aime bien en général, on ne peut pas la calculer. Moi, je ne m'attends pas personnellement à ce qui est une jolie formule pour la consent de connectivité du réseau carré. Donc, je vais vous donner à la tout-tout de fin quelques questions ouvertes que j'aimerais bien voir réseau. Mais celle-là, je ne m'attends pas vraiment à ce que ça fasse partie d'elle, avoir une belle formule pour le réseau carré. J'aimerais bien avoir tort, mais je crois qu'on s'y attend pas trop. Par contre, ce qui est assez magique, c'est qu'en fait, le musée, notre théorème, le musée du réseau hexagonal, c'est simplement racine de 2 plus racines de 2. Donc, ça, quand on vous donne, pour la première fois, quand on vous dit, essayez de montrer ça, ça donne envie. Alors, je vais essayer de vous donner une petite idée de la preuve, parce que je pense qu'elle élu, c'est un concept très profond et qui représente peut-être pas l'avenir des probabilités, mais au moins le présent qui est la notion d'intégrabilité. Alors, que peut-on essayer de faire ? Donc, si on veut montrer que musée vaut racine de 2 plus racine de 2, en fait, dans certains points de vue, il suffit juste, si on réfléchit, de prendre la fonction de partition des marches auto-évitantes et de montrer que son rayon de convergence, c'est 1 sur musée, enfin 1 sur racine de 2 plus racine de 2, et puis là, j'ai gagné. Bien entendu, c'est un petit peu optimiste de pouvoir faire ça, sinon, il n'y aurait à priori rien de spécial au réseau hexagonal. Donc, on sait pas faire ça. Bon, déjà, c'est pas génial de travailler avec une fonction qui a priori pourrait diverger. Donc, ce qu'on pourrait essayer de faire, c'est déjà commencer par se prendre un graphe fini et regarder plutôt que la fonction de partition de toutes les marches. La fonction de partition de la mesure P mu, enfin, la mesure que j'avais définie avant, on avait un point à l'intérieur, un point sur le bord, et on regardait donc, on pourrait regarder G, donc sur un graphe omega avec un point A à l'intérieur et un point B sur le bord. C'est omega, il y a A et il y a B. Et je pourrais regarder cette quantité qui est la somme sur les marches, inclus dans omega qui vont de A à B, de mu puissance moins la longueur de la marche. Ça, c'est exactement la constante de renormalisation dans la mesure de priorité que j'avais définie dans la conjecture de Lohr-Schramme-Werner. Bon, déjà, ça, c'est fini pour tout mu. C'est déjà pas mal. Et puis, là, on se dit, mais c'est plutôt pas mal parce que, finalement, regardez, par exemple, on peut bouger A et regarder ça comme une fonction de A, puis peut-être que ça a des propriétés sympas comme une fonction de A. Le problème, parce que vous regardez en particulier si... Oui, peut-être si on fait tendre A vers B, cette chose-là devrait plutôt tendre vers 1, en fait. On dit, oh, c'est peut-être pas mal. Le problème, c'est que cette fonction, comme une fonction de A, c'est pas dire grand-chose. Donc, l'idée, c'est de la modifier un peu cette fonction. Et pour vraiment illustrer le fait qu'on va regarder ça comme une fonction de A, je vais juste appeler ça F de A. F de A, ça ne va plus être tout à fait ça. Ça va être aussi une somme sur les marches auto-évitantes allant de A à B ou de B à A, plutôt, je vais regarder ça comme de B à A, excusez-moi. Mu puissance moins la longueur, et la seule chose que je vais changer, c'est que je vais rajouter un terme qui est e puissance i 5 8e du winding de A à B. Alors, le winding de A à B, ne paniquez pas. C'est pas si dur que ça. J'ai une marche qui va de A à B. Je compte le nombre de pas vers la gauche vers le nombre de pas vers la droite, fois pi sur 3, d'accord ? Qu'est-ce que c'est, en fait, c'est la rotation totale que la cope fait entre B et A, d'accord ? Donc, par exemple, si ma marche fait quelque chose comme ça, mon winding, ça va être 0, parce que j'aurais fait autant de virages vers la gauche que de virages vers la droite. Par contre, si je fais quelque chose qui ressemble, par exemple à ça, à ça, là, le winding, vous pouvez vérifier, c'est moins pi, excusez-moi, pi, voilà, etc., etc. Même en finissant ici, vous pouvez avoir des windings. Là, vous allez avoir un winding de 2 pi. Vous tourneriez dans l'autre sens, vous pourrez avoir un winding de moins 2 pi. Donc, vous avez un terme. En plus, vous mettez un 5 8e devant, vous savez pas pourquoi. Vous mettez un e puissance i, vous savez encore moins pourquoi. Et maintenant, vous avez quelque chose qui est horrible, parce qu'avant, c'était une somme de termes positifs. Donc, on se disait au moins, ça, c'est pas mal. Maintenant, c'est plus du tout une somme de termes positifs et on pense qu'on est paumé. Donc, là, je viens de vous décrire mon premier jour de thèse. Je suis arrivé, on m'a dit, voilà, ça, tu fais ça et puis tu essaies de montrer ça. J'ai hésité entre paniquer et... Bref, voilà. Donc, si ça vous arrive, ne paniquez pas. Qu'est-ce qu'il y a de bien sur cette fonction-là ? En fait, ce que vous gagnez de bien, c'est cette fonction, elle va avoir une dépropriété locale, justement. Quand je vais modifier A, quand je vais faire varier A, cette fonction va avoir des propriétés en plus. Alors, juste pour simplifier, parce que ça ne change pas énormément le problème, ce que je vais dire, c'est que maintenant, les marches, elles arrivent et elles finissent au milieu des arrêtes. D'accord, ça ne change rien au modèle, c'est juste à la dernière minute, je fais un demi-pas en plus, d'accord ? Donc, maintenant, ma fonction, le A, ça va être un milieu d'arrête. Et la propriété... Oui, là, je crois que... Je le remercie. La propriété magique de cette observable, de cette fonction, quand je vais dire observable, observable, c'est juste la moyenne d'une variable éatoire, rien de plus. Donc, la propriété de cette observable, c'est qu'à ce moment-là, là, pour l'instant, j'ai pas dit, racine de 2 plus racine de 2 n'est pas apparu à un quelconque endroit dans ma preuve, pour l'instant, ou dans le début de preuve. Et donc, ça va apparaître ici. C'est si mu égale racine de 2 plus racine de 2. Alors, si je regarde un somme mais V à l'intérieur de mon domaine, j'ai 3 milieux d'arrêtes P, Q et R autour de moi. Et en fait, je vais avoir la relation suivante. P moins V f de P plus Q moins V f de Q plus R moins V f de R égale 0. Ici, je vois P, Q, R et V comme des nombres complexes. Donc, j'ai une relation comme ça. Et cette relation, bah, elle peut vous sembler totalement abscond. Mais en fait, si vous réfléchissez, c'est exactement dire que l'intégrale de contour de ma fonction sur ce petit triangle vaut zéro. Donc, comment je définirais une intégrale de contour sur un contour comme ça qui se balade sur le... Alors, en théorie, on analyse sur les graffes. Quand on fait la dérivé ou quand on fait la primitif d'une fonction qui est définie sur les graffes, elles vont être définies sur le duale du graff. Donc ici, si je prends un contour qui est une suite d'arrête comme ça de face sur le duale, j'ai une notion naturelle d'intégrale sur ce contour qui est juste de dire l'intégrale sur ce petit contour. Ça va être quoi ? Ça va être la valeur là, moins la valeur là, fois la fonction ici. Plus la valeur là, moins la valeur là, fois la fonction ici. Plus la valeur là, moins la valeur là, fois la fonction ici. D'accord ? C'est la notion naturelle. C'est comme si j'intégrer une constante égale à la fonction ici sur tout cette A. Et la fonction ici fait une valeur constante égale à ça sur cet arc, etc. Et si vous réfléchissez, cette chose-là égale à 0, c'est exactement équivalent à dire que l'intégrale de contour, le long de ce petit triangle, vaut 0. Mais du coup, vous voyez si c'est vrai pour n'importe quel petit triangle, c'est vrai pour n'importe quel contour, en fait. Pourquoi ? Parce que si vous prenez un contour, c'est juste l'union. Enfin, vous pouvez le réécrire, l'intégrale de contour, vous pouvez l'écrire comme la somme des intégrales de contour sur tous les triangles à l'intérieur. Pourquoi ? Parce que tous les termes qui sont à l'intérieur, celui-là va contribuer comme ça à ce triangle et comme ça à celui-là. Du coup, tous les arrêtes qui sont à l'intérieur vont disparaître. Donc, ce qu'on vient de montrer ici peut s'interpréter comme le fait que n'importe quel intégrale de contour pour ma fonction f vaut 0. Et là, si on fait un petit saut dans un petit leap of face et qu'on se dit, ok, peut-être que je peux prendre une limite d'échelle, cette fonction, elle convergerait vers une fonction à priori, on va dire, continue, qui aurait cette propriété que toutes les intégrales de contour vaut 0, ça, c'est une fonction qui est holomorph, automatiquement. Donc, c'est comme si on avait une genre de propriété discrète, une version discrète du théorème de Morérat pour cette fonction. Alors, là, on se dit, bon, c'est plutôt pas mal. Donc, ça valait vraiment le coup d'ajouter le puissance i 5e de... Et le 5e, c'est la seule constante qui marche. Si vous metiez un sigma qui serait pas 5e, ça vous donnerait rien. Il n'y aurait pas cette chose. Vous pouvez aller voir dans l'article, je n'aurais pas le temps de le faire là, mais vous pouvez aller voir dans l'article la preuve de ça. C'est trois lignes ou deux dessins. Mais ça ne marche que pour mu égale racine de 2 plus racine de 2 et pour sigma égale 5e. Mais jusque là, a priori, il n'y a aucune connexion avec Musée. J'ai racine de 2 plus racine de 2 qui vérifie ça, mais il n'y a aucune raison que ça a une connexion avec la constante de connectivité du réseau. Et en fait, si on regarde ici, on se dit, ok, bon, ça, c'est une super propriété de notre fonction. La fonction F, si ça se trouve, ça la détermine. Mais regardez, la fonction F, j'ai une inconnue, donc si je voulais déterminer la fonction F, je dois déterminer sa valeur sur toutes les arrêtes. Et j'ai une relation pour chacun des sommets. Donc, j'ai seulement 2 tiers du nombre de relations nécessaires si je voulais déterminer complètement la fonction F. Donc, a priori, si ça se trouve cette relation, bon, c'est sympa de les avoir, mais ça m'amène rien du tout. Donc, le miracle, c'est qu'en fait, si, ça amène quelque chose. Donc, l'idée, c'est de faire la chose suivante. Prenez un réseau, enfin, prenez un graphe vraiment spécial qui est juste une, bon, bref, voilà, comme ça, là, qui est une slab, voilà, bref. Une tranche, merci. En fait, c'était une strip que je voulais chercher. Donc, une bande de hauteur T et de largeur L. Puis là, juste, on la coupe joliment sur le côté, mais peu importe. Donc, je vais fixer ça et puis je vais fixer le point A, le point B, le point de départ. Je vais le fixer comme étant le point qui est juste en bas, là. En fait, si je prends la chose suivante, si je prends le contour qui va tout autour comme ça, qui va tout autour du réseau, je peux appliquer le fait que l'intégrale de contour, donc là, c'est des demi-arrêtes qui sortent comme ça, je peux appliquer le fait que l'intégrale sur ce contour vaut zéro. Qu'est-ce que j'y gagne ? J'y gagne une chose qui est que sur le bord, en fait, le winding, il n'est pas très dur, le W, là, il n'est pas dur du tout à estimer. Pourquoi ? Parce que je vous rappelle qu'on est en train de regarder les marches qui restent à l'intérieur de mon domaine. D'accord. Mais du coup, une marche qui finit ici, par exemple, ne va jamais pouvoir arriver avec un winding non nul. Elle va toujours finir avec un winding zéro, quelle que soit la marche. Donc le WAB qui était là-haut, en fait, c'est toujours zéro pour les marches en haut. Et vous pouvez vérifier, c'est toujours quelque chose ici, toujours quelque chose ici et toujours quelque chose ici et ici. Donc, le terme de winding, si je le remplace par cette valeur que je connais, je peux réécrire le fait que cette intégrale vaut zéro et j'obtiens la chose suivante. Je vais finir là-dessus, enfin, quasiment là-dessus. Je peux obtenir que 1 est égal à quelque chose comme cos de pi, de pi sur 8 ou pi sur 4 fois, je vais l'appeler A de T et L, plus B de T et L plus quelque chose comme cos pi sur 8, E de T et L ou A de T et L, B de T et L et E de T et L, c'est maintenant quelque chose qui est juste la fonction de partition. Ce sont les fonctions de partition. B de T et L, c'est les fonctions de partition des marches qui finissent en haut. Donc c'est la somme sur les marches qui finissent en haut, mu, puissance, noix, la longueur. A de T et L, c'est celle qui finissent comme ça, c'est les arcs. Et les E de T et L, c'est celle qui finissent comme ça. Donc j'obtiens ça pour n'importe quelle T et pour n'importe quelle L. C'est juste ça, je ne vais pas faire le calcul, mais j'ai pris le fait que l'intégrale de contours va à la zéro et je l'ai transformé en utilisant juste le fait que je connaissais les winding. Et là, vous pouvez voir, par exemple, c'est peut-être la seule inégalité que je ferai, que ça veut dire que le B T et L est plus petit au égal à 1. Donc je somme sur tous les bridges, sur tous les ponts auto-évitants, de hauteur T et de largeur au plus L, mu, enfin racine de 2 plus racine de 2 à la puissance, moins leur longueur. Et ça, c'est plus petit au égal à 1. Quelle que soit la longueur, la largeur et quelle que soit la hauteur. Donc faites tant de la largeur vers l'infini. Donc vous avez plus de restrictions sur la largeur. Maintenant, c'est tous les ponts de hauteur T. Et faites tant de T vers plus l'infini. Ça veut en gros dire que, en tout cas, le nombre de ponts auto-évitants, ou un pont, c'est quelqu'un qui descend jamais en dessous de son point d'épargne, pas jamais au-dessus de son point d'arrivée, le nombre de ponts auto-évitants ne peut pas croître plus vite que racine de 2 plus racine de 2 en vitesse exponentielle. Sinon, cette chose-là exploserait. Il ne resterait pas borné par 1. Alors a priori, c'est pas totalement évident que c'est peut-être possible. Peut-être que le nombre de ponts auto-évitants croit plus lentement que racine de 2 plus racine de 2 puissance saine, mais que le nombre de marches auto-évitantes croit beaucoup plus vite. Mais en fait, il y a un théorème de Hammersley, à nouveau, qui dit que ce n'est pas vrai. Le nombre de ponts auto-évitants et le nombre de marches auto-évitants croient à la même vitesse exponentielle. Donc là, ça vous donne une inégalité pour le racine de 2 plus racine de 2. Ça vous dit qu'il est plus petit, non plus grand. Le musée est forcément plus petit que racine de 2 plus racine de 2. Et en fait, vous pouvez montrer avec cette inégalité, vous pouvez faire un petit massage d'inégalité pour vous rendre compte que le BT ne peut pas décroître trop vite. Il décroit au plus vite comme insurter. Et ça, ça va vous dire que le nombre de ponts auto-évitants ne peut pas croître plus lentement que racine de 2 plus racine de 2 puissance saine, et donc a forcié le nombre de marches auto-évitantes ne peut pas croître plus lentement. Donc pour finir les résumés, pour finir la journée. Donc là, c'est un exemple typique d'intégrabilité. C'est qu'il y a cette relation magique qui apparaît, qui est juste une manipulation sur les marches auto-évitantes. Si vous allez regarder l'article, ce n'est pas du tout compliqué comme preuve. C'est la combinatoire de base. Mais c'est un peu cette magie locale qui fait qu'on arrive à déduire une relation sur le racine de 2 plus racine de 2. Et en fait, cette fonction F devrait même être utile pour essayer de montrer la convergence vers le SLE 8 tiers, même si ça, c'est moi, n'arrivons pas à le faire. Voilà. Pour finir juste en se disant, bon, c'est super. En fait, il n'y a rien à faire. Juste, je vais vous donner quelques questions ouvertes. D'accord ? J'ai 2 minutes. Je peux ruiner votre vie avec 4 questions. Alors, commençons. Question ouverte. CN plus 1 sur CN converge vers musée. CN croit exponentiellement vite. CN plus 1 sur CN, ça doit bien converger vers musée. Si CN croit comme musée, puis sans CN. On sait pas faire. On sait montrer que CN plus 2 sur CN converge vers musée carré. On sait pas montrer que CN plus 1 sur CN converge vers musée. Bon. Deuxième question. Bon, les marches auto-évitantes, il y a une répulsion. Ça devrait aller plus loin que les marches aléatoires. Donc, a priori, l'espérance de gamma n, on devrait pouvoir dire que c'est plus grand que racine 2n. En fait, à vrai dire, on aimerait dire... parce qu'en dimension 2, ça n'a pas l'air bien dur. On aimerait dire 1,5 plus epsilon. On va essayer de montrer ça. Essayer de montrer que les marches auto-évitantes, remarquez que si j'avais... D'ailleurs, non, c'est trop dur. Ce que vous allez voir, on va faire plus simple. Sur petit au-delà. Voilà. Montrez qu'il n'existe pas de constancy dès que la distance moyenne de point d'arrivée d'une marche auto-évitante de longueur n est plus petite que c'est fois racine 2n. Remarquez que si c'est plus petit que c'est racine 2n, ça veut dire que la marche, elle est space-feeling. C'est complètement absurde de penser qu'une marche auto-évitante s'amuserait à devenir space-feeling dans le... On sait pas faire. En fait, c'est même... Ça, c'est même trop dur, encore. Parce qu'en fait, la meilleure borne qu'on est pour gama n, c'est pire que ça. C'est n puissance 3 sur 4d. Pourquoi ? Parce que, bien sûr, le rayon de ma marche va être plus grand que racine 2n et en dimension supérieure, plus grand que 1 sur d. Ça, il n'y a pas le choix. C'est juste, elle est longueur n. Elle ne peut pas être incluse dans quelque chose de plus petit. Mais pourquoi le point final, ça ne muserait pas à revenir systématiquement beaucoup plus près de l'origine. Donc ça, ça vous montre un tout petit peu les difficultés de montrer, enfin, relier à ça. On ne sait rien faire. On ne sait absolument rien faire. Dans l'autre sens, d'ailleurs, à l'inverse, on a envie de dire quand même que la marche auto-évitante, elle ne va pas être balistique. Alors, on sait montrer que c'est un petit taux de n. Ça, c'est un résultat qu'on avait montré avec Alan Hammond il y a 3 ans, quelque chose comme ça. Mais on n'a absolument aucune idée comment le rendre quantitatif. n sur log log log log log log n, je ne sais pas faire. Les choses intéressantes dans les deux cas, ce serait vraiment, les superbes objectifs, ce serait d'avoir n puissance 1,5 plus epsilon et n puissance 1 moins epsilon ici. Mais même ces questions beaucoup plus simples, on ne sait pas faire. Et ça, vous pouvez essayer à la maison. On peut commencer, on se dit, c'est pas possible, ils sont juste bêtes. Mais moi, c'est ce que je me suis dit. Puis après, je me suis rendu compte que, du coup, j'étais bête. C'est ce que j'ai absolument. J'ai cherché beaucoup et c'est des superbes questions parce qu'en fait, on manipule... Il y a plein de petites idées qu'on peut introduire dans le problème, mais il n'y en a aucune qui fasse vraiment fonctionner le tout. Et donc, ça, c'est... Bien sûr, ça, c'est les premières questions. Après, on aimerait montrer la convergence vers l'ESL-8. Ça, c'est pour les... Ça, c'est les probabilités de demain. Ça, c'est les probabilités d'après-demain, l'ESL-8. Et la dimension 3, c'est les probabilités de... Bref, peut-être un jour, mais je n'y crois pas trop. Voilà, merci beaucoup. Alors, du coup, est-ce qu'il y a des questions sur les marches photoévitantes ? Oui. Donc là, il y a peut-être que les windings soient constants sur la convergence. Ça, c'est grâce à l'ESL-8. Non, non, en fait, le réseau... Non, ça, le winding serait toujours constant. C'est juste le fait qu'on ait pris un domaine simplement connexe. Donc, on n'a qu'une seule façon d'arriver. N'importe quel lacet qui aille de A à B, aura toujours le même winding. Si vous réfléchissez, il y a le winding du bord, en fait. Là où on utilise vraiment le réseau hexagonal, c'est pour ce lème. Là, la magie combinatoire qui permet de montrer ce lème est spécifique au réseau hexagonal. C'est vraiment là qu'on l'utilise. Avant ça, il n'y a absolument aucune... En fait, on pourrait définir la même observable pour le réseau carré. On s'attend à ce qu'elle ait en fait la même limite d'échelle. Elle converge vers la même chose, mais elle ne vérifie pas ce lème au niveau discret. Une autre question, peut-être ? Oui. En dimension 4, c'est-à-dire les corrections algorithmiques, est-ce que c'est censé repléter les corrections algorithmiques dans le nombre d'intersections... Exactement, oui. C'est exactement relié à ça. On a des heuristiques. Alors, en fait, en dimension 4, on a un peu plus que des heuristiques si on prend ce qu'on appelle le modèle weekly safe avoiding walk, où en fait, on ne va pas interdire les intersections, on va juste les pénaliser par une constante, multiplicative à chaque fois. Dans ce cas-là, en fait, il y a un résultat de Bauer-Schmidt, Bridges et Slade, un résultat récent qui montre, en fait, ces corrections logarithmiques en dimension 4, en faisant de la renormalisation. Pour le modèle de marche auto-évitante lui-même, on ne sait toujours pas faire, mais on converge. En tout cas, on est certain, du coup, qu'il y a les corrections. Voilà. C'est exactement basé sur les corrections pour les marches à la toit. Bon, merci beaucoup encore une fois. Merci à vous.