 d'une bonne workshop et de l'advance de l'école. Je change un petit peu le titre juste parce que l'idée va être la même en plus simple, ici. C'est un travail prévu avec mon collaborateur, Nicolas Fournier et Stéphane Michelin, qui va venir la prochaine semaine. C'est la 2D Naviestox équation. Je vais juste commenter un petit peu le titre. La propagation du chaos, je vais expliquer un petit peu ce que ça veut dire, mais juste pour mentionner que le chaos n'est peut-être pas dans le sens que c'est très sensible à la condition initiale. C'est ce qu'il s'appelle, c'est le chaos moléculaire dans le sens de Bonnesmann. C'est-à-dire que quand tu regardes un grand système de particules et que tu prends 2 particules en général, c'est le grand système de particules, ça devrait être probablement indépendant. C'est ce qu'il y a derrière ce monde de chaos, et je vais expliquer un petit peu plus tard. Je vais commencer par la 2D Naviestox équation. Je l'ai oublié. Tu as un sens de vitesse, qui est avancé par soi-même, et tu as une viscosité, qui est une sorte d'infusion. Exactement une infusion, en un sens. Et... Je serai toujours sur RD. C'est le temps en R, en X, c'est une position en RD. C'est une complète équation locale, et tu peux demander pourquoi tu parles de la Naviestox équation, dans cette conférence sur l'équation non-locale. Mais, parce que ce que je vais dire, c'est que dans la 2D, dans la 2D dimension, ce que tu fais souvent, c'est... C'est très intéressant de faire, c'est de regarder l'équation satisfaite par l'équalité. Donc, si tu regardes W, qui est l'équalité de l'équalité, dans la 2D, je veux dire par ici, le dérivatif de... Oui, et tu as... Tu as deux compétences, bien sûr. Et... Donc le dérivatif de la 1e compréhension en respectant la 2e, minus le dérivatif de la 2e, en respectant la 1e. J'espère que le signe est le bon signe, si ce n'est pas aussi important. Ok, et l'équation pour cette 1e, c'est toujours... Je vais le regarder là-bas, parce que j'ai besoin de ça beaucoup de fois. Donc, pour moi, la 2D de la 1e compréhension sera dans la formulation de vorticité. Ok, et l'équation est que... c'est plus ou moins la même. Ok, la vorticité est toujours advoie par la vélocité du jouet. Il y a toujours cette diffusion de W, pardon, et le point n'est pas que la vorticité dépend de la vorticité. Et dans un cas, ce n'est pas local, parce que, basiquement, vous devez remettre la vorticité de la vorticité. Et... Pardon, le point est que j'ai oublié, bien sûr, le fait que c'est une équation incompressible de la vorticité. J'ai besoin de la pression. Maintenant, avec la vorticité de la vorticité, c'est 0. Il y a... Oui, je suis désolé. Je vous remercie beaucoup. C'est un peu simplifié la équation de la vorticité. Mais... Ce n'est pas possible avec la descente. Merci beaucoup. J'ai très utilisé cette formulation, la vorticité de la vorticité, pour qu'on quitte exactement la pression de la vorticité. C'est... C'est pourquoi nous sommes très heureux d'y faire avec cette équation, en ce sens, quand vous n'avez pas vu plus de pression. Merci beaucoup pour vous. Allez-y. Donc, un U est donné par un fil de la vorticité. OK. Ce qui est... Il y a un kernel. Et vous computez, selon... Vous devez choisir de bonnes notations. Allez-y. OK. Pour celui-ci. OK. C'est une équation de fil de la vorticité. C'est-à-dire que, quand vous voulez compter, vous devez savoir le W dans l'espace. OK. Et le car est le kernel de l'espion de la vorticité, qui est le X perte du... X à la poivre 2, en normes. Et vous trouvez que c'est le grand perte de l'axe de X, 1 sur 2 pi. Et vous avez ce formulaire. OK. C'est une équation de fil de la vorticité. Ça est un fil de la vorticité parce que vous devez... Vous devez savoir le W dans tout le monde pour compter. À un point. Ok, donc ce terme est non-local, à cette époque. Et donc, vous voyez que nous passons par une équation locale avec une nulle nulle, qui est probablement non-local, en ce sens, à une équation non-locale, où il n'y a pas de nulle nulle anymore, mais clairement vous voyez où est la nulle nulle locale. Ok, donc c'est la question de Navier-Stokes. Je devais avoir un résultat de l'unique existence et de l'uniquité, parce que je vais parler de cela plus tard. Donc ce n'est pas complètement trivial, parce que, comme vous le voyez, le kernel k est singular. C'est en 1 par x à l'origine. Donc vous ne pouvez pas dire juste l'existence, c'est trivial, c'est juste un drift sur la diffusion. Non, non, le drift est singular. C'est-à-dire, le drift est rendu par une nulle nulle non-possible singular, donc vous devez être un peu plus careful. Mais nous avons un bon résultat, peut-être avant de faire des erreurs, je devais le dire maintenant. Puis, par exemple, Benartzi, suivant Kato, il montre que le problème est bien posé pour W0 en L1 entre solutions qui ont une continuité avec respect au temps en L1. Donc vous avez besoin de... Je vais revenir sur cela plus tard, mais vous avez besoin d'une condition a priori pour donner un résultat posé sur cette équation. Vous avez besoin de donner une régulièrement de condition initiale et d'un certain point de vue pour qu'une solution évolue. C'est normal, mais c'est important. C'est très important pour votre système de particules. Donc, nous le stressons. C'est un très bon résultat. Et le plus récent résultat est par Lyon, Gallagher et Gallet. En fait, il y a deux papiers sur ce sujet. Vous pouvez commencer par la vorticité, ce qui est une mesure. Une mesure, c'est presque... C'est un résultat très général. Et de nouveau, vous avez besoin d'une continuité avec respect au temps. Et en ce temps, vous avez besoin d'une continuité en L1, mais, bien sûr, vous ne pouvez pas imposer que le temps T equals à 0, parce que, à ce moment, c'est quelque chose qui n'est pas en L1. Donc, ce que vous avez besoin de savoir est que la solution va être continue après le temps equals à 0, en un sens. Ok. C'est continu en temps avec le valeur en L1 après le temps 0. Le temps T equals à 0, il devrait convertir à L0, ce qui est une mesure. C'est très continu. C'est en un sens. Donc, vous faites ça. Ok. Donc, ne parlez pas du système particulier. Donc, je dois introduire l'approvision de la vorticité. Donc, la vorticité, vous connaissez probablement tout ce que c'est. Ok. C'est ce qui s'occupe quand vous emptiez un coin ou quelque chose comme ça. Vous pouvez voir la rotation de la fluidité. Et cela correspond à une solution fondamentale de l'équation de la vorticité. Ok. C'est une masse directe de la vorticité. Ok. Et si vous mettez une masse directe de la vorticité et que vous regardez le fil de vitesse qui est associé, c'est quelque chose qui s'occupe à ce point. Et qui s'occupe plus vite et plus vite. Pardon. Avant, si vous êtes plus près de la vorticité, plus près de l'origine de votre masse directe, enfin, le point de votre masse directe de la vorticité, plus vite, ok? C'est une rotation qui s'occupe plus vite et plus vite quand vous approchez de la masse directe. Donc, la vorticité est la solution fondamentale de l'équation de la vorticité. L'équation de la vorticité n'est pas de la vorticité, pas de la vorticité, pas de la viscosité, excuse-moi. Et donc, ce genre d'objectifs ont été introduits par Helmut, Kirchhoff à la fin du XIXe siècle, parce qu'ils voulaient, en fait, parce qu'ils l'aimaient, et puis ils l'aimaient pour construire l'approximation de l'équation de la vorticité, où vous... Ok, j'aimerais dire cette équation à la vorticité quand l'équation W est une figure directe. Ok, peux-je faire ça? W est une figure directe. Pour s'éliminer, vous vous writez ce que je vais trouver une mesure empirique. Ok, vous vous writez W U T est equal 1overn vous allez prendre ... une masse directe. Vous avez la position et vous avez une vorticité, une vorticité qui pourrait être quelque chose de positif ou de négatif, selon les signes de la rotation. Et ensuite, vous l'étiez correctement, et si vous voulez l'étier correctement dans une sorte de set de minefield, vous mettez une sur l'autre, afin d'assurer un signe de finite, un signe de finite en Indien. Ok, c'est Omega N of T. Et si vous regardez à ceci, vous voulez écrire l'équation caractéristique qui est derrière cette équation. Vous avez l'adjection drift avec respect à vous, et vous avez la diffusion. Donc ce que vous écrivez naturellement, c'est un système de particules, qui est le suivant. Ok, chaque particule, X, E, et T, follow cette équation, donc vous pouvez l'étier par une formule, et cette formule, avec respect à une mesure non pluricale, devient la somme de K of XIN of T minus XIN of T plus. Donc vous devez avoir des diffusions, et si vous voulez avoir des diffusions sur l'équation transporte au niveau de l'équation de Fouker-Planck, vous devez ajouter une motion du trajectoire. Ok, et avec une coefficient, ce sera Sigma et Sigma est équal. Et la relation est que Mu est équal à Sigma square over 2. Si vous êtes familiar avec la formulae Hito, c'est ce que vous avez à l'end. Et vous voyez que nous avons un système de particules qui interacte avec l'autre, dans une fashion qui est très similaire à celle-ci, parce que si vous pliez une mesure non pluricale à la somme de massées, dans cette équation, dans cette intégrale, vous avez exactement cette somme. Donc elles sont clairement relative. Et la question est, qu'est-ce que nous pouvons faire avec ce type de système ? Ok, qu'est-ce qu'il y a de l'existence et d'uniquité ? Pour cette SDE, c'est une équation stochastique différente parce que l'existence de cette motion brunée. Encore une fois, ce n'est pas si facile, parce que de la singularité du kernel, il faut... Ah, oui, oui, c'est blanc. C'est complètement blanc. Merci, merci beaucoup. K n'est pas définie à 0. Il n'y a pas de self-interaction entre les vertices, donc vous ne pouvez pas voir ceci. En fait, peut-être, vous pouvez... Formulement, vous pouvez dire que K0 est equal à 0. Ok, alors... Mais, n'importe quoi, c'est juste un moyen convenant pour évoquer les choses, parce que, à la fin, vous avez un K qui continue en singular à 0, donc vous avez une difficulté d'air, donc vous devez... ...d'entraîner de toute façon. Ce n'est pas un point très difficile. Donc l'existence d'uniquité n'est pas si facile parce que de la singularité, mais c'était obtenu par Osada, on dirait à l'âge de 1985, et il y a aussi un résultat par Fombana et Martinez, qui sont deux probabilistes. Osada est aussi un probabiliste. Et ils suivent... 2000 choses, 10 choses. Et ils suivent... Je pouvais mentionner cet argument, parce que, en fait, ils suivent un argument par Marco and Pulviranti, qui était donné pour le système de vertices, où ils montrent que... Ok, je l'ai oublié, la vorticité, qui est... Si la vorticité est bien choquée, je ne suis pas dans un set, c'est de la vorticité 0, la vorticité que vous pouvez obtenir. Ce système existe pour tout le temps, ce qui signifie qu'il n'y a pas de collision des vertices. Ce qui est difficile, il y aura un problème dans ce système, si deux vertices arrivent à la même position, où est le carnet de singularité ? Ce que vous avez besoin d'avouer, c'est la collision des vertices. Le seul gars est quelque chose qui pourrait être positif ou négatif. Mais c'est la dernière fois qu'il pourrait être positif ou négatif, parce que... Maintenant, je vais toujours considérer que omega est equal à 1, ok ? De n'importe quoi. Omega i est equal à 1, pour tout i. C'est juste pour l'amplification, ok ? Ce n'est pas... Ce n'est pas un équipement. Vous pouvez faire ce que je vais dire, mais je vais aussi travailler avec de n'importe quelle possibilité de omega i. C'est plus difficile de faire. Je préfère faire les choses dans ce cas-ci, parce que, après ça, ça va compliquer la présentation de tout ce qu'il y a. Vous n'aurez pas l'air. Donc, ce système, je dois dire que c'est important pour la vision numérique, ok ? C'est un système qui était, au moins, très utilisé pour la simulation numérique, en particulier de 2D turbulence, etc. Je me souviens qu'il y a un article, par exemple, qui est présenté dans les années 60, dans les années 70, qui montre qu'il utilise ce type de système pour simuler les turbulence, etc. C'est un système important. Ce n'est pas juste que nous voulons jouer à ça, ok ? Qu'est-ce qui est le lien avec ce système et l'équation précédente ? Comme je l'ai dit, vous avez dit que, en plus, ce système est écrit sur le niveau de la trajectorie, et c'est une équation, donc, c'est une pointe de vue de l'agrégion, et cette équation est pour la pointe de vue de l'Euler. Ok ? Donc, si je veux comprendre ce qu'il y a de l'autre, je dois aller au même point de vue. Et d'abord, l'Eulerien de Lagrangian. Est-ce que l'Eulerien est bon ? Ok, si je veux comprendre ce point de vue de l'Eulerien, j'ai besoin d'une équation pour celui-ci, pour la mesure empirique associée à ce système particulier. Vous voulez vraiment faire ça ? Oui, peut-être, vous pouvez. Donc, ça va commencer comme pour l'Eulerien de l'équation, parce que vous avez la partie transportée, qui est la même. Ensuite, la diffusion, la diffusion de Bourgogne. Mais, il y a une femme, parce que c'est une mesure empirique, et ce n'est pas une diffusion qui ne peut pas comprendre. Et il y a une église, qui est petite, mais qui est vraiment église, qui est une sorte d'issue, juste pour vous faire peur de ça, c'est une sorte de martingale, qui est de la valeur dans l'espace de distribution. C'est une valeur distribuée de martingale. C'est petit, mais très délicat pour l'under. Vous ne voulez pas faire ça. Donc, en fait, vous ne faites pas ça. Donc, ce que vous faites, c'est mieux. Ce qui est mieux, c'est d'utiliser une formulation de Lagrangian. Donc, c'est dire, quelles sont les caractéristiques, quelles sont les trajectories, qui sont derrière l'équation de Navier-Stokes. Navier-Stokes est la équation de Navier-Stokes, et la compréciation de Navier-Stokes. Donc, vous faites ce que je dirais, une diffusion différenciée non linéaire, une équation, qui est la trajectoire de cette question. Donc, la trajectoire de cette question, vous faites des particules typiques, et vous dites que ces particules typiques, elles s'évoluent selon quoi ? Il y a ce transport terme, qui est donné par le kernel, donc je peux le faire comme ça, plus une motion de bonheur. Si je fais ça, typiquement, j'ai un bonheur, qui est donné. Donc, B i, c'est toujours une motion de bonheur. OMEGA T, à cette fois, qu'est-ce que l'OMEGA T ? OMEGA T, c'est le système de vorticity. Et en un sens, c'est aussi la distribution, la loi de X of T. Je dois le faire comme ça. Je suis désolé, c'est faible. Il n'y a pas de chose là-bas. Et c'est correct. Et donc, vous pouvez le faire aussi comme une expectation, si vous voulez faire un petit peu de probabilité. Je pense que c'est un genre d'intervention. Je l'ai juste mentionné aussi. Donc, ça veut dire que l'OMEGA T est la loi de X of T. Cette notation dit que l'OMEGA T, non, je suis désolé, ce n'est pas le bon. L'OMEGA T est la loi de X of T. Et l'EY of T est une copie indépendante de X T. Donc, basicalement, j'ai voulu utiliser les deux manières de write juste pour dire que, si vous utilisez le kernel sur le complot du système, vous pouvez aussi voir ça. Si vous voulez, c'est la loi. Donc, c'est la loi de Y. Y of T est une copie indépendante de X T. Donc, ça veut dire, dans un sens, que, pour obtenir l'équation de Navier-Stokes, vous devez faire un typique particule avec une copie indépendante de soi-même. Donc, vous choisissez l'un de tous les articles possibles, qui sont à votre temps. Vous choisissez l'un, l'une indépendante de l'un que vous avez prévu. Donc, cette fois-ci, vous voyez ce que j'ai mentionné avant sur la propagation du chaos dans ce système. C'est complètement ce que nous voulons, dans un sens. Et ce que nous avons dans un grand système de particules, pas l'infinite système de particules, c'est que, dans un sens, vous choisissez tous les autres articles. Vous ne pouvez pas choisir tous les articles que vous avez besoin, que vous choisissez environnement et indépendamment. Vous devez choisir tous les autres articles que vous avez. Donc, vous espérez que les autres articles sont distribués à l'inépendance et à l'inépendance de ce que vous voulez. Je vais essayer d'être plus clair. Donc, vous voyez cette équation, qui est la NLSDE. C'est mieux dans Lagrangian, point de vue de Lagrangian. Donc, vous passez à ce point. La dernière équation que je vais avoir besoin de vous évoquer est l'équation du UV. Qu'est-ce que l'équation du UV est? C'est l'équation satisfaite par le loge du système de particules. Qu'est-ce que c'est? C'est une grande équation, parce que fn sera le loge de xn, x1, xt. C'est une sorte d'équation de transport, mais une grande, parce que vous avez un n particule, qui est suivi de toute cette dynamique. Donc, je dois évoquer une grande différenciation, une grande termine de transport, qui est xi-xi. Le gradient de xi de fn est equal à la summe de la diffusion, parce que toute la motion de Dibronian donne une diffusion. Donc, quelle est l'équation de fn? fn est le loge de x1n. Fn t est le loge de x1n xt. x1, xn, je dois l'évoquer comme celui-là. xt, xt, et c'est satisfaite par l'équation du UV. C'est une grande équation. Donc, je l'ai évoqué sur le côté gauche, toute l'équation qu'on a besoin. Donc, ce qu'on doit évoquer, c'est ce qu'on appelle la propagation du chaos. Ok? Donc, nous avons cette extension que j'ai essayé d'expliquer, que dans le limiter, dans un sens, vous interagissez avec quelque chose qui est de la même chose que vous, mais qui est complètement indépendante de vous. Et dans le système n particulier, vous interagissez avec toutes les autres particules qui sont dans votre système, qui ne sont pas indépendantes avec vous. C'est le point. En fait, en tant que vous faites évoluer le système, même si, à un moment donné, ils sont indépendants, il y a cette interaction qui va créer une coopération. Donc, vous perdez votre indépendance. Ok? Donc, vous dites, ok, c'est différent. Donc, non. Ce n'est pas peut-être que vous avez une honte, ok? C'est que, ok, ils sont interagés, mais ils voient presque tout. Si, en tant que la mesure empiricale est fermée à quelque chose, en général, vous voyez que cela devrait être fermé, cela devrait être fermé à cette formule, en quelque sorte. Ok? Donc, vous devez obtenir cette formule plus une correction. Et si vous souhaitez que la correction soit petite, et ne créez pas trop de corrélation, vous devez dire quelque chose comme ça. Ok? Je ne suis pas complètement indépendant. Nous sommes un peu fermés à l'indépendance. Ok? Et si nous sommes un peu fermés à l'indépendance, en quelque sorte, fermés à l'indépendance, probablement, nous agirons comme celui-ci. Et si nous agirons comme celui-ci, probablement, nous préservons quelque sorte d'indépendance. Ok? Donc, vous vouliez prolonger, en quelque sorte, cette indépendance dans le système, cette almost asymptotique d'indépendance, vous vouliez prolonger pour prouver que, en fait, si le nombre de particules est large, alors cela devrait agir comme celui-ci. Ok? Mais ce n'est pas si facile, parce que le carnet est singular. Ok? Donc, même si vous pouvez croire que cette somme est, comme vous le voyez, le nombre large. Et cette somme est une sorte de aller, quand la somme est large, à cette somme, pour exemple. Ok? Si vous assumez que tout de cette somme est à cette somme, non plus ou moins. Il y a une singularité dans le potentiel. Ok? Donc, les vortices, qui vont arriver assez close, probablement, ils pourraient avoir un large influence sur l'un de l'autre. Ok? Et donc, imaginez, comme si vous savez sur l'équation de Boltzmann, que l'on l'a expliqué avant. Quand vous regardez l'équation de Boltzmann, vous avez deux particules à la somme, vous les faites interactes et après, ils changent complètement leur vitesse. Ok? Après ce temps, ces deux particules, ils sont complètement coïnétisés. Ok? Ils sont vraiment, je veux dire, il y a une strong correlation among them. Ok? What we need, if we want, in our case, we want to avoid this kind of situations or maybe say that this may happen but not too much. Ok? You are correlated with, even you are small correlated to all the particles or maybe you are highly correlated to some particles but not a large amount of them. Ok? We should, we should, we should say that this cannot happen, both of this kind of stuff cannot happen and we have this, this singularity so we have to be careful when you, when you do the computation. Ok? So no, I should say, explain a little bit what, what I mean by propagation of chaos is something like that. Ok? So I will, I will try to draw a picture and you start from a a vorticity which is omega zero. You use one of the, this is a a row of time, so you use one of the result of existence of uniqueness to say that if omega zero is in L1 for instance then you have a unique evolution for the NS2D equation. Ok? And then you, you choose you start with n particle with n particles that's r in some sense omega n omega n zero ok? It's 1 over n x and i at time zero and you say that it is close to omega zero and they are also more or less almost independent in that sense ok? They are close to omega zero let's say and they are independent in fact what I will try to show is that there is a this kind of interplay because being close to omega zero and being independent which makes that you you can you can preserve this one both of them at the same time ok? You remain close to omega t and you remain almost independent so this is a a strange picture ok? So just what I want to say I try to explain this this that you have to at the same time remaining close to omega zero and being independent you can you can in fact show that you propagate both in some sense at the same time ok? So but rigorously what what what are what is rigorously the propagation of chaos what is rigorously the chaos so I need to they get some some definition chaos and propagation so I will give a precise definition of what I mean by chaos ok? so I will take a sequence of a sequence of of random variable d'accord? but remark that just xn is a random variable which is in r2n ok? at each time at the at the step n we have n random variables ok? the size increase with n you look at an increasing sequence a sequence of random variables at each time the number of variables which is inside huge vector increases right? ok? you say that xn is omega chaotic omega is a probability on r2 ok? if one of the three equivalent property below is is true which means that first I will say that the low four whole k four whole k in n n'est-ce que je vais dire the low of the first k vector of x of xn weekly as n goes to infinity to a tensorized version the k terms are produced of omega ok? meaning that they have all these all these particles have this in the limit have distribution of omega and are independent ok? if I put the tensor product here means that they are independent their low is a product of low for each variable ok? second point is that k equals 2 only meaning that you look only as a second marginal xn1 and xn2 goes in low towards omega tensorized with itself one times as n goes to infinity so of course point 1 implies point 2 yes this is not quite trivial and the second point is that you look at the empirical measures the third point sorry is to look at the empirical measure and you say that the empirical measure which you can associate naturally to your vector of n particles of n position you construct an empirical measure so you call it omega n goes in probability towards what towards omega and so this concerns a whole particle I forgot something which is very important to say is that the sequence of random vector are exchangeable exchangeable meaning that if I permute if I use a permutation among the xn ok then they still have the same law Physically we can also say that in fact you have unlabeled particles ok you cannot say particle number 1 particle number 2 they are exchangeable in the sense that you cannot differentiate 1, 2 the second one and so on ok so you have to use distribution which are symmetric which are invariant with respect to permutation so this is what we call propagation of chaos which really means that when you pick 2 particles then they are almost random ok so there is 2 way of saying this either on the marginals marginals mean that you you average on the position of many of the other particles ok or at the level of the empirical motion ok there seems to be quite different but on the strong assumption of exchangeability this is something that you can see that it's equivalent some sense ok just to to commentate a little bit for instance if I say you that WN is almost equals to W everywhere almost surely ok what you will say what we can do about the second margin the 2 particles marginals ok so you pick up on particles in this one you fix it and you ask you ask yourself what is the position of a second particles of the second particles so you know only the empirical the empirical measure which is this one but so you know that the older particles they still are close to W0 you erase the first one if you want the small modification to do that the position of the other one the whole other one is still close to omega 0 ok but if you are exchangeable the position of the whole other particles is the same as the position of the second particles so knowing the full distribution of the other particles is close to omega 0 and the fact that there is exchangeability means in some sense that the second particle is still close to omega ok and the other in the other direction you have a same kind of reasoning because if you want to prove that this one goes in probability towards something which is deterministic omega is fixed there ok this is a random object a random variable but this is deterministic then you just need the variance of this stuff around omega and if you want to compute the variance on something you will probably you just have to to do the calculation but you need only the two particle correlation to get some result about it ok so this is really two different point of view clearly but under the magic of exchangeability they becomes clearly they becomes equivalent ok the very important point is there that I should mention this one in this kind of system of particles exchangeability is a key point always ok so this is chaos this is a rigorous definition of chaos ok so meaning that in some sense you are distributed according to roofly let's say I should give a roof definition too ok roofly this means that f low of xn is almost omega tend to rise n times ok but this is of course this is very roof because you cannot say something like that the dimension increase and so you have to measure it properly and one way of measuring it is saying that the empirical measure goes to omega almost surely and the other one is looking only at finite marginal of this stuff ok what is propagation of chaos so propagation of chaos is saying that in the end if I start from some initial distribution which are omega zero chaotic ok so you fix a distribution of particle which is omega zero chaotic from some well chosen omega zero then you say that along times what will happens does the distribution at standard t of my particle system will be omega t chaotic ok you follow the dynamics of the particle systems you follow the dynamic of the limit equation does they agree again at times t in the sense of chaoticity ok propagation of chaos is the following definition is the following property if if xn zero is omega zero chaotic does xn t is omega t chaotic where with omega xn xn t this is the solution of the particle systems ok which is well defined thanks to the work I quote before and with omega t solution of ns2d equation I should mention also in fact that you could do a kind of trajectorial version of the propagation of chaos meaning that the trajectory of this system goes archaotic with respect to the trajectories of that system but it is a kind of you can follow the time if you want in this kind of system but it is it is more complicated to write and to understand so it's not it's not the point here you can do something like that ok so to complement my my picture which is there I should write a line which I like very much which means that exchangeability ok you start from exchangeable initial condition and you expect that this is preserved a long time this is I mean if you look at the equation it is clear that if you if you permute to if you if you change xy by xy it will remain the permutation will still be true at times t ok this is a general fact that if you want a right equation for indistinguishable particles it's better for you that they preserve this exchangeability if not it's a kind of problem ok so so this is the general picture I skip this one where is this so the result about the the systems regarding Navier-Stokes equation and can we prove answer this question the answer is yes and I will I will quote two result ok two result the first one the first one is by Osada our own no precisely in published in 85 he said that yes answer is yes but under some position the condition of the following one omega 0 should be the first one is that the viscosity is large enough ok so you have to add something which is positive but not only positive greater than constant which is 1 over 2 pi or something like that it's not really relevant the initial vorticity should be bounded ok you start from IED initial configuration omega 0 time survives n times ok so of course this is chaotic but it is a particular sequence of chaotic omega 0 chaotic position and then you get this result of propagation of curves ok the second one is the work we have done with F. Mischler to put it in order Nicolas Fournier and myself and which was published in James in 2014 correct the answer is still yes but this is an improvement of this one so I try to explain why first the improvement is that the vorticity has to be positive only ok just a this is a good time to mention that if there is no viscosity omega equals 0 this is the earlier equation and you try to approximate the earlier equation and this is really a mess because the uniqueness result I mentioned on the limit equation you do not have it anymore so you have much less thing to say if you are untested by this problem with the best paper available as this of Chauchat which to this the earlier this kind of problem with no viscosity but it's quite different as we will see later for instance when I try to give you the idea of the proof so Mischler Fournier aurait we have any positive viscosity omega 0 is just with finite entropy ok with finite entropy and xn0 is omega 0 chaotic so you have not to assume that initially they are independent you just assume asymptotic independent you just need a bound on the entropy of xn0 the bound is on the entropy the entropy is an extensive quantity as I will mention in a minute so to get something which is relevant you have to divide it by n if you want to get something uniform so this is the result ok I will try to give you a sketch of the proof short sketch of the proof because just a sketch of the proof is classical what you want to do when you want to prove ok so there is several options either you are able to do estimates and to control anything and to get some convergence with the weight ok here we are not in this kind of setting we are not able to do that we use some compactness argument ok so the first step is to get compactness compactness of the system of the solution of the particle system ok which is also in probability you called it tightness ok, this is the first step the second step is to recognize the limit possible so once you know compactness you are able to extract the second step converge ok converges and you want to recognize the limit the possible limit sorry, this is too French so you need to recognize the possible limits and the first step final step is to say if you want to say that in fact it's really converges it's uniqueness of the limit so what about uniqueness of the limit ok so just what I mentioned before is that uniqueness of the limit this is a crucial point also because I have this result of uniqueness if omega 0 is in L1 so here we have something which has a finite entropy in L1 anyway it's a probability it's ok but there is apriori condition you need to satisfy to be sure that your solution is unique among the solution that are continuous in time after time 0 for instance ok, and this one when you pass to the limit in a particle system it's something which is very different it's difficult to pass it to the limit ok, so there is still something to do there because it will depends of what you are able to get information on the possible limit not only that their solution of the equation but some apriori information on them ok so all of this all of this point what I should mention it's heavily all these points heavily rely all these points heavily rely on the entropy dissipation on the properties of the future information on the entropy dissipation on the properties of the future information ok so what I mean by this so in this system I have the UV equation for instance the Fokker-Plancké evolution equation for the n particle system what is the evolution of the entropy ok so what I do is what I usually you saw it with with Gizebetoskani just before is that I write in some sense if you erase this term you have a kind of it equation ok in large dimension but you will say that the the evolution of the entropy will be given by minus the derivative of the entropy will be minus the future information of F ok what does this term do this term does nothing because K is divergence free then you in fact you multiply by log of Fn and you can pass it there ok because in fact I should have write it like a divergence then this is a gradient of something then you transform it as a divergence of this term because K is divergence free ok and then you integrate it and it becomes 0 ok so when you look at the derivative with respect to time of FnT of of the entropy of FnT it's exactly equals you are in the same as if it was the it equation ok the future information ds equals h fn0 so you get that information or can you pass to this information to give a given answer to the old point I will try to explain it in a few minutes within a few minutes so the first point in fact if you look at the equation ok this is a you look at trajectories or say are something which depends on time so if you want some compactness you want some compactness at fixed time ok and some continuity with respect to time ok to apply sort of ascoli ok so the first point you need you need compactness at any time at one time at least but any time is better plus some uniform continuity in time ok if you look at the equation ok what you need to control is the interaction term which is singular ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok ok Et puis, si vous travaillez un peu, vous dites, et si vous êtes familiar avec l'équalité de l'older, si vous voulez que ce terme soit l'older et la fin de l'équalité de l'older, ça veut dire que si vous pouvez l'older en temps, vous devez appliquer une inequality de l'older en temps pour obtenir quelque chose qui est T-S à la puissance, je ne sais pas, il y a des propositions positives, et vous devez contrôler ceci. Et ceci, comme j'aimerais expliquer, mais il n'y a pas de temps, donc je serai rougé, c'est que vous pouvez contrôler par l'information fissure de Xn1S-Xn2S. Donc, Y, meaning the law of the difference of the position of two particles. Y, this, just because, we mark because, in fact, Y of F, the fissure information, if you look at this definition, you can write it like this one, okay, for instance. So, this is a kind of Sobolev norm for square root of F, okay. So, if you apply the Geckli-Arnon-Nearnberg-Sobolev inequality, your Sobolev inequality, then you get some good integrability on F, okay. In fact, what you get is that F in LP is controlled by some constants i of F to the power one minus one over P if F is a probability, okay. For any P, strictly larger than one, not in between infinity, okay. So, if you know this, then you are able to integrate this singularity in dimension two, okay. In dimension two, if you get all the LP norm, then you are able to integrate anything up to the one over X to the square, this limit case not included. Okay, so you are able to control this one with respect to the soup in N of this fissure information. On this fissure information is a law of two, is smaller than the law of two particles, okay. This because the fissure information and very nice property, when you change the variables, you modify them as a, you have seen many of these very nice information properties in the top of Tuscany, but there are many other property of the fissure information. One is, for instance, that's, sorry, okay. You can control it by the fissure information of the two particles, okay. And this, what is called a superadditivity of the fissure information, is that, in fact, when you take marginals of a distribution, the fissure information decrease, okay. Fissure information, I mean the word information is exactly for that, okay. If you have n particles and you decide to look only at the three first particles, the information you get decrease, okay. This is an information. On this, you can check, you can write it, you can do the calculation, but this is true. And it decrease, but in the sense, you can rescale it, okay. So this is smaller than the fissure information of fn, sdx, okay. So, with this one and this is bounded, okay. Because we, if I rescale this inequality, I assume that this one was bounded. So, this is bounded and this is bounded. This is, I mean, to bound this, you have to bound this by below, in fact, but you can bound on, my entropy is a mathematical entropy, not the one with a minus, the one with a plus, okay. H of f equal, integral of f, n under f. And if you, so on the whole space, it's not bounded by below, but if you have some moments of second order moments, which are easy to, to propagate here, you can bounded by below, so if you, this, this is bounded, this is bounded by below and this is bounded. Uniformly in n, and this allow you to handle the singularity and to do the first step, meaning showing the compactness, okay. The second step, I just will skip it because it's kind of complicated argument, but you need the same estimate in some sense, okay. You write, if you are familiar with that, you write the martingale formulation of this kind of limit system, okay. Or to recognize a trajectory which satisfies that, you use the martingale formulation of this one and you pass to, you see what I, and you need to control terms like that, okay. So you can do it with the same estimate. So you recognize a limit. So the next step, I need two minutes to conclude this step, okay, is that you need to, you to recognize that the possible limit are solution of the NS2D equation, okay. So it's not finished because you have uniqueness if you get some extra information. And there there is still a very nice property of the Fisher information, which I should write briefly, is that when you pass to the limit in some sense, so, okay. So it's a kind of gamma convergence of the Fisher information, which is that when you have particles xn such that, so n, a sequence of distribution such that xn, sorry, the associated empirical measure goes in low toward omega, but this time may be random, okay. This is the full general case. So you have the sequence of probability is not chaotic to what could convert the empirical measure to a probability because these are probability on Rd, on R2, these are converging low toward some probability on R2, okay. Then what you get is that, in fact, the mean of the Fisher information of omega is smaller than the limit as n goes to infinity of the Fisher information of your particle system, of your particles and particles, okay. This is a kind of gamma convergence result because in some sense, if you use the tensor right, fine, there is a way to get the equality if you want. Anyway, you know to pass to the limit in the Fisher information too, okay. When you look at some sequence of empirical measures going in the limit towards something, you can pass to the limit. And this is crucial for us, okay. Because after step 2, we know that we converge, but maybe there is many limit points, okay. So we can converge towards something random. But what we get in the limit that we can converge only towards a solution of the equation which have a bond on the Fisher information integrated in times, okay. And the last result is that you have uniqueness for such kind of solution of... If you have this aprioric condition, so uniqueness in NS2D, if omega 0 is L1 and... No, L1, okay. And the Fisher information is bonded because this, from this condition, you can do the trick of deep analysis to renormalize solution to show that there are continuous times with respect to... Okay, so this is the procedure. And what I will just to conclude to say that, in fact, so... This again heavily relies on the very nice property of this entropy and Fisher information, okay. At any step, you use this strong property on this one. And as I want to conclude, and in fact, it's for instance, the first step is a very important one, is that this Fisher information is extensive, okay. Meaning that when you add n particles, it be more or less like n times somethings, okay. It's extensive in the physical sense. And this is very important to use extensive quantity when you want to pass to the limit as a number of particles goes to infinity. For instance, Laurent de Villette, in his talk, he used entropy, which are any L2 norm or something like that, because he knows, he works at a fixed number of particles, and he's very, very well. But if you use L2 norms with an increasing number of particles, then this is a mess, because basically, except of multiplying by n your estimates, you have this power n, which appears in your L2 norm or something, and you will never be able to do something like that. No, I'm sure. But you, so I strongly recommend that you need to use extensive quantity. That's why I think the talk of Tuscany was really interesting, is that you, unfortunately, there is a few quantity, which is extensive, which is important. So we probably need more to get some better results and a more deeper result for a chance of particle system. So it's finished. Thank you. It's finished, yeah. Let's thank you. Thank you.