 Bonjour à tous, je suis Anne Gégout Petit, présidente de la Société Française de Statistique et avec le comité d'organisation qui travaille depuis presque un an à la préparation de cette journée. On est très heureux de vous accueillir, de vous voir si nombreux pour cette journée de clôture de l'année internationale de la statistique. Vous qui êtes présents dans cette enfi, il y en a qui sont juste à côté et qui nous voient en visio. Il y a un enfi à l'Inrad Toulouse, donc je salue. Et puis on doit avoir des auditeurs anonymes parmi nos membres puisqu'on les a invités à suivre, si il le pouvait, la journée ou une partie de la journée. Donc je salue tout le monde, y compris ceux qui sont loin. Je remercie les quelques journalistes qui ont voulu venir aussi couvrir l'événement. Et je vais citer nos soutiens, donc la Fondation pour la science statistique, la Fondation pour les sciences mathématiques de Paris, la Fondation Jacques Adamard, la Miesse, agence pour les mathématiques en interaction avec les entreprises et la société. Et je vais remercier aussi les techniciens de l'IHP et le staff de l'IHP qui nous accueille si nombreux aujourd'hui. Alors on a choisi de faire une journée de clôture de l'année qui nous ouvre sur de nouveaux horizons, donc notre science comme toutes les sciences bouge beaucoup. Et on a demandé à des spécialistes d'autres disciplines, différents spécialistes liés à la statistique de venir nous dire pour eux quels étaient les enjeux et les perspectives pour demain. Donc comme vous le savez, la statistique est très ancrée dans les mathématiques donc Cédric nous fait l'honneur d'ouvrir la journée et je crois qu'Emmanuel Candès nous fera un exposé bien lié aux mathématiques Mais les statistiques sont aussi liées à d'autres sciences et on va voir avec, Jean-Luc Leurkstark, le lien, excusez-moi, avec l'astrophysique et Mme Maçon Delmotte avec le climat. Les statistiques sont liées bien sûr aux entreprises, à l'industrie et Bob Rodriguez a eu une belle carrière dans la recherche à Général Murtos, Il a eu l'honneur de présider la société statistique américaine et nous terminerons avec Emmanuel Todd pour les interactions avec la société. Donc j'espère que cette journée va vous ouvrir de nouveaux horizons et donc je vais donner la parole à Cédric Villani que tout le monde connaît mais qu'il faut quand même présenter. Donc Cédric est directeur de l'IHP, c'est un grand mathématicien français du XXIe siècle qui a obtenu donc la médaille Films en 2010 pour ses travaux sur l'amortissement de l'Ando et puis qui est un formidable ambassadeur de notre matière en France et de par le monde. Donc Cédric c'est à toi. Enchanté de vous accueillir ici donc au nom de l'institut Henry Poincaré ou IHP comme l'a rappelé Anne-Jégoût Petit. Tout le monde m'entend là. L'IHP a été fondé il y a plus de 80 ans avec comme mission d'être une maison des mathématiques, de toutes les mathématiques allant de ce qu'il y a de plus pur, à ce qu'il y a de plus appliqué et en englobant aussi la physique théorique et plus généralement tous les domaines qui font une forte consommation ou qui ont une forte interaction avec les mathématiques. Dès la création en 1928, le fondateur Emile Borel avait installé ici l'ISUP, Institut de la Statistique de l'Université de Paris, c'est-à-dire l'importance qu'il a attaché à ce que la statistique soit présente ici. Et en face de l'IHP se dressait déjà le bâtiment périn, bâtiment de chimie physique, vous pouvez voir juste en face, nous avons un plan à l'IHP quand ce bâtiment sera libéré d'ici quelques années de le faire rénover et de l'utiliser comme extension de l'IHP pour de nombreux usages. Et Jean Perrin avait fait construire ce bâtiment dans la foulée de son prix Nobel 1926, prix Nobel obtenu pour les atomes, c'est lui qui avait convaincu tout le monde en faisant un certain nombre d'expériences de l'existence des atomes. J'insiste là-dessus d'abord parce que c'est bon de rappeler que les atomes, même si ça nous paraît une évidence, ça fait seulement un siècle qui sont admis par tout le monde. Nous avons parlé d'hypothèsatomiques et même il y a des irréductibles qui ont continué en plus cette expression pendant longtemps. Et puis des grands ténors de la science française comme Marcelin Bertelot qui avait combattu cette hypothèsatomique avec force pendant toute leur carrière. Et puis aussi parce que évidemment c'est un rapport avec notre sujet, la découverte des atomes si l'on veut, la mise en évidence, c'était un problème de statistique. C'était dans la lignée des idées de Maxwell et de Boltzmann et la révolution de la physique statistique des années 1860-1870, et où l'on cherchait à se représenter des phénomènes complexes macroscopiques comme la résultante d'un très grand nombre d'interactions microscopiques. Et à cette époque-là, pas de microscope électronique, il était hors de question d'observer des atomes. Boltzmann est mort en pensant qu'on n'arriverait jamais à avoir de preuves directes de l'existence des atomes et que même les fluctuations liées à la nature atomique de la matière, on n'arriverait pas à les observer. En fait on a réussi à observer ces fluctuations et la preuve, si l'on veut, de l'existence des atomes était entièrement basée sur des observations indirectes et leurs traitements statistiques. C'est ce que vous retrouvez dans l'ouvrage majeur de Jean Perrin, les atomes. Et ce qui a emporté l'adhésion de la communauté, c'est que quand on faisait la comparaison entre un certain nombre d'expériences et de calculs, on trouvait toujours le même genre de résultats pour le nombre d'avogadro qui faisait le pont entre ce très très grand nombre de petits éléments et puis le ressenti macroscopique qu'on en avait, quelque chose comme 6 fois 10 puissance 24. Toutes les calculs aboutissaient au même ordre de grandeur, même si ce n'était pas exactement la valeur précise. L'une de ces expériences est décrite dans un ouvrage que j'ai lu avec passion quand j'étais agréer les préparateurs, ouvrage de Marc Katz, l'un des grands probabilistes du XXe siècle, qui s'appelle Prohabilité dans les sciences physiques. Il n'a pas été traduit en français. Il décrit une expérience qui a été réalisée par Theodor Svetberg, analysée mathématiquement par Smulshovski. En utilisant les formules Einstein, je vais vous la décrire, c'est un des premiers exemples les plus marquants où notre vision du monde change complètement à la suite d'une analyse statistique, d'une expérience physique. On va remonter ça. Je ne sais même plus comment on se sert de mon propre appareil. Le jour d'expérience, vous prenez un grand récipient rempli de liquide ou quelque chose comme ça. On va imaginer de l'eau et vous mettez dedans des petites particules, qui sont toutes petites, mais quand même d'échelle macroscopique, particules colloïdal comme il disait. Et puis, vous les laissez vivre leur vie dans liquide. Et ce qui va se passer, c'est qu'elles vont suivre des trajectoires broniennes, selon le fameux mouvement bronien qui a été observé par Francis Brown, d'autres avant lui, d'autres après lui. Mais Brown était le premier à avoir compris que c'est un phénomène purement physique, lié à quelque chose de vivant ou d'animé. Et puis, à intervalle régulier, il y a une certaine région du récipient que vous éclairez. Il y a un petit dispositif qui fait des flashs, et vous comptez, au moment où ça flashs, combien il y a de particules dans la petite zone qui est éclairée. Et vous comptez et ça vous fait une série de nombres. Alors dans l'ouvrage de 4, on reproduisait une de ces séries. Ça commençait par 1, 2, 0, 0, 0, 2, 0, 0, 3, 2, 4, 1, 2, 3, 1, 0, 2, 1, 1, 1, 1, 3, 1, 1, 2, 5, 1, 1, 1, 0, 2, 3, 3, 1. Voilà. Une série de nombres longue, comprise entre 0 et 6. Qu'est-ce que vous faites quand vous avez ça ? Et comme le fait Marc et Marc 4, c'est extraordinaire qu'à partir d'une série de nombres comme ça, dont aucun ne dépasse 6, on n'est réussi rien qu'en analysant à trouver un nombre comme 6 fois 10 puissance 24. Et il s'agissait de faire une analyse de corrélation si vous voulez. Alors comment on va analyser le problème ? D'abord, les particules broniennes, elles se déplacent plus ou moins rapidement selon que la température est élevée, selon que leur diamètre est élevée, et puis selon le nombre d'avogadroup. Et il y a une formule qu'on appelle souvent formule d'Einstein dans ce contexte, qui nous dit que le coefficient de diffusion, il est égal à RT divisé par 6 fois le nombre d'avogadroup, fois Pi, fois A, fois Eta, où ici vous avez la viscosité du fluide, ici le rayon des particules, ici la constante R des gaz parfaits, ici la température T, et puis il reste le nombre d'avogadroup comme inconnu. Et alors, estimer le coefficient de diffusion revient à estimer le nombre d'avogadroup. Vous reste donc à estimer le coefficient de diffusion, quelque chose sur la façon dont les particules vont s'étaler. Et vous faites une analyse de ces différentes particules, qui évoluent indépendamment les unes des autres, et vous allez faire une statistique, exemple de statistique, qui est la probabilité pour que, si quand ça flashe il y a 0 particules, alors au prochain flash il y a encore 0 particules. Vous faites l'analyse, vous calculez, vous trouvez une formule qui va être comme cette probabilité, quelque chose comme 1-1 sur le volume relatif de la région que vous éclairez, multiplié par l'intégrale double de l'exponentiel – x – y² divisé par 4 fois D fois T, divisé par 4 Pi dT, tout ça à la puissance 3,5. Vous multipliez ça, vous intégrer ça en x et en y sur la région A, et puis vous comparez ça à la probabilité que vous estimez statistiquement à partir de la série. Vous en déduisez le coefficient de diffusion D, vous en déduisez le nombre d'avogadros N. Et puis vous faites ça avec d'autres tests pour comparer avec d'autres tests statistiques de corrélation à l'intérieur de votre série. Voilà. Et j'insiste, c'est assez remarquable qu'en analysant juste en regardant combien de particules ici et là, on arrive à estimer une quantité inconnue qui est de l'ordre du million de milliards de milliards. Et quand j'avais lu ce texte, je dois dire, j'avais été très impressionné. Ça faisait partie de ma fascination pour la statistique. Je ne suis pas statisticien, mais j'ai enseigné les statistiques en prépare à Grègue et j'ai toujours trouvé le domaine fascinant. Alors aujourd'hui, on est plus de 80 ans après la fondation de l'IHP, plus d'un siècle après les expériences de Svedberg. Mais ces remarques s'appliquent encore avec encore plus de force. On n'a plus l'issup, mais la place, on a la société française de statistiques qui est installée dans nos locaux et qui, depuis quelques années, participe à notre conseil d'administration, donc fait pleinement partie de la maison. Et puis les statistiques présentes dans les grandes découvertes, on les a vues partout. Regardez le boson de Higgs, qui était là le grand événement scientifique de l'année 2012. En tout cas, celui qui a donné lieu à plus de miliatisation. Eh ben, le boson de Higgs, on ne l'observe pas directement. On observe le résultat de collision. Il s'agit d'expérés de faire des éductions à partir d'observations indirectes. Et là encore, il y avait un calcul statistique et de nombreuses expériences répétées. Et les chercheurs du CERN, qui avaient validé les calculs, disaient que ça avait été poussé à un tel point que la probabilité d'existence d'un nouveau boson était de 99,999%, ou peut-être même qu'il y avait 4,9 après la virgule, quelque chose comme ça. En tout cas, il y avait eu un travail statistique extrêmement sérieux qui avait été fait. Et là aussi, c'est vertigineux. Quand vous dites qu'on arrive à estimer une probabilité comme ça, à 0,99999, bon, ça vous donne le vertige. Et ça nous renvoie à l'étonnement qu'on pouvait avoir au 18e, 19e siècle, quand les gens se sont rendus compte que, de manière inattendue, il y avait des lois implacables derrière des phénomènes complètement aléatoires. Vous lancez une pièce en l'air, vous regardez combien de fois pile, combien de fois face, et vous trouvez, non seulement vous trouvez la loi des grands noms, mais vous trouvez que la loi des erreurs, la loi gaussienne, elle est vérifiée avec une excellente approximation et ainsi de suite. Francis Galton, quand il parlait de l'omniprésence des lois statistiques comme la gaussienne, dans toutes sortes de phénomènes allant du niveau des océans à la variation de taille des individus, à la variation de nombre de crimes dans une villionnée sur l'autre, parlait de la gaussienne comme la loi suprême de la déraison. Il disait que les Grecs l'auraient déifié s'ils avaient eu connaissance de cette loi, tellement elle régnait partout, sans qu'on s'en rende compte. Donc il y a cette omniprésence des statistiques qu'on voyait déjà à l'époque et qu'on revoit maintenant, et on la retrouve tout le temps, on la voit dans le boson du X, chaque fois qu'il y a des élections, des campagnes électorales, évidemment, on est bombardés de sondages, n'est-ce pas ? Et puis il y a toutes sortes de débats, il n'y a pas longtemps qu'il y avait un débat considérable quand certains élus souhaitaient faire passer une loi qui obligait certains instituts de sondages à dévoiler certaines coulisses, les arcanes des méthodes de sondages, les questions, les échantillons, donner des différentes informations sur les marges d'erreurs et le traitement après. Et puis les instituts de sondages ont dit que c'était absolument inadmissible et qu'il fallait pas faire ça parce que le public ne serait pas interprété ces résultats et qu'il y avoir toutes sortes de problèmes. Je caricature un tout petit peu, mais vous m'arrêterais si je dis des bêtises. On a revu les... Et on le voit régulièrement, n'est-ce pas, dans les journaux, en période d'élection, un sondage qui change les choses de 1%, 10 articles qui commentent le problème, et puis quand vous regardez, le sondage a été fait sur 800 personnes, vous calculez la marge d'erreurs, vous voyez qu'elle est très supérieure au 1%, c'est quelque chose qu'on voit régulièrement. On a beau en parler et en reparler, ça fait partie du jeu en quelque sorte. Statistique, c'était aussi, on l'a vu, clé dans une autre grosse controverse qui a été, à l'une des journaux, c'était le maïs génétiquement modifié, Monsanto, les expériences sur les rats, les expériences du professeur Serralini et, là encore, la clé du problème, c'était une question statistique. Il y avait eu une analyse des débats, notre collègue Marc Laviel avait fait, non seulement une analyse précise du phénomène, mais une très belle vulgarisation j'avais trouvé à l'occasion de ce qui clochait, en particulier, en expliquant bien ce qui peut se passer si on prend un échantillon test qui est trop réduit et comment le fait qu'il suffit quelques individus qui ne se comportent pas comme il faut, qui vivent plus longtemps que prévu pour que toutes les statistiques soient fossées. Et à cette occasion-là, on avait vu, en tout cas, c'était la conclusion que j'en avais tiré, qu'on arrive, quand on veut le faire, à présenter un débat d'experts en termes tout à fait compréhensibles quand on se souhaite bien. Statistiques, vous les retrouvez dans toutes sortes de méthodes pour prédire le temps qu'il fera, pour reconstruire des images bruitées, pour faire l'intelligence artificielle. Vous allez avoir de nombreux exemples aujourd'hui dans la suite de la journée. Un exemple que j'aime beaucoup commenter des fois dans des conférences grand public c'est celui de la phylogénie. Tant en tant on voit des articles qui remettent en question les arbres du vivant, les façons dont on se représente les liens de parentés entre différentes espèces et systématiquement maintenant ce sont des méthodes statistiques qui font ça. Ça va être des questions de reconstruction fondées sur le calcul baillaisien des algorithmes de Monte Carlo Markov chaine avec évidemment on voit tout de suite pourquoi on a un problème statistique une fois que vous avez l'arbre et que vous savez comment sont les parents en termes génétiques c'est facile de calculer les probabilités pour que les descendants soient comme ci ou comme ça c'est des exercices qu'on fait en lycée c'est l'inverse, on connaît les descendants on veut savoir comment est l'arbre il faut réussir à inverser le truc et puis là vous avez cette difficulté supplémentaire que les arbres il y a une quantité phénoménale j'avais fait le calcul pour présenter un article qui était sorti en 2010 dans lequel 3000 gènes de 50 espèces avaient été 3000 séquences de gènes de 50 espèces différentes avaient été analysées sur 50 espèces vous regardez le nombre d'arbres possible c'est d'or de 1076 alors évidemment là ça reste inférieur au nombre de protons dans l'univers certes mais quand même mais quand même 1076 vous pouvez toujours courir pour le simuler sur votre cri ou quoi que ce soit alors évidemment il faut ruser c'est là qu'arrivent ces méthodes de type Monte Carlo Markov chaine ou en particulier on ne va pas calculer toute la somme sur tous les arbres tels qu'on l'aurait dans la formule de base d'inversion on va regarder un système dynamique aléatoire qui va partir d'une supposition un arbre qui est comme ci puis qui va changer l'arbre par exemple on va le rabouter différemment on va prendre un morceau on va le mettre ici on va rallonger une des pattes de l'arbre on va échanger deux individus dans l'arbre et ainsi de suite on va regarder si c'est plus probable ou moins probable si on voit correspondre à cet arbre si c'est plus probable on va vers le nouvel arbre qui est plus favorable si c'est moins probable on l'exclue pas a priori mais on y va d'autant moins probablement que le rapport des probabilités est élevé et on continue comme ça et puis on regarde ça nous donne une suite d'arbres qui évolue de manière aléatoire et on regarde les statistiques correspondant à cette suite d'arbres et on se dit qu'on a si on a de la chance et si ça a l'air de converger il y a une bonne approximation de ce que ça doit être et là on voit comment d'abord, formulaire statistique comment il peut être utile pour des problèmes dans lesquels l'espace des configurations est tellement tellement grand qu'on ne serait absolument rien faire par une méthode déterministe et on voit aussi comment on a comment il faut être malin pour faire ce va-et-vient entre le calcul direct et le calcul inverse qui est toute la base cet algorithme que je décrivais c'est l'algorithme de métropolis dans lequel partant une configuration vous changez la configuration vous acceptez la nouvelle s'il est plus probable et puis s'il est moins probable vous l'acceptez avec une probabilité qui est le quotient de différentes probabilités différentes vraies semblances cette méthode est extrêmement efficace en pratique elle a révolutionné plein de problèmes dans l'industrie dans d'autres sortes de calculs on sait toujours pas comment ça marche mathématiquement en théorie pourquoi ça marche aussi bien en particulier il y a quelques années Percy Diaconis, un des grand statisticiens de notre époque m'avait dit c'est l'un des grands problèmes scientifiques les plus motivants de l'époque contemporaine pourquoi est-ce que les algorithmes de façon métropolis de façon montée comme le Markov chaine il marche aussi bien et il a fait une étude il y a quelques années avec notre collègue Gilles Lebeault spécialiste de limite semi-classique spécialiste d'analyse très dure c'est une étude d'un modèle monstrueusement simplifié de ces problèmes de métropolis c'est paru dans une revue très prestigieuse vous prenez un domaine dans l'espace multidimensionnel ici je représente seulement dans le plan et vous voulez approcher une probabilité qui serait juste la probabilité uniforme sur ce domaine et pour l'approcher vous partez d'un point aléatoire qui est pris dedans vous piochez un point au hasard dans un cercle j'ai une boule de rayon donné autour de votre point vous obtenez un nouveau point s'il est toujours dans la boule vous le gardez et ainsi de suite et puis s'il sort de la boule vous rejetez, vous recommencez et puis vous recommencez l'expérience jusqu'à ce que vous espérez avoir ainsi décrit à peu près l'ensemble de la mesure un modèle extrêmement simplifié dans lequel l'espace des phases c'est juste un sous-ensemble d'un espace equidien et ils ont analysé la vitesse de convergence dans la limite où la boule est très petite qui n'est pas la limite qui vous intéresse vraiment c'est une taille intermédiaire qui vous intéresse vraiment pour faire les calculs ils ont obtenu des bornes qui sont moyennes avec une débauche de techniques mathématiques, l'article est magnifique il y a eu dans une très grande revue et ça vous montre un peu je dirais tout le fossé énorme entre ce qu'on aimerait faire sur ces méthodes de métropolice et ce qu'on sait faire on s'est traité à grand peine et dans une limite particulière un domaine dans lequel l'espace des phases c'est juste un sous-espace de l'espace equidien ce qu'on aimerait faire c'est des choses comme des arbres, des phylogénie ou toutes sortes d'espaces éventuellement fonctionnelles compliquées voilà quelques exemples qui viennent en tête je vais prendre quelques minutes encore pour parler de statistiques d'outils statistiques en tout cas dans des domaines sur lesquels j'ai travaillé moi et pour insister sur le fait que la statistique bien sûr ça envahit tous les domaines de la science ça aussi envahit les mathématiques ça a eu une influence sur des questions de mathématiques qui a priori ne sont pas posées sur les termes statistiques des mathématiques qu'on pourrait appeler pur et certains objets fondamentalement statistiques sont devenus des objets qui ont servi à résoudre de nombreux problèmes mathématiques et qui sont retrouvés associés à des questions mathématiques complètement différentes dans mon cas en particulier des questions de géométrie alors, premier outil premier outil très utilisé en statistiques et qui a connu une nouvelle jeunesse extraordinaire il y a une quinzaine d'années un domaine dans lequel j'ai beaucoup travaillé domaine dit du transport optimal imaginez que vous vous donnez deux mesures mu et nu et vous voulez les comparer une façon de les comparer c'est d'imaginer que ce sont les distributions statistiques de deux variables aléatoires on va appeler x pour mu et y pour nu et de dire que les deux mesures sont proches des variables aléatoires qui vont être proches en tant que variable aléatoire et donc vous vous donnez un coût entre deux observations y et y et vous vous demandez étant donné mu et nu comment minimiser on va appeler ça grand c de mu nu comment minimiser la valeur moyenne du coût entre la variable aléatoire x et la variable aléatoire y l'infimum étant sur toutes les variables aléatoires x de lois nu et y de lois nu ça c'est la version probabiliste la façon probabiliste de former le problème de transport optimal qui a une longue histoire remontant à quant aux revices au milieu du 20e siècle et même avant, gaz par monge à la fin du 18e siècle cas particulier extrêmement intéressant en géométrie dans lequel votre coût de transport est le carré d'une distance ça peut être une distance euclidean ça peut être une distance quelconque si vous êtes dans une géométrie non euclidean et dans ce cas là on note souvent l'objet correspondant W2 distance de Wasserstein qui est la racine du coût entre mu et nu quand je regarde la distance au carré ici on est bien dans une démarche statistique et c'est un objet qui pendant très longtemps était très utilisé en statistique en particulier quand vous avez un nuage de points qui sont tirés selon une certaine loi et vous cherchez à comparer la mesure correspondant à une somme d'atomes qui sont placées en ces différentes observations la mesure empirique comme on dit qui contient toute l'information statistique ici toutes les observations si vous voulez chercher à la comparer à la vraie mesure selon laquelle vous tirez les points ça peut être un objet très intéressant et vous avez beaucoup d'études là dessus alors un autre objet par lequel vous cherchez à comparer des différences entre différentes mesures c'est ce qu'on appelle l'anthropie de Boltzmann on va appeler l'information de Boltzmann disons qu'une information c'est l'opposé et si vous avez de mesures nues et mûches on va appeler H nu de mûches l'intégrale de rohlogroh des nuches où roh est la densité de mu par rapport à nuches on l'appelle aussi information de Kullback on l'appelle aussi information de Shannon il est très utilisé en théorie de l'information c'est l'une des trois principales notions d'anthropie avec l'anthropie de Kolmogorov-Sinaj et la complexité de Kolmogorov les trois ont en commun qu'elle nous donne des informations sur la difficulté à reconstituer une variable aléatoire à partir de l'examen des observations ici il y a un résultat de statistiques qui décrit bien ce que représente l'anthropie on l'appelle théorème de Sanov je vais l'exprimer de manière un peu floue sans donner la définition précise mais là encore imaginez que vous avez une mesure de probabilité et vous tirez des observations indépendantes selon cette mesure de probabilité et vous regardez la mesure que vous obtenez le nuage de points et vous vous demandez quelle est la probabilité que ce nuage de points bien il soit à peu près une certaine probabilité mûche et on tire des points les observations selon une loi nûche alors on sait et on appelle ça des fois théorème fondamental de la statistique que cette probabilité évidemment elle tend vers zéro que presque sûrement par rapport à la Léa la mesure empirique elle va tendre vers la vraie mesure nuage donc évidemment cette probabilité elle va être d'autant plus petite que mu et loin de nuage et elle va être maximale a priori ou asymptotiquement maximale quand mu sera égal à nuage et la formule de Sanov qu'on appelle aussi enfin une variante de la formule de Boltzmann ou une certaine formule d'Einstein c'est à peu près exponentiel l'anthropie voient l'information H nu de mu autrement dit c'est quelque chose qui décroit typiquement exponentiellement vite si vous fixez mu exponentiellement vite quand le nombre d'observation augmente et coefficient dans l'exponentiel il est donné par cette information de Boltzmann autrement dit si l'on veut cette information de Boltzmann elle donne une information sur à quel est ce qu'il va être facile ou difficile de reconstruire la mesure nu à partir de l'examen des valeurs à partir de l'examen des valeurs dans le sens maximale puisque là il y a toute l'information qu'on peut espérer retirer des échantillons donc ça c'est l'anthropie et puis troisième ingrédient extrêmement connu l'information de Fischer évidemment de l'un des plus célèbres représentant de la statistique alors il y a plusieurs façons de l'introduire si vous vous donnez une famille de densité F qui dépend d'un paramètre Theta on va l'écrire information correspondant au paramètre Theta comme l'intégrale de 1 sur F fois F sur des ronds Theta au carré c'est une des façons de l'écrire en supposant que c'est une des façons de l'écrire si tout va bien avec les intégrations par partie et ainsi de suite et dans le cas ouf votre paramètre Theta qui est variable et que vous voulez estimer par exemple c'est juste un paramètre de translation vous savez par exemple quel est le profil de votre courbe de votre courbe distribution mais vous savez pas où elle est centrée votre information de Fischer elle se réduit à l'intégrale gradient de F au carré divisé par F cette information de Fischer plus généralement si vous avez une mesure de référence et MUCH une autre mesure on va définir inut de MUCH comme étant l'intégrale de gradient RAU carré divisé par RAU ou RAU c'est la densité de MUCH par rapport à MUCH et il y a une sorte de parallèle avec la façon dont j'ai écrit l'anthropie bien sûr plein de résultats intéressants par rapport à ça en particulier la borne de Kramer RAU qui vous dit que si vous regardez si vous cherchez une façon d'estimer le paramètre Theta à partir de N observation et que vous voulez un estimateur qui soit sans biais qui en moyenne donne le bon résultat et bien un estimateur sa variance elle doit au moins être un sur N fois l'information de Fischer il vous dit des choses sur la variance d'un estimateur qui vous permettra de reconstituer le paramètre Theta on est aussi dans la même philosophie que là ça vous dit quelque chose sur si c'est facile ou pas de reconstituer nu à partir d'observation simplement c'est une façon différente de le mesurer et puis il y a un autre théorème qui dit quand vous regardez l'estimateur du maximum de vraie semblance pour le paramètre Theta et bien la variance correspondante asymptotiquement elle est donnée par la borne que je viens de dire un sur N donc il y a ces théorèmes importants de statistiques il y a aussi un théorème qui ressemble beaucoup à ça la borne d'Onsker-Varadan qui vous dit que si vous essayez de reconstruire une mesure nu à partir non pas d'observation tirée au hasard mais du processus stochastique naturellement associé à nu et que vous regardez la trajectoire correspondante intégrale par rapport à 0 T de la masse prise au point XS ici où vous prenez le mouvement brunien XAT c'est le mouvement brunien associé à la mesure nu invariante et bien ça ça va se comporter à peu près comme exponentiel mointé fois l'information de ficheur et vous avez un autre parallèle et ça vous montre que dans certains cas il va être mieux ou plus pertinent de reconstruire une mesure aléatoire avec un processus stochastique qu'avec des observations indépendantes alors là je vous ai montré 3 objets ça a l'air assez décousu comme histoire et je vais vous donner un théorème qui va relier ces 3 objets l'un des théorèmes qu'on avait montré avec Félix Otto en 2000 un collaborateur allemand avec qui on a fait du bon boulot si je puis dire et c'était le début de tout un ensemble de travaux qui mélangeait alors Otto avec moi après j'ai retravaillé dessus avec John Lott il y a d'autres auteurs qui ont travaillé là-dessus mais je vais vous montrer la borne qu'on avait établie avec Félix Otto qui reliait ces 3 objets statistiques dont j'ai parlé et un objet purement géométrique la courbure courbure vous vous indiquant qu'un truc qu'un espace, qu'une géométrie courbure au sens de Ritchie c'est la courbure qui intervient en relativité générale et on avait montré si vous êtes dans un espace non euclidean dont la courbure de Ritchie est positive un espace courbé positivement typiquement un espace dans lequel les trajectoires ont tendance à se rapprocher plus qu'elles ne devraient alors vous prenez la mesure de référence, le volume l'analogue de la mesure de Lebesgue dans cette géométrie et on va supposer que tout est normalisé qu'on a une géométrie compacte par exemple de sorte que le volume est de masse 1 alors pour n'importe quelle mesure mûche l'information de Boltzmann est majorée par la distance de Wasserstein multiplié par la racine carré de l'information de Fischer et donc vous avez ici un lien assez remarquable en tout cas inattendu avec diverses conséquences dans divers problèmes de physics statistiques en particulier qui relient ces 3 objets qui tous les 3 à leur sens vous donnent une information sur la difficulté de reconstruire une mesure par observation statistique et ça vous fait le lien avec un problème de géométrie et c'était le début toute une histoire reliant les questions de transport optimal et de géométrie qui ont eu un assez gros impact voilà je vous remercie merci beaucoup Cédric c'est lumineux on va prendre une question y'en a une oui ou ici on aurait une égalité oui alors ha ha déjà il faudrait il faudrait se placer oui oui déjà il faudrait se placer en courbue de Ritchie Null et ensuite c'est une bonne question pourquoi je ne me suis pas posé à tous les coup ça va être des Gaussiennes dans ce genre de choses typiquement c'est les Gaussiennes j'ai dit volume normalisé il y a un il y a une façon de définir une courbue de Ritchie pour un espace de probabilité dans lequel on ajoute à la courbue de Ritchie la haessienne de moins le logarithm de la densité et dans ce cas la Gaussienne correspond à une courbue de Ritchie je dis des bêtises si on met la Gaussienne il ne va pas y avoir égalité il y aura un terme en plus peut-être qu'il n'y a pas d'égalité si ça se trouve bonne question autre question j'aurais dû répondre tout simplement non et puis voilà passer à la suite non j'ai cru merci tout à l'heure dans mes remerciements donc j'ai remercié nos sponsors mais je voudrais aussi rajouter la société SAF France qui nous a permis de faire venir Monsieur Bob Rodriguez qui est venu des Etats-Unis donc voilà donc je rectifie c'est oubli et j'en suis profondément désolé ok je sais pas si vous m'entendez Erwan, est-ce qu'il y a tout va bien pour la technique je vois des SMS