 Je vous rappelle la situation. On a G, c'est un groupe de lits. Lambda, c'est un réseau et dans que je veux comprendre, donc je vais me donner gamma, ce sera un sous-groupe de G et je m'intéresse à l'action de gamma par translation sur G sur lambda. Et je cherche, sous certaines hypothèses sur gamma, à décrire les adhérences de gamma orbite. Et ce que je vais faire c'est que pour l'instant ça c'est le problème topologique et maintenant je vais le remplacer par un problème de théorie archodique. Je vais remplacer gamma, je vais le remplacer par une mesure de probabilité. Donc dans ma tête gamma ce sera le sous semi-groupe engendré par le support de la mesure, ou le sous-groupe. Et donc mu c'est une probabilité sur G, une mesure de probabilité borélienne. Et au lieu de décrire les adhérences d'orbite je vais décrire les mesures mu stationnaires. Donc je m'intéresse au mu, ce sera une mesure de probabilité sur G. Mu ce sera une mesure de probabilité sur X qui sera toujours G sur lambda, c'est une notation que je garderai. Et ce qui va m'intéresser c'est les mesures, je vais supposer que nu est mu stationnaire, c'est-à-dire que le produit de convolution mu étoile nu qui est l'intégral sur G du poussé en avant de nu par G, je suppose que ça c'est égal à nu. Et je vais prouver, donc je m'intéresse, ce que je vais montrer c'est que nu est en fait si elle est ergodique, je vais la supposer ergodique, ergodique c'est-à-dire extrémale parmi les mesures stationnaires. Les mesures stationnaires forment un convex et je trouve que ce convex est l'enveloppe de ces points extrémaux, l'enveloppe convex de ces points extrémaux et ces points extrémaux s'appellent les mesures ergodiques. Et quand nu est extrémale, ergodique, je voudrais montrer, alors le tout le but c'est que sous certaines hypothèses sous les mains, on veut montrer que nu est en fait une mesure homogène portée par une orbite fermée d'un sous-groupe de G. Donc ça c'est la situation générale. Alors pour ça, pour étudier les mesures stationnaires en général, j'ai introduit un objet, donc j'ai noté B, c'était l'ensemble des suites d'éléments de G, donc c'est l'espace qui va me fournir des tirages aléatoires d'éléments distribués suivant mu et indépendant, que je munirai donc de la mesure correspond à ce que je viens de dire, c'est-à-dire que je le munis du produit de la mesure neutrale. Et donc dans le deuxième exposé, j'ai introduit un objet qui est fondamental, un objet qui dépend pas de la situation, groupe de lie, etc., qui est complètement associé à nos zones mesures stationnaires, c'est les mesures au bord qui ont été introduites par Furstenberg. Donc j'ai montré que, alors, Beta, quand j'ai une mesure stationnaire, je sais que Beta, presque pour tout B, quand je pousse par les premières lettres de B, écrite dans ce sens-là la mesure nu, ça tend vers une certaine mesure de probabilité, nu B, qui a encore une mesure de probabilité. Et donc dans l'étude que je vais faire des mesures stationnaires, en fait, les mesures que je vais beaucoup étudier, c'est celle-là. Et les deux points de vue sont équivalents. Étudier une mesure nu stationnaire ou étudier un des nu B, c'est pareil, sachant que nu B vérifie une relation d'équivalence, une relation d'équivalence, pardon. Donc si je note T de B dans B, l'application de décalage, c'est-à-dire l'application où on oublie la première lettre de la suite, on décale la suite, et bien nu par construction, nu de T B, c'est le poussé en avant par B, de nu B. Et donc ça a donné une famille de mesures indexées par Beta, qui vérifie cette relation, et bien c'est équivalent à donner une mesure stationnaire et on récupère la mesure stationnaire. Pour la formule nu est égrale à intégrale des nu B, des Beta de B. Donc ça c'est un peu les résultats formels que j'exposais à la deuxième séance sur les mesures stationnaires. C'est à dire les résultats qui sont abstraits, on a un espace, une mesure stationnaire, alors on a cet objet. Donc je vais jongler dans la classification des mesures stationnaires dans les espaces homogènes, je vais jongler entre le point de vue où une fois c'est une mesure qui est point fixe d'un opérateur de Markov, là c'est le point de vue mu qu'on voulait avec nu et gal nu, une fois c'est une famille équivariante de mesures. Et ces deux points de vue vont avoir leur importance. Et donc ça c'était un peu ce que j'avais fait à la deuxième séance, ces manipulations un peu formelles, général, stationnaire. Et puis j'ai étudié les produits de matrice aléatoires, j'ai montré des théorèmes de positivité d'exposants liés à Pounoff, donc j'ai montré que quand on avait mu, comme maintenant mu c'était une mesure, parce qu'une mesure de probabilité. Non, non, c'est des mesures sur l'espace. Nu B c'est une mesure sur l'espace. C'est abstrait. C'est à dire tu as un groupe qui agit sur un espace, un groupe G, il agit sur un espace X, il y a une mesure de probabilité de mu sur G, il y a une mesure nu sur X, le produit de convolution. Mu est stationnaire, alors je dis ça, j'y vais compris. Si j'ai cette situation abstraite, alors j'ai ce phénomène-là, c'est à dire que quand je pousse les nu par des mots dangers écrits dans ce sens-là, ça converge vers des nu B qui sont encore une mesure de probabilité sur X. Dans les mesures de probabilité sur X, ça converge au sens que quand je coigne contre une fonction continue à support compact, ça converge. C'est un phénomène général, c'est complètement abstrait. Maintenant, en utilisant cette notion, j'ai rappelé le contexte dans lequel Furstenberg a introduit cet objet, c'était l'étude des produits de matrice aléatoire. J'ai rappelé le résultat que j'allais souvent utiliser. Quand mu est une mesure de probabilité sur GLV, ou V, c'est un R-espace vectoriel de dimension finie, je suis intéressé à comprendre le comportement asymptotique des produits d'éléments de G distribués suivant mu. Pour ça, il faut des hypothèses. Je supposais que gamma-mu, c'est une notation qui reviendra toujours, c'est le semi-groupe engendré. Le semi-groupe fermé engendré par le support de mu. Si on suppose, ça c'est un théorème de Furstenberg, j'ai démontré, si gamma-mu est fortement irréductible sur V, c'est-à-dire qu'il n'y a pas de réunion finie de sous-espace vectoriel de V qui soit stable par l'action de gamma-mu, alors il existe un réel lambda, tel que beta presque sûrement. Quand je prends la norme de BnB1 divisé par n, le log de la norme divisé par n, ça tend vers lambda, donc ça c'est la loi des grands nombres. Mais cette convergence a lieu aussi quand j'évolue cette norme sur un vecteur donné, donc aussi quel que soit V dans V, V différent de zéro, beta presque sûrement. Donc ça a la limite, la première phrase, on n'aurait besoin d'aucune hypothèse, c'est un truc général sur le théorème ergodique sous-aditif, par contre la deuxième phrase a utilisé la propriété d'irductibilité. Pour tout V dans V, beta presque sûrement. Quand je prends le log de la norme de BnB1V divisé par, disait par norme de V divisé par n, donc là c'est la loi des grands nombres, mais relatif à l'accroissement de la norme dans une droite donnée, ça tend encore vers lambda, c'est-à-dire que ça c'est une conséquence de l'irductibilité, c'est-à-dire que comme c'est irréductible, au fond, quand on va au hasard, finalement il n'y a aucune droite qui joue un rôle particulier. Donc ce comportement de la norme et comportement de toutes les suites. Et puis voilà, on va utiliser ça. Et alors surtout ce que j'ai aussi introduit, c'est la notion d'un champ équivariant. Ici, vous voyez, j'avais un champ équivariant de mesure au-dessus de B et cette donnée va se traduire dans le cas des matrices salatoires par la donnée d'un champ équivariant de sous-espace. Donc si je note R, la dimension proximale de gamma, c'est-à-dire le plus petit rang d'un élément non nul, de l'adhérence dans l'ensemble des endomorphismes de R fois gamma mu, donc dans l'endomorphisme de V, donc je prends des suites d'éléments de gamma, je les renormalise pour caser une norme 1 et je regarde les limites que j'obtiens. Je prends des éléments de cet espace, d'accord, et je regarde le plus petit rang que je peux obtenir. Donc en général, les théorèmes que je raconte, là on les raconte quand le groupe est proximal, c'est-à-dire quand ce R est égal à 1, mais en fait ça marcherait bien quelque soit la dimension proximale, juste il faut adapter les conclusions au cas où la dimension proximale est supérieure, typiquement. Donc si je suis dans le cas où V est de dimension 2, eh bien sous ces hypothèses, la dimension proximale c'est 1. En revanche, de même si c'est pareil, si V est de dimension 3, ces hypothèses impliquent que la dimension proximale, alors je triche un tout petit peu, disons que évidemment il y a des groupes compacts qui agissent de façon réductive. Donc si gamma mu est non compact et si la dimension est 2, la dimension proximale est 6 et c'est 1. Si la dimension est 3, si gamma mu est non compact, la dimension proximale, ça va être aussi 1. En revanche, quand la dimension arrive à 4, eh bien on pourra voir un sous-groupe qui soit, parce que si vous l'avez, un tel sous-groupe, eh bien son adhérence de Zariski en dimension 2, s'il n'est pas compact, ça va être tout SL2. En dimension 3, on va avoir soit SO2, un soit SL3. Et donc à chaque fois là-dedans il y a des ématrices proximales. En revanche, si on arrive à la dimension 4, eh bien on peut se récupérer un sous-groupe qui est contenu dans SL2C. Dans un SL2C plongé dans SL4R typiquement. Et à ce moment-là, la dimension proximale, ça peut être 2. Mais c'est pas grave, vous allez dire que quand il y a une structure complexe, on pourrait renoncer le même théorème en complexe. Enfin de manière générale, on peut produire des exemples, avec des dimensions proximales grandes, c'est pas grave. Tout peut se faire. Donc qu'est-ce qu'il se passe ? Donc on regarde le plus petit rang d'un élément non nul de l'adhérence de gamma mu, enfin de l'adhérence des éléments renormalisés dans gamma mu. C'est la dimension proximale. Donc, qu'est-ce qu'il va se passer ? C'est qu'il existe une application XI, qui va de l'espace B, l'espace des suites, dans la grâce manienne des R-plans de l'espace vector de la V, où le R, c'est la dimension proximale, qui a la même propriété d'équivalences que les mesures nubées. C'est-à-dire que XI de Tb, c'est bien moins 20 que XI de B. Alors, à chaque fois que j'écris une application, ça veut dire mesurable. Je ne le précise pas à chaque fois. Et à chaque fois que j'écris une identité, ça veut dire presque partout. Parce que je fais de la torit de la mesure. Quand j'écris, il existe une application, pour moi, ça veut dire vraiment, il existe une application mesurable. J'ai essayé de penser à le dire. Si j'oublie, ça veut dire ça. C'est une application mesurable et que les relations, c'est pour beta, presque pour tout, B élément de B. Donc, il existe une application de cette propriété d'équivalences et qui est définie de la façon suivante. Donc, c'est très lié à la structure des mesures ici. C'est comme ça qu'on l'a construite, en utilisant ces mesures. Et c'est que beta, presque pour tout B, toute valeur d'adhérence dans les endomorphismes de la suite B1, BN, renormalisé par B1 la norme à pourimage 6 de B. Voilà. C'est-à-dire, quand je prends cette suite de matrice, eh bien, une suite de matrice très, très grande. On pense qu'elle a une grande norme, donc elle a tendance à aller tout contracter vers un certain sous-espace qui est là où la norme est la plus grande. Et comme au début, on ne change pas ce qu'on met au début comme mot, peu à peu, la direction de ce sous-espace est fixée, le noyau. La direction de ce sous-espace, l'image des valeurs d'adhérence. Cette image a tendance à être fixée. Par contre, évidemment, le noyau peut beaucoup bouger parce qu'à chaque fois qu'on rajoute quelqu'un de nouveau ici, on a tendance à faire tourner. Donc on peut beaucoup changer le noyau. En revanche, par contre, l'image, ici, a tendance à être fixée. C'est ça que dit le théoran. Voilà. Donc ça, c'est des objets de base de la théorie des produits matrices aléatoires que je vais tout le temps utiliser. Et je vais les appliquer, donc maintenant, à la situation espace homogène que j'ai donnée là. La direction de sa risquie, de son image par la représentation adjointe du groupe de l'Ici, eh bien, ça va être un groupe semi-simple. Et donc les espaces V ici, ça va être des composantes irréductibles. Comme j'ai un groupe semi-simple, quand il agit sur un espace vectoriel, eh bien, ça se décompose en composantes irréductibles. Si mon groupe est connex, eh bien, ces composantes sont des composantes fortement irréductibles. Donc je vais V, ces constructions de produits matrices aléatoires, je vais les appliquer dans la représentation adjointe de mon action que j'ai ici. C'est ça que j'allais faire dans la suite du cours pour étudier la probabilité stationnaire et sur G sur lambda. Une dernière chose, je reviens une minute, là, il y a cet exposant, qu'on appelle l'exposant Liyapunov, qui gouverne la croissance de la norme des matrices. Si mu elle vit sur SLV, ce qui sera toujours le cas dans les installations qui m'intéressent, puisque tout ça, ça vivra sur un certain groupe semi-simple, et mon groupe semi-simple, c'est la représentation linéaire, elles sont toujours de déterminants. Comme mu est concentré sur SLV, si R est strictement plus petit que la dimension de V, c'est-à-dire si gamma mu, de façon équivalente, si gamma mu est non compact, si la norme d'ac que j'ai mentionné de tout à l'heure, il est strictement positif. Ça, c'est un phénomène important. C'est que si jamais, dans l'adhérence, il y a des matrices non inversibles, à ce moment-là, cette norme, elle a vraiment tendance à grandir. Elle n'est pas bornée. Elle est grandie linéairement. Et là, en fait, si elle ne grandit pas linéairement, ce que dit ce critère, c'est que si elle ne grandit pas linéairement, elle est bornée. Voilà. C'est la dernière fois à appliquer ça à une situation espace homogène. J'ai commencé à appliquer ça pour étudier le phénomène de transciences et de transciences de récurrence, plutôt, des chaînes de Markov sous-jacentes à cette situation, c'est-à-dire les chaînes de Markov qui consistent étant donné un point X dans cet espace, à tirer au hasard un élément du groupe distribué suivant la mesure mu et à le pousser, un élément aléatoire. Donc, la dernière fois, j'ai donné un critère de récurrence pour une chaîne de Markov en général. Quand j'avais un opérateur de Markov-P sur un espace X, j'ai considéré des fonctions U de X dans R+, qui avaient la propriété suivante. PU était plus petit que AU plus C pour un certain A qui était strictement plus petit que 1 de façon complètement élémentaire. Il n'y a rien de compliqué là-dedans. Ce qui est formidable, c'est de décrire le critère. Une fois qu'on l'a, tout tombe de sources, que alors, si on a une fonction qui vérifie ça, si je regarde la probabilité partant d'un point X que U de XN, si je pars par ma chaîne de Markov au chron N, U de XN soit plus grand qu'un réel M, par un calcul immédiat, ça, c'est plus petit qu'un sur M fois à puissance S U de X plus C sur un moins A. C'est-à-dire que ça, ça me fait dit que la chaîne de Markov, si je regarde, en grand temps, elle a tendance à aller beaucoup traîner dans les endroits où la fonction U n'est pas trop grande. Donc ça, c'est un critère extrêmement puissant. C'est comme ça, c'est vrai ça ? Oui, c'est ça, oui, pardon. Oui, donc ça, c'est un critère extrêmement puissant que je vais appliquer tout le temps quand je vais vouloir suivre mes trajectoires de mes chaînes de Markov et montrer qu'il y a des endroits où je ne veux pas qu'elles aillent, elles n'iront pas. Et ça, c'est un critère en loi de mes trajectoires. Ça, ça me dit que oui, la distribution de la chaîne de Markov, où elle serait partie à l'étape N. Il y a aussi un critère le long d'une trajectoire donnée de la chaîne de Markov, c'est-à-dire que quand je regarde un sur N, donc ça, c'est juste l'unité de Shebitche. C'est immédiat cette phrase. L'autre est un peu plus compliqué, mais bon, ce n'est pas non plus faramineux. Quand je regarde un sur N, il faut que j'aie un peu plus de place. Je regarde la limite supe quand N tend vers l'infini de 1 sur N fois le nombre de fois, donc le cardinal de l'ensemble des k entre 0 et N tel que U de xk soit plus grand que M. Donc je regarde le nombre de fois, au lieu, je regarde toutes les trajectoires autant N et je mesurais. Ma fonction U, c'est mon espace, il n'est pas compact. Ma fonction U, là, elle est plus grande que M et là, elle est plus petite que M. Donc je regarde les points qui sont là où je ne veux pas aller, c'est-à-dire dans un cas, dans une excursion que je voulais. Ce que dit la première identité, c'est que si je regarde où est tout le monde, tous les gens qui sont partis de x autant N, il y en a la plupart, ils sont en dessous de la ligne. Et maintenant, ce que je fais, ce n'est pas tout à fait ça, c'est en dessous de la ligne. Et alors ça, je le dis comme ça, je regarde le nombre de fois, le nombre moyen de fois où j'ai franchi la barre, et bien ça, c'est plus petit. Asymptotiquement, c'est plus petit que c'est sur un moins à M. C'est la même quantité qui apparaît, ça apparaît assez raisonnable parce que si on moyenne celle-là, on devrait trouver quelque chose qui ressemble à ça. Et c'est indépendant de x. Voilà. Donc c'est ça que j'ai fait la dernière fois. Alors ça, c'était le critère de Foster que j'ai expliqué la dernière fois. Et j'ai commencé à l'aide des objets de marches alatoires. Je n'ai pas tout écrit ce que j'avais comme conclusion, mais essentiellement à l'aide de cette théorème ici, de versions un peu plus fines de ça, d'une version en loua de cette théorème, j'ai démontré que, dans certains cas, j'avais des sous-varietés dans la situation. Donc quand j'ai x, j'ai des mesures techniques pour éviter d'avoir des choses trop horribles à écrire, j'ai supposé que l'ANDA était co-compact et que le groupe L, alors ça, c'est une notation qui arrivera souvent maintenant qui est le centralisateur dans G de gamme à mu, était discret. Donc, par exemple, j'ai loué des exemples dans une minute. Donc, j'ai supposé, dans ce cas-là, gamme à mu invariant. C'est-à-dire que il est gamme à mu invariant et Y, c'est une orbite Hx fermée ou H est un sous-groupe de G. Donc, dans ce cas-là, moi, ce que j'ai envie de faire, j'ai mon espace homogène, là, et puis dedans, j'ai une sous-varieté Y un bel espace homogène H invariant. J'ai envie de m'intéresser, j'ai envie de montrer que mes probats stationnaires, c'est du type la mesure H invariante sur cet espace. Donc, ce que j'ai envie de montrer, c'est que si je ne suis pas de ce type pour un sous-espace, alors je suis la probabilité de support total à la mesure G invariante. Et donc, pour ça, il faut que je montre qu'une orbite ne peut pas trop passer de temps près de Y. C'est-à-dire qu'une orbite, elle a tendance à s'éculier distribuer vers la mesure G invariante. Quand on part d'un point qui n'est pas sur Y, on doit aller partout. Donc, il faut que je montre que Y qui repousse un petit peu. Et donc, j'ai montré, la dernière fois, propositions sous ces hypothèses. Alors, si l'adhérence de... quand je prends l'action adjointe de Gamamu, si je suppose que ça, donc ça, c'est un sous-groupe donc ce qui revient exactement, à demander que quand je prends la présentation adjointe, elle est somme directe d'une partie où s'évolue l'identité. Mais ici, j'ai supposé que, comme le centralisateur est discret, j'ai supposé qu'il n'y avait aucun endroit où elle valait l'identité. Cette hypothèse revient exactement à dire que, comme le centralisateur discret, ça dit exactement que Gamamu, si je regarde son centralisateur dans l'algebraie de l'I, c'est un sous-module fortement irréductible où la dimension proximale ou dans lequel l'image est non compact, dans lequel la dimension proximale est strictement plus petite que la dimension de tout le sous-module. C'est exactement ça cette hypothèse. Elle me dit que je suis une somme directe, l'action adjointe est une somme directe de machin comme ça. Et alors, en utilisant du coup, j'ai coupé en morceaux mon action adjointe, j'ai appliqué ce critère de dispersion qui me dit que le lambda est strictement positif et qu'il existe par semisimplicité, c'est-à-dire l'algebraie de l'I, l'espace tangent de l'I, c'est l'algebraie de l'I, c'est l'algebraie de l'I groupe H ou d'un conjuyé de H. Il est gamin invariant, donc il a un supplémentaire gamin invariant. Et en utilisant le fait que puisque l'exposant de l'I a pounoff là était positif, dans chacune des composantes irréductibles du supplémentaire invariant, quand j'avais un point, il avait tendance à s'éloigner. C'est-à-dire que j'ai montré qu'il existait, sous ces hypothèses, il existe une fonction U, donc c'est qui va qui va de X privé de Y dans zéro à l'infini. J'ai une hôtel anglaise là, comme ça, ça fera plaisir au jour qui veut que je parle l'oblé. Et qui est propre, c'est-à-dire que U tend vers l'infini quand on se rapproche du sous-espace homogène Y. Donc il existe une fonction de ce type qui est propre et tel que A mu U, et il existe tel que A mu U, ce soit plus petit que A U plus C, ou A mu U, tel que je n'ai noté P mu d'habitude, P mu U, P mu U de U de X, c'est l'opérateur de convolution associé au choix de la mesure mu. C'est-à-dire que c'est l'intégrale sur G de U de GX, des mu de G. En d'autres termes, par le critère de Foster, ici, ça s'appelle le critère de Foster, par le critère de Foster, je sais qu'une trajectoire, elle a tendance à passer le plus part de son temps loin de Y. J'ai fait résumer des épisodes précédents. Comme vous étiez pas là deux semaines, moi non plus, c'est peut-être un peu oublié. Alors maintenant, je vais utiliser ça pour montrer deux choses en fait. La première, ça, ça va aller très, très vite. Donc pour l'instant, je vous expliquerai. Donc là, j'ai fait des tas d'hypothèses que je ne veux pas pour le théorème général. J'ai supposé que le réseau était concompacte. Alors moi, quand même, ce qui m'intéresse, c'est celle des R sur celle des Z, en premier lieu, comme exemple de réseau. Donc surtout, je ne veux pas supposer qu'il est concompacte. Donc je vous expliquerai dans une minute, je vous expliquerai comment on arrive à se débarrasser de ça. J'ai supposé que le centralisateur était discret. Alors ça, il y a quand même pas mal de situations intéressantes. En fait, je vais dire un mot sur ça. Où c'est vrai. Donc des exemples à centralisateur discret. Donc par exemple, on peut supposer 6G, CSL de R. On peut supposer que Gamamu et Zaris qui dansent. Ce moment-là, il n'y a pas de problème, le centralisateur est discret. Donc on est dans le caution de SL de R par un réseau concompacte. Et on insouve Zaris qui dansent. Ça marche. 6G et SL3 R et que Gamamu et Zaris qui dansent, ça marche. Si Gamamu son adhérence de Zaris qui, disons, c'est SO2-1, ça marche encore. Le centralisateur de SO2-1 dans SL3, SL2-1 agit rédictiblement sur R3. Donc son centralisateur dans SL3, c'est trivial. En revanche, enfin en tout cas, c'est discret. En revanche, premier exemple qui n'est pas traité par ce cas-là c'est le cas où G, c'est SL3 R et Gamamu, et bien son adhérence de Zaris qui c'est une copie de SL2 mais plongée comme ça. Voilà. Alors dans ce cas-là, voyez ce qui se passe, c'est que vous avez du centralisateur. Il y a des matrices diagonales qui commutent à ça et donc ça, c'est pas couvert. Je vais vous expliquer comment on gère cette situation-là mais typiquement, si je m'intéresse à l'action, pardon, si je m'intéresse à l'action de SL3 R sur SL3 Z de groupes de matrices qui sont de cette forme-là pour l'instant, je n'ai pas traité. Voilà. Donc ça, c'est le premier exemple où il y a, voilà. Donc c'est, avec Yves Benoît on a compris très vite cet exemple-là et puis le cas avec le centralisateur ça nous a causé des complications atroces dont on a réussi à se débrouiller mais on a vraiment beaucoup souffert là-dessus. Voilà. Alors... D'abord, bon, j'aurais resté donc dans ce cadre, donc on peut penser typiquement GCSL2 Gamamuzariskidance Lambda c'est un pied de surface, la plongée dans SL2 par une représentation, pendant PSL2 disons par une représentation d'uniformisation et on a notre fond, là on n'a pas de problème, on a notre belle section U et pardon, dans le cas SL2 Y c'est un point fixe. Y c'est un point fixe et on regarde ce qu'il se passe. Voilà. Alors là on a notre belle fonction U et qu'est-ce qu'on veut en déduire ? Eh bien un corollaire immédiat de la construction Père. Alors sous les mêmes hypothèses que celles que j'ai mises là eh bien quelque soit epsilon strictement positif il existe alpha quelque pour tout X appartenant à X privé de Y quand je regarde un sur N fois la somme de K égale 0 à N-1 de la mesure qu'on volait K fois de l'ensemble des G dans G tel que GX la distance donc je ne me nie laisse pas une distance n'importe laquelle de GX à la sous variété Y soit plus petite que alpha la limite sub eh bien ça c'est plus petit que epsilon donc ça c'est quasiment le critère de Foster j'ai quasiment réécrit j'ai réécrit le critère de Foster donc en d'autres termes je pars d'un point je veux montrer imaginons maintenant que j'ai réussi à classifier les mesures stationnaires et maintenant je veux classifier les gammas orbites les gammas mus orbites je vous ai dit dans le premier exposé que ça c'était une question d'équidistribution c'est-à-dire vous voulez j'ai besoin de le démontrer ou pas c'est vraiment juste que j'ai écrit là ça c'est ce que j'ai noté ça c'est la probabilité cette quantité là c'est la probabilité que la distance de xk à y soit plus petite que alpha et sans dire que cette distance est petite c'est dire que la fonction u que j'ai construite est grande puisque la fonction u est propre sur x mois y d'accord ? donc c'est juste le critère que j'ai écrit là donc ce que j'ai dit qu'est-ce que je suis en train de dire ? bah ça corollaire il dit quoi ? il dit que si je prends une mesure nu qui est une valeur d'adhérence de la somme j'aurais dû le dire comme ça nu est une valeur d'adhérence du noyau de convolution je pousse qu'à fois la masse de Dirac en x et je fais la moyenne de ces arrous une telle valeur d'adhérence elle est stationnaire bien si on a une telle valeur d'adhérence si x n'appartient pas à y alors nu de y est égal à z donc si vous partez de y que vous regardez une distribution limite des trajectoires partant d'un point vous n'allez pas donner de masse à y alors ça c'est l'ingrédient qui permet de faire la classification des mesures des fermés invariants à partir de celles des probats invariants parce que comment vous allez faire ? vous avez la classification des probats invariants vous partez d'un point vous prenez une valeur d'adhérence de ce truc là une fois pour toutes et bien elle charge aucune sous variété invariante ok mais là il y a quelque chose à savoir c'est qu'il y a un nombre dénombrable sous ces hypothèses il y a un nombre dénombrable de sous variété invariante possible donc ça veut dire que nécessairement puisqu'il y a un nombre dénombrable de sous variété invariante possible et qu'elle ne charge aucune et bien par classification des mesures invariantes c'est la mesure de support total je récris l'argument donc là il y a l'input c'est aussi la dénombrabilité que je ne vais pas vous démontrer parce que c'est c'est purement algebraique il n'y a aucun argument de théorie agrodique de choses comme ça c'est vraiment purement la théorie des groupes de lits élémentaires c'est un peu long et fastidieux voilà donc il y a un input c'est un l'M c'est que sous les mêmes hypothèses l'ensemble des Y inclus dans X qui sont un sous-espace homogène donc un sous-espace homogène c'est une orbite fermée d'un sous-groupe de G je ne vois pas ici j'ai sur l'emmenage compact tel que gammamu Y égal Y donc quand gammamu Y il préserve un sous-espace homogène il préserve sa mesure de var et gammamu est ergodique dans Y c'est à dire qu'il est ergodique par rapport à cette mesure de var et bien cet ensemble est dénombrable alors exemple je vous donne un exemple donc ça c'est un l'M il n'y a pas de théorie ergodique il n'y a pas de théorie ergodique j'ai dit ergodique mais j'ai utilisé une façon très faible une orbite dents c'est purement algébrique c'est purement des calculs de groupes de lits c'est de la pure théorie des groupes de lits il n'y a aucun argument conceptuel là dedans donc exemple qu'est-ce que je suis en train de dire alors j'ai donné deux exemples il y en a un exemple un peu différent on va supposer que G c'est le produit semi direct de SL2Z avec le torté 2 c'est un exemple qui est couvert par mes hypothèses hein j'ai jamais supposé que G était connexe et gamma c'est SL2Z donc ce que dit le théorème dans ce cas-là c'est que disons gamma est inclus dans SL2Z voilà et ils arrêtent ce qui danse ce que dit le théorème dans ce cas-là c'est que les gammas orbites dans le torté 2 lambda et pardon excusez-moi gamma est inclus dans SL2Z donc ce que dit le théorème dans ce cas-là en ce moment là G sur lambda c'est alors c'est juste une formulation pour dire que G sur lambda c'est le torté 2 et que l'action du groupe gamma c'est l'action du groupe c'est l'action de l'SL2Z sur le torté 2 par automorphisme c'est juste pour dire je pense que j'ai oublié de donner cet exemple assez fondamental dans le premier exposé je suis désolé pour dire que dans le théorème que j'ai annoncé j'ai donné surtout des exemples de six plats mais il couvre aussi des actions par automorphie sur des torres ou c'est-à-dire donner une variété sur ce genre de choses dans ce cas-là qu'est-ce que je suis en train de dire le théorème il dit que les orbites soient finies soient denses les orbites finies à quoi elles correspondent elles correspondent au point rationnel et effectivement il n'y en a qu'un nombre dénombrable donc le théorème qui est ici là ce qui crée la dénombrité c'est une généralisation du fait que les points rationnels il y en a qu'un nombre dénombrable dans le torté 2 là vous le voyez peut-être mieux pourquoi ça marche je suis juste en train de dire qu'il y a qu'un nombre dénombrable de rationnel dans le torté 2 et c'est là c'est un phénomène un peu d'arithméticité que vient cette dénombrabilité voilà donc une fois que je sais qu'il y a qu'un nombre dénombrable de fermés invariants possible plus petit que tout l'espace qu'est-ce que je fais donc là je démontre je démontre pourquoi le théorème sous les hypothèses que lambda est compact co-compact et qu'il n'y a pas de centralisateur je démontre pourquoi le théorème de classification des mesures des mesures invariants stationnaires impliquent le théorème de classification des orbites fermées alors la démonstration c'est la chose suivante c'est que j'ai une question oui il y a pas de mesures sur y sur parce qu'y c'est un sous-espace homogène c'est une orbite d'un groupe donc il a une unique l'unique mesure qui est invariante par son stabilisateur voilà c'est celle-là c'est celle-là à laquelle je pense quand je dis qu'il est ergodique dans y ça dit ergodique pour l'unique mesure invariante par le stabilisateur de y donc qu'est-ce que j'étais en train de dire oui alors voilà donc maintenant pourquoi la classification des mesures implique la classification topologique eh bien je prends un point x donc j'ai cet ensemble là je vais le noter vent y donc je prends un point x qui n'appartient pas à y pour tout grand y dans y parce qu'évidemment s'il appartient à grand y je conclue pas alors pour tout grand y là tel que y soit différent de x si l'appartient à un fermé plus petit bah je télérise le théorème par récurrent sur la dimension d'accord je fais par récurrent sur la dimension donc quand il appartient à aucun fermé plus petit bah ce que je veux montrer c'est que son orbite son gamme amus alors je veux montrer que gamme amus x c'est danse dans x c'est ça que je veux montrer alors qu'est-ce que je vais faire eh bien je considère nu c'est une valeur d'adhérence de cette famille de mesures bon c'est un point limite c'est un point limite donc nu est mu stationnaire hein mais maintenant j'ai classifié les mesures mu stationnaires je sais que les ergodiques sont des mesures les mesures associées à un fermé y dans y d'accord mais qu'est ce qu'il y a qu'il y a un nombre dénombrable de fermés eh bien nécessairement nu c'est la dénombrabilité qu'on avait ici elle s'écrit comme la somme pour y dans y d'un coefficient a y fois la mesure nu y la mesure nu y encore une fois c'est l'unique mesure homogène nu mesure sur y qui est un variant de palstabilitaire de y ah oui mais en particulier qu'est ce que c'est que a y bah par définition c'est rien d'autre que nu de y ok le nu des grecs je viens de dire c'était zéro que quand y il appartient pas a y donc que j'ai comme quel que soit x quel que soit y qui est différent de y eh bien a y égale zéro donc nu c'est nu x pof et puis distribution hein ça va vous m'avez suivi je vous ai pas enaqué hein voilà de toute façon si vous connaissez un peu exactement pareil d'un ratner c'est le même argument c'est à dire que on a un théorème de non divergence des mesures de non perte de masse on en déduit automatiquement un théorème d'écu distribution en utilisant la classification c'est exactement le même argument dans la théorie de ratner voilà on regarde les papiers de ratner et à un moment elle écrit genre deux formules alors voilà nu y nu y nu y nu y nu y il est un unique probability measure on y that is invariant under the stabilizer of y in g g y is a g is an orbit of some some group of g so it carries since it is closed it carries a unique measure that is invariant under its stabilizer for example in this case in the case of actions on tori this set is a set of finite gamma orbits in nu y is a counting measure so normalized counting measure you can see to this case ok so but since I have a classification of new stationary measures I know that every stationary measure is an integral is an average over all the set of ergodic stationary measures but they are only countably many ergodic stationary measures so my average is necessarily a sum this is a key point countability voilà donc ça c'est l'équilistribution alors je vais encore faire une autre donc je vais venir à un autre point pour l'instant donc là quelque part je ne vais plus jamais parler de fermés invariants parce que j'ai dit la seule chose qu'il y avait à dire sur les mesures invariantes le lien entre les fermés et les mesures invariants c'est que une fois que j'ai une propriété de non divergence comme ça je sais passer des probabilities invariantes aux fermés invariants voilà on va encore utiliser ce phénomène de non divergence dans la classification des mesures invariantes donc là pareil pour ceux qui connaissent peut-être la théorie drapner c'est un point qui est différent dans ce qu'on fait de ce que fait Ratner c'est que ces phénomènes de non divergence ici jouent aussi un rôle important dans la classification des mesures invariantes c'est complètement absent dans Ratner et c'est parce que c'est lié au fait que nous on classifie pas des mesures invariants par des groupes mais invariantes en moyenne et c'est là par rapport au cas où on ferait des mesures vraiment invariantes c'est quand on fait des mesures stationnaires vous allez voir dans une minute ce qui se passe mais je le dis juste de manière générale sans offrir des tailles à un endroit on le perd vraiment parce que c'est des mesures stationnaires et pas des mesures invariantes on obligeait d'utiliser un phénomène de non divergence dans l'étude des mesures elles-mêmes alors que dans la théorie de Ratner c'est complètement absent l'étude des mesures ça n'est présent que dans les problèmes de l'étude des mesures à l'étude des fermés pour montrer ce type de phénomène d'écu-distribution donc je vais y arriver dans une minute avant je vais vous dire un mot sur ce qui se passe quand on a du centralisateur et quand l'espace c'est pas qu'au compact alors déjà si il y a du centralisateur donc typiquement dans cet exemple-là eh bien ce que j'ai fait là ce que j'ai fait pour la construction ça marche pas donc qu'est-ce qui se passe donc si elle est non discrète eh bien on ne peut pas montrer qu'on s'éloigne de Y parce que si jamais on part ce qui se passe c'est que quand on prend on ne peut pas montrer il y a la saison variété Y voilà et nous on devrait montrer qu'on s'en éloigne très vite mais près de Y il y a les points de la forme LY avec L un petit élément du centralisateur voilà et on ne peut pas quand on part le lieu dont on s'éloigne très vite c'est pas Y c'est l'ensemble des translatés de Y par des éléments du centralisateur pour m'éloigner de Y ce que j'ai fait c'est que j'ai pris une transversale ici qui était dilatée par mon groupe semis simple d'accord laquelle qui était une transversale c'est-à-dire que c'était l'exponentiel d'un sous-espace vectoriel transverse à l'algebra de l'I du stabilisateur de Y et dans un sous-espace vectoriel comme il n'y avait pas de centralisateur tout le monde était dilaté mais le problème maintenant c'est qu'il y a donc le dessin c'est ça c'est-à-dire que là quelque part il y a Y là il y a l'action de L et cette action de L là-dessus l'addition adjointe de mon groupe gamma-mu elle est trivial donc on ne peut partir rapidement que quand on prend une transversale à la somme de l'algebra de l'I de L et de l'algebra de l'I de Y le L en fait là-haut tu supposes que ton L est... oui bien sûr oui même hypothèse parce que ce qui est vrai donc si on ne met pas cette hypothèse là eh ben oui voilà donc c'est le nombre en fait c'est Y sous L qui est dénombrable dans le cas général voilà pour ça j'ai mis le même hypothèse c'est-à-dire L discret voilà c'est assez fondamental en général évidemment L il agit dans cet espace c'est exactement ce dessin-là on permute de qu'il y a une infinité et c'est le nombre de L orbit voilà donc ce qui se passe ici c'est que je ne peux pas m'éloigner quand je pars la composante qui a tendance à grossir c'est la composante qui n'est pas transversale à Y c'est la composante transversale à la famille des L grecs où elle est un petit élément d'accord donc ce qu'on peut montrer c'est la chose suivante on peut montrer alors et là le problème le problème qu'on a c'est quoi c'est que L Y c'est pas fermé c'est à dire j'ai mon fermé invariant mais si je le pousse par des grands éléments peut-être que ça fait quelque chose de dense typiquement dans cet exemple-là si vous prenez voilà c'est pas co-compact mais vous pourriez faire en co-compact si vous prenez SL3R sur SL3Z et que Gamin son adhérence de Zariski c'est les matrices de cette forme donc là à ce moment-là le groupe L bon peut-être à des signes prêts mais c'est les groupes matrices A, A à puissance moins 2 A est différent de 0 alors quel est le dessin et bien ce SL2 là il a des orbites fermées dans le SL3R sur SL3Z l'orbite de SL3Z elle est fermée ça rend compte qu'à SL2 on a un réseau donc vous avez votre gros SL3R sur SL3Z et puis dedans ça c'est le gros puis dedans il y a le petit qu'à SL2R sur SL2Z immergé mais quand vous le poussez donc celui-là il est gamin invariant d'accord mais quand vous le poussez par le L vous partez transversalement la part de L là-dedans il y a des orbites denses d'accord la réunion des translatés de ces bazaars leurs images par là ça peut contenir des... attendez je dis une bêtise dans ce cas-là attendez j'ai un doute là tout à coup j'ai un doute sur cet exemple je sais que ça arrive mais tout à coup j'ai un doute sur celui-là parce que quand on pousse un petit peu non non non là c'est pas vrai non celui-là je dis une bêtise quand on pousse cet orbite elle va partir à l'infini bon mauvais exemple désolé d'accord celui-là est pas bon parce que vous voyez là c'est des réseaux qui ont un vecteur dans l'axe vertical dans R3 et quand je pousse par ce gars ah si si si si parce que je peux... non non non non je dis une bêtise non non non ça marche oui là ça va contenir des éléments denses ça va contenir des orbites denses faut pas partir avec A très grand parce que là sinon je parale je l'envoie à l'infini je l'envoie dans le cusp avec A très grand mais quand je pars avec A très petit il n'y a pas de problème ça va contenir des gars qui vont aller un peu partout d'accord et donc le problème que vous avez c'est que vous ne pouvez pas vous éloyer de l'espace Eligrec l'espace Eligrec il est dense donc vous ne pouvez pas donc ce qu'il faut faire c'est quoi c'est prendre un petit compact dans Eligrec et demander à s'éloigner d'un machin comme ça et à ce moment là on s'éloigne on s'en éloigne pas on sent une part ce qui grossit c'est pas c'est juste la composante dans cette direction là alors j'ai écrit le lemme plutôt que de voilà mais je voulais juste vous donner une idée de la difficulté bon je vais même pas vous écrire le lemme parce que on va pas utiliser je vous l'écris je vous l'écris pas je sais pas je vais passer dix minutes à l'écrire vous en voulez pas ça vous embête vous aussi voilà on peut régler le problème simplement il faut introduire des fonctions qui mesure juste la distance transverse à un petit bout de la l'orbitre voilà c'est pas facile et ça devient assez illisible je pense que je ne veux même pas vous l'écrire parce que je pense que ça ne va rien va porter et puis deuxième problème c'est quand l'amdan n'est pas qu'au compact parce que vous voyez dans la construction donc même quand elle est discrète dans la construction de cette fonction parce que j'ai la fonction U c'était l'inverse d'une puissance de la distance transverse à Y là ici et pour dire que cette fonction était bien définie j'ai utilisé un torrème de voisinage tubulaire et le problème c'est que quand l'amdan est pas qu'au compact c'est pas torrème de voisinage tubulaire parce que si jamais exactement dans cet exemple c'est ça qui se passe comme un sous variété Y qui est pas dans un casque ici et bien les cartes locales il faut qu'elles soient de plus en plus tibles c'est le rayon d'injectivité diminue donc j'ai plus de torrème de voisinage tubulaire alors là ça me fait une difficulté qui nous a passé pas mal de temps à lever et alors la seule solution qu'on a trouvé c'est quand Y n'est pas... qu'est-ce qu'on fait et bien d'abord il faut de toute façon dans ce problème des cules de distribution il faut d'abord montrer qu'on évite l'infini donc il faut d'abord construire une fonction U qui dit qu'on va pas en l'infini c'est une première étape et ensuite la sous variété Y elle est quelque part par là et là à ce moment là ce qu'on fait c'est qu'on change de scène de Marcon c'est-à-dire que comme on a une fonction U qui nous dit que les trajectoires réagent pendant sa revenir très très vite en dehors de l'infini en dehors des zones où l'aurion d'injectivité est faible on remplace on construit une fonction U comme ici mais au lieu d'être pour la marche aléatoire associée au groupe c'est pour l'opérateur de Markov de premier retour c'est-à-dire qu'on se donne une petite borne ici on regarde un trajectoire du marche aléatoire elle sort un moment et il y a un premier retour en dessous de la borne donc à ce moment là on a un nouvel opérateur de Markov c'est j'arrête au moment où je suis revenu ça définit une nouvelle chaîne de Markov et ce qu'on va faire c'est que la fonction U ici on va la construire pour des borne ici arbitrairement grandes on a une nouvelle chaîne de Markov sur cet espace on a une sous variété invariante parce que si on est parti dans Y au moment où on revient on est encore dans Y donc on a une sous variété invariante mais pour cette nouvelle chaîne de Markov induite et pour cette chaîne de Markov alors il n'y a pas de problème on va pouvoir faire la même construction de la fonction U voilà alors ça nécessite juste de contrôler les temps de retour mais c'est assez facile de voir que les temps de retour sont exponentiels il n'y a pas tellement de difficultés voilà mais c'est comme ça qu'on gère le cas concompact et la grosse difficulté c'est juste de contrôler la fonction qui dit qu'on revient et en l'occurrence il y a d'un certain cas la construction d'une telle fonction avait été faite par Eskin et Margoulis et il y avait certains cas qu'ils n'avaient pas traité donc on a dû les faire mais je n'ai pas mettant de là dessus voilà c'est juste pour vous dire donc pour l'instant dans ma tête je vais continuer quand j'utiliserai ce type de construction je rajouterai systématiquement ces hypothèses je vous ai brièvement expliqué la commence en débarrassée mais c'est assez technique ça alourdit toutes les notations donc c'est pas je pense un peu d'intérêt de gérer le cas général dans cet exposé voilà le cas général c'est pas concompact c'est pas chancofini alors voilà en fait on utilise deux volumes finis pour dire qu'on a la fonction qui fait le le le parce que pour construire la fonction qui permet de faire le retour dans les cospes on a besoin de savoir des choses sur la géométrie des cospes et dans la pratique ce qu'on fait c'est qu'on utilise le terme de la rythméticité de Margoulis pour se ramener au cas SLNR sur SNNZ et en fait on construit la fonction qui fait le retour dans SLNR sur SNNZ et par la rythméticité parce que dans un groupe de l'IG quand on a un groupe de l'IG G et qu'on a un réseau lambda eh bien le problème d'excursions le problème de cospes il est complètement lié aux quotations submissibles de G c'est-à-dire qu'il y a un TORM d'Auslander qui garantit qu'on peut trouver un sous-groupe R qui est essentiellement le radical pas tout à fait danger mais tel que G sur R soit semissimple tel que R inter lambda est un réseau co-compact de R il y a un groupe R qui vérifie ça donc ça enlève toute la partie résoluble donc à ce moment-là ce qu'on est en train de dire c'est que G sur lambda y fibre en fibre compact sur G sur R lambda qui est maintenant un co-sion d'un groupe semissim par un réseau donc celui-là on le coupe en morceaux il y a les parties de R1 ça on les traite à la main c'est facile et pour les excursions dans les culs il reste les parties de R1 supérieures et les parties de R1 supérieures on les traite par un rythméticité de Margulis donc essentiellement on se ramène à traiter SLDR sur SLDZ et donc la question devient juste juste avec le terme de l'excursion pour des marchés aléatoires sur cet espace et là il faut le faire à la main voilà mais je reviendrai dans une minute parce que dans la récurrence c'est un moment où on perd le fait que c'est un réseau mais on arrive quand même à se débrouiller parce qu'on pipote mais on garde jusqu'il faut ce qui est important en fait c'est pas que c'est un réseau c'est que quand on prend la chaîne de Markov elle revient rapidement elle ne passe pas trop de temps dans les endroits où le rayon d'injectivité est petit et donc ça en particulier c'est stable quand on passe à des sous-espaces homogènes cette propriété voilà ça on va l'utiliser un moment donc dans la récurrence on a besoin de voilà formellement ce qu'on montre c'est qu'on a la classification des probats stationnaires dès qu'on peut garantir que les excursions en dehors des cuspes sont pas trop longs à cause précisément pour cette construction et alors où on l'utilise maintenant je vais revenir à la classification pour dire je vous ai dit il y a deux endroits où on va utiliser ce type de propriété de récurrence ce critère de Foster un endroit c'est pour passer de la classification des probats stationnaires à la classification des fermés invariants et il y a un endroit c'est au sein de la classification des probats stationnaires elle-même et c'est ce que je vais vous présenter maintenant parce que donc là vraiment je rentre dans la preuve elle-même de la classification des probats stationnaires donc je vous ai dit on a notre mesure on a mu on a une probabilité sur G on a nu qu'il y a une probabilité stationnaire sur G sur lambda que je note X d'habitude et maintenant on veut montrer que si nu n'est pas concentré sur un serre métro petit alors elle a de la variance en plus ça c'est vraiment la stratégie c'est la stratégie dans tout ce type de théorème c'est à dire fabriquer des éléments du groupe qui préservent la mesure et ça en fait on va pas le faire pour nu on va le faire pour les nubés donc ça vous allez voir comment dans les prochaines séances comment en fait les nubés on arrive à s'abriquer des éléments qui la préservent ça c'est la stratégie et le problème c'est que l'hypothèse au début vous voyez l'hypothèse que j'ai utilisée c'est à chaque fois c'est nu que je regarde c'est à dire je vais utiliser ce que je sais c'est que nu ne charge pas sous l'espace homogène mais moi maintenant je veux jouer avec nu b et c'est pas du tout évident que si nu charge pas sous l'espace homogène nu b charge pas sous l'espace homogène pourtant c'est ce qui se passe hein et c'est ça qu'il faut montrer et c'est là que je vais utiliser la non dispersion alors je vous donne un exemple pour vous expliquer je vous rappelle simplement que si vous avez dans le cas où vous regardez pas des mesures homogènes des mesures stationnaires sur G sur lambda et des mesures stationnaires sur l'espace pro-projectif c'est pas ce qui se passe c'est à dire si vous avez un gamma mu qui inclure dans GLV si mu c'est une mesure de probat sur GLV et que vous avez vous supposé que gamma mu est proximale et fortement irréductible je vous rappelle que dans ce cas là qu'il existait une unique nu mesure stationnaire sur l'espace pro-jectif et que les nubés c'était des masses de dirac en des points j'ai noté 6b là qui sont les les espaces 6b là où c'est à contracte dans le voilà ça c'était j'avais montré ça dans la deuxième séance je l'ai m'en rappelé tout à l'heure donc dans ce cas là qu'est-ce qui se passe ben vous partez d'une mesure sans atomes nu et les nubés c'est des atomes ok donc je suis en train de dire que dans la situation espace homogène typiquement c'est mu moi j'ai envie de prouver que quand je veux classifier les probats stationnaires ici là ce qui est fondamental c'est que si nu je ne charge aucun des y alors nu c'est la mesure de support total moi j'ai envie de transformer cette hypothèse sur nu en une hypothèse sur nu b mais c'est pas automatique typiquement voilà dans le cas du tort t2 les y qu'il faut utiliser c'est juste des atomes et il y a ben voilà j'ai cet exemple où nu elle n'est pas atomique elle n'a pas d'atome et quand je fais les nubés je récupère des atomes donc il faut que j'arrive à montrer que c'est pas ce qui se passe c'est pourquoi c'est pas ce qui se passe parce que ici comment agit un grand élément du groupe gamamu ben c'est proximal donc pourquoi les nubés sont des atomes parce que quand on prend l'action sur pv il a tendance à tout contracter en un seul point ok en revanche ici mes éléments du groupe gamamu ils préservent ces dédifféomorphises de cet espace compact d'accord qui préserve la mesure donc bon ben s'ils ont tendance à contracter ils peuvent pas contracter tout s'ils contracter ils préservent pas la mesure d'accord donc typiquement ces dédifféomorphises d'un oseuf du tort t2 donc il y a une direction qui est très dilatée une direction qui peut être contractée c'est l'application quand on tendance c'est extra expensive donc quand vous prenez deux points qui sont proches ils ont tendance à s'écarter c'est pour ça et en fait je vais la quantifier exactement avec ce type d'objet je vais la quantifier en utilisant je vais la quantifier en utilisant la dispersion mais je vais l'appliquer à g sur lambda croix g sur lambda ce sera x et y ce sera la diagonale j'ai la diagonale et le fait que j'ai de l'expansion que j'ai tendance à pas rapprocher les points ben ça dit bien que quand je prends la diagonale dans g sur lambda croix g sur lambda si j'ai deux points dedans c'est pareil ok et c'est exactement ça rentre exactement dans mes hypothèses donc j'ai plutôt écrit quand même une proposition donc j'ai toujours fait mes hypothèses que lambda et cocompact donc la proposition serait vraie sans les hypothèses mais comme je vous dis c'est atroce quand on a pas les hypothèses donc j'ai vu le faire que va-t-elle les discrer donc elle c'est centraire de gammas alors bon et puis toujours les mêmes hypothèses c'est à dire que mu bon alors j'ai tout écrit hein l'emmenait avec cocompact elle est dédiscrée donc et gamma mu l'action adjointe de gamma mu à une adhérence de zariski qui est semi simple sans facteur compact bon je pourrais enlever sans facteur compact mais bon on va pas s'en metter et mu et mu a des moments exponentiels c'est à dire que d'habitude je supporte la support compact mais les moments exponentiels suffisent ça devient un problème technique mais tout ce que j'ai dit j'ai toujours supposé que les mesures elles supportent compact dans les hypothèses étoiles généreaux de classification vous verrez je vous montrerai précisément un endroit où je suis obligé de le supposer bon je pense que c'est vrai en particulier même quand la mesure est un moment exponentiel je n'ai aucune raison de pas penser que c'est pas toujours vrai même sans hypothèses de moments mais je sais pas le démontrer alors donc si nu est une probat stationnaire donc mu stationnaire sur x qu'est-ce que j'ai sur lambda tel que quel que soit x dans x nu de x égale 0 donc une probat sans atome alors bêta presque pour tout b nu b est sans atome donc si nu est sans atome nu b est sans atome ce qui est ce qui est vraiment le contraire le contraire de ce qui se passe dans l'espace projectif dans l'espace projectif on part d'une mesure stationnaire sans atome on a tendance à créer une masse de dirac ici c'est pas du tout ça donc vous voyez et alors par exemple si la mesure n'était pas stationnaire mais invariante on n'aurait pas démontré ce lemme là parce que nu b c'est nu quand la mesure est invariante donc c'est ici c'est là quand je vous disais je vais perdre quelque chose parce que je travaille des mesures stationnaires et pas des mesures invariantes il faut bien que je paie la facture un moment c'est le vraiment endroit où on paie la facture des mesures stationnaires c'est qu'on a ce propriété à montrer en plus et qui va en particulier utiliser dans le canon qu'on compacte elle va utiliser la récurrence en dehors des cospes puisqu'elle utilise la construction des fonctions U là en particulier elle utilise le fait qu'il n'y a pas trop d'excursions dans les cospes c'est pour ça que par exemple on ne s'est pas classifié nous on ne s'est pas classifié quand c'est pas un réseau on a vraiment besoin d'avoir la géométrie des cospes pour pouvoir dire quelque chose Alors démonstration on va être contenté de montrer que Nubé n'est pas une masse de Dirac je vous expliquerai comment je ferai le cas général donc on va supposer alors dans un premier temps je montrerais que Nubé n'est pas une masse Dirac alors on va faire pas l'absurde si Nubé s'écrit Deltaxibé donc si c'est une application de B dans X je suppose que c'est une application mesurable qui est de B dans X que Nubé c'est la masse de Dirac en Cibé et je vais montrer qu'en fait Nubé est un atome donc complètement le contraire ce que je fais là c'est que c'est pas un phénomène général c'est il y a un exemple une probat sur SL2 vous regardez l'action sur P1 vous récupérez exactement ça donc il faut montrer que c'est pas ça qui se passe alors c'est un petit peu de travail mais l'essentiel c'est la fonction U donc la première remarque c'est que comme j'ai supposé que le centralisateur a été discret que la raison était compact je peux appliquer cette construction donc je sais qu'il existe une fonction U qui va de X crois X moins la diagonale dans R+, elle a aidé 0 plus petit que A plus petit que 1 et c'est strictement positif tel que quand je fais P mu U c'est-à-dire P mu U de Y il y a deux points maintenant c'est sur l'adéronal c'est-à-dire c'est l'intégral des U de GX G Y des mu de G et bien c'est plus petit que A U de Y plus C donc ça c'est une donnée voilà mais là maintenant j'ai comparé ça avec ce qui se passe sur la fonction C cette fonction qui me paramètre les atomes de ma mesure parce qu'il y a quelque chose qui est fondamental c'est la relation d'équivalence c'est-à-dire que j'ai la relation Nut B égal B1-Nu B je vous ai dit une famille de mesures qui vérifie cette relation d'équivalence c'est une mesure stationnaire c'est pareil c'est-à-dire 2 points de vue du haut sur les mesures stationnaires cette relation d'équivalence dans le cas au NU est une masse de l'Irak elle se traduit une propriété d'équivalence sur l'application XI d'accord donc imaginez mon idée c'est quoi c'est que je vais supposer que X CXI B et Y CXI B ok mais alors quand je vais y terrer cette relation qu'est-ce que je vais avoir eh bien je vais moyener les valeurs de U en XI je vais avoir mon mot B et puis je le pousse par G mais par la relation d'équivalence c'est pareil que de dans l'écriture de B comme une suite de rajouter des lettres devant donc quand je pousse par G je vais comparer ces éléments-là je vais évaluer U si je pousse par P puis sans scène là je vais avoir des GXGY c'est-à-dire des éléments qui vont s'écrire comme ça l'image par XI de ces galas imaginez que XI soit continue bah vous avez un problème que si il soit continue pour la topologie produit hein parce que CXI de G1 GNB et CXI de G1 GNB prime bah ils ont tendance à se rapprocher dans l'autre si c'est continue alors que la fonction U elle vous dit qu'ils ont tendance à s'éloigner dans l'autre ils ont tendance à s'éloigner de la diagonale hein donc c'est ça l'idée de la preuve c'est ce que je vous dis c'est que ces applications ça traduit l'expansivité de l'action du groupe tandis que ici bah cette propriété qui est fausse évidemment bah cette application XI elle est pas continue mais on va faire comme si elle était continue on va se débrouiller dans une minute ça c'est classique cette propriété elle traduit fait que bah justement ça tendance à contracter c'est à dire que quand on rajoute des éléments ça c'est une application cette propriété d'équivariance dit qu'il y a une équivalence avec le codage quoi et que quand on rajoute des lettres devant bah ça doit se ressembler de plus en plus voilà alors je vais formaliser ça précisément parce que évidemment l'application XI est pas continue mais dans ce genre de situation qu'est-ce qu'il se passe donc ça c'est super classique dans ce type de théorème de classification de measurement etc on a des choses à faire avec des fonctions mesurables elles sont pas continues mais c'est pas grave on applique le théorème de l'usine qui dit qu'une fonction mesurable est continue sur un ensemble de grosses mesures alors ce théorème ressemble toujours quand on apprend en théorie de la mesure ça ressemble vraiment à un exercice vide et il se trouve que c'est extrêmement puissant donc le ça c'est très facile ce théorème c'est vraiment de la théorie de la mesure élémentaire qui nous garantit qu'il est quel que soit epsilon strictement positif donc je fixe un epsilon et ensuite je prendrai epsilon petit un tiers ou un quart on verra bien d'accord donc je fixe un epsilon une fois pour toutes et alors le théorème de l'usine enfin qui est pas un théorème je vais dire une fois que c'est dénoncé ça se démontre en trois lignes me garantit que eh bien cette signe unie l'espace B de la topologie produit cette fonction est continue cette fonction qui est mesurable et continue sur un ensemble de grosses mesures alors je vais l'utiliser sous une forme faible je vais dire qu'il existe donc ce que j'utilise pourrait se montrer encore plus facilement que le terrain de l'usine il existe un ensemble E un Q dans B telle que la mesure beta de E est plus grande que un moins epsilon et tel que pour tout B et B prime qui appartiennent à E s'il est coordonné tel que alors B1 un N plus grand que un tel que B1 BN égal B prime 1 si les coordonnées sont 2 à 2 égales jusqu'au cran N eh bien quand je regarde la distance dans gestion lambda entre 6B et 6B prime eh bien elle est plus petite que epsilon voilà donc j'ai un epsilon là c'est un paramètre et puis je le prends suffisamment petit à la fin voilà donc ça c'est la continuité j'ai garantie que j'avais la continuité alors maintenant vous voyez 6B et 6B prime 6B prime ont beaucoup de coordonnées en commun la distance c'est petite ça veut dire que la fonction U est grande la convention U évalue en cette paire de points est grande donc ce qu'il faut que je fasse c'est que je parte d'une paire de points x et y fixé une fois pour toutes d'accord eh bien je vais regarder où tombent les gx et les gy et par ergodicité il y en a beaucoup qui vont tomber dans E alors pourquoi par ergodicité alors ergodicité pour qui eh bien pour un nouvel opérateur donc il y a un nouvel opérateur qui arrive ici c'est un opérateur L donc en théorie d'Istenia miquipabrique on appellerait c'est un opérateur de transfert d'accord c'est un opérateur L qui est défini sur les fonctions c'est un opérateur L qui est défini sur B et L d'une fonction phi évalue en un point B c'est rien d'autre que l'intégrale sur G de phi de G B alors ce que je note comme ça attention le groupe G n'agit pas s'il y en a ensemble B mais c'est la suite que j'obtiens en rajoutant G comme première lettre au lieu de faire du décalage du décalage ça d'oublier la première lettre et de décaler la suite je fais le contraire je la décale dans l'autre sens et je rajoute une lettre d'accord démudier donc qu'est-ce que c'est cet opérateur eh bien c'est rien d'autre que sur quand vous avez B vous avez le L2 de B muni de la mesure beta et sur le L2 de B vous avez l'opérateur phi d'un chironté l'opérateur de composition par le shift d'accord eh bien L donc on va l'appeler UT c'est un opérateur unitaire enfin l'unidysiometry plus exactement il n'est pas inversible eh bien L c'est rien d'autre que l'adjoint c'est l'adjoint pour la mesure beta quand vous avez un opérateur de Markov qui préserve une mesure de probabilité il a un opérateur adjoint et donc cet opérateur L c'est l'opérateur adjoint et donc quand vous avez cette transformation t ici elle est ergodique pour la mesure de Bernoulli et donc son opérateur adjoint est ergodique ça c'est immédiat c'est-à-dire que si vous avez une fonction invariante par L quand vous avez un opérateur de non plus petit que un dans un espace de Libert s'il a une fonction invariante elle est aussi invariante par son adjoint s'il a un effecteur invariant il est aussi invariant par son adjoint d'accord donc L et UT L et T ont les mêmes fonctions invariantes quand ils ont les mêmes fonctions invariantes et que le shift est ergodique par rapport à la mesure d'Etat eh bien L est ergodique et comme il est ergodique je peux lui appliquer un théorème ergodique pour les opérateurs de Markov qui s'appelle l'Ethereum de Tscheck-Einstein qui me garantit qu'un opérateur comme ça qui préserve une mesure il vérifie exactement l'Ethereum ergodique que l'Ethereum de Birkhoff c'est-à-dire que si Phi est une fonction Allen j'ai appliqué une fonction caractéristique mais eh bien Beta presque pour tout B quand je regarde les moyennes de Birkhoff non pas de la de la transformation T mais de sa transformation adjointe donc je regarde 1 sur L la somme de K égale 0 à N-1 des L puissance K Phi de B ça, ça converge vers l'intégrale de Phi des Beta Bon en fait je vous fais un baratin enfin je ne fais pas du tout un baratin c'est complètement exact mais je vous raconte en détail pourquoi l'opérateur est ergodique en fait je m'en fiche qui compte c'est qu'il préserve la mesure sinon je pourrais me débrouiller mais il se trouve qu'ici il est ergodique donc je n'ai même pas m'embêter donc je vais appliquer cette propriété à la fonction caractéristique de mon ensemble E donc maintenant qu'est-ce que je sais qu'est-ce que je sais vous voyez alors oui pourquoi je vous introduis cet opérateur ici parce que vous voyez je veux voir qu'est-ce que c'est ça ça c'est j'ai une suite B je tire au hasard un élément par rapport à la mesure mu et je le rajoute comme première lettre mais si je faisais le même chose en ayant remplacé B par 6 B et bien si je rajoute une lettre à cause de la propriété d'équivariance qui est ici ça cet opérateur dans le monde symbolique dans le monde du codage ici cet opérateur c'est exactement l'opérateur que j'ai noté P mu c'est-à-dire je rajoute enfin P mu sur X pas sur X croix X mais c'est je rajoute J devant d'accord à cause de la propriété d'équivariance L c'est dans le monde des suites P c'est dans le monde de l'espace homogène etc et la contradiction elle va venir précisément du fait que bien quand je fais cet opérateur ici il a tendance à éloigner les gens il a tendance à les rapprocher et pourtant c'est le même à cause de l'équivariance c'est ça que je suis en train de dire alors j'écris formellement les choses donc je vais appliquer cette propriété à fonction caractéristique 2 donc ce que je suis en train de dire c'est quand je prends B B prime dans un ensemble de mesures 1 je fixe 2 B B prime dans un ensemble de mesures 1 pour B je vais écriber mais ça veut dire dans un ensemble ou cette convergence à lui et là maintenant je regarde cette chose là donc ça c'est c'est je surène je sais que étoile je prends 2 B prime c'est à dire étoile à lieu pour fi qui est la fonction caractéristique de mon ensemble E l'ensemble E c'est l'ensemble où la fonction C a tendance à être continue d'accord donc je sais que quand je prends la fonction caractéristique de E appliqué à donc qu'est ce que je suis en train de dire je regarde cette chose là et là je suis en train de mettre les mesures que je regarde l'opérateur appliquer une fonction à une fonction caractéristique donc je suis en train de regarder la mesure tenseur k'a foie de l'ensemble des G k G 1 tel que G k G 1 pour P O P O P O M B appartient à E ça je sais que pour N grand ça a tendance ça a être plus grand que un mois epsilon je suis en train de dire. D'accord ? Bon, et bien, je vais l'appeler ça la limite 1. Ok, ça c'est pour B et puis la même chose pour B prime. Ok, alors maintenant qu'est-ce que je sais ? C'est que puisque ces gens, si epsilon, si ces gens pour n grand là-dedans, je vais récupérer gNg1b qui appartient à E et gNg1b prime qui appartient à E. Donc, en particulier, la distance entre si de gNg1b, si de gNg1b prime sera plus petite que epsilon. Ok ? Donc si epsilon est suffisamment petit, eh bien si la distance entre 2 points x et y est plus grande que... Et plus petite que epsilon, le u de y, il va être plus grand qu'une certaine constante m. D'accord ? Si je me fixe une constante m, je peux trouver epsilon telle que j'ai ça. Alors on va voir ce que ça veut dire, quel que soit m strictement petit, si je me donne un m strictement petit, petit j'ai ça. Ok, alors maintenant, du coup, cette propriété, quand je l'applique, elle va me dire quoi ? Elle va me dire alors que quand je regarde un surn, la somme de k égale 0 est le moins 1 de mutanceur kfois de l'ensemble des gk, blblbl, g1, tel que u de gk g1 si b, gk g1 si b prime est plus grand que m. D'accord ? Je regarde le nombre de fois ou quand je prends ces deux points si b et si b prime et que je leur applique un élément gk g1, c'est plus grand que m. Et bien ça, c'est au moins 1 moins 2 epsilon. C'est d'accord ? Puisque pour une masse 1 moins epsilon, je tombe dans e pour b. Pour une masse 1 moins epsilon, je tombe dans e pour b prime. Donc pour une masse 1 moins 2 epsilon, je tombe dans e pour b et pour b prime. Puisque je tombe dans e pour b et pour b prime et que j'ai n lettres, j'ai plein de lettres en commun au début, ça veut dire que la distance entre si b, le xi de gk g1 b et le xi de gk g1 b prime est plus petite que epsilon. Et donc la fonction u a tendance à être plus grande que m. D'accord ? Alors c'est pas tout à fait 1, c'est la limite 1 parce que ça marche pas pour les premières lettres, etc. J'ai triché un peu parce que ça, c'est à partir d'un n0. D'accord ? Voilà, mais ça, c'est en limite 1, c'est ça qui se passe. Voilà, tu as utilisé l'équivalence ? J'ai utilisé l'équivalence, j'ai utilisé l'équivalence, voilà. Et alors maintenant, j'ai terminé parce que cette quantité-là, je vais la calculer d'une autre façon. Par l'inégalité de chez BitChef, je n'ai pas encore utilisé la propriété pu plus petite que u plus c. D'accord ? Pour l'instant, j'ai utilisé la propriété et je fait qu'ils ont tendance à se rapprocher. Mais non, il faut que j'utilise qu'ils ont tendance à s'éloigner. Mais par l'inégalité de chez BitChef, cette quantité, elle est plus petite, j'enlève l'opérateur limite 1, parce qu'on sait qu'il est là, elle est plus petite que 1 sur m, 1 sur n, la somme de k égale 0 a n moins 1 de pk u appliqué axi b, axi b prime. Ça, c'est juste l'inégalité. Je regarde le nombre de fois, la mesure de l'ensemble des points où je suis plus grand que m, c'est plus petit qu'une fonction qui est plus grande. C'est plus petit qu'un sur m fera l'intégrale de la fonction. Ok ? Et ça maintenant, je sais, par la relation pu plus petite que u plus c, qui est, je sais plus haut, qui est là. D'accord ? Et bien ça, c'est plus petit. Ça, c'est la même chose. Ça, c'est plus petit. Pardon ? Que 1 sur m, 1 sur m quoi ? Oui. 1 sur m, 1 sur n, la somme de k égale 0 a n moins 1 de a k u de axi b, axi b prime plus c sur m moins 1. J'iterre la relation. Voilà. Donc ça, quand je passe, il y avait le limite 1, enfin quelque part, partout. Limite 1. Limite supe, je sais pas. Je sais plus. Je sais pas. J'enlevais le limite 1, je sais plus. Voilà. Et maintenant, en tout cas, cette dernière quantité, eh bien quand n t'envers l'infini, ça quand n t'envers l'infini, eh bien ça, ça t'envers c sur 1 moins a x a n. Ok ? Et donc là, vous voyez que j'ai une quantité, je sais plus garantir qu'elle était plus grande que 1 moins 2 epsilon. Ok ? Ou epsilon était arbitrairement petit. Et là, vous voyez qu'elle est envers c sur 1 moins a m, ou m est arbitrairement grand. Donc vous avez un problème. Voilà. C'est des calculs un peu lourds, un peu techniques, mais on quantifie cette idée que l'application est équivariante et que d'un côté, elle échange avec l'opérateur L et l'opérateur P qui a tendance a les écarter. C'est ça, l'horistique c'est ça. Et ces outils formels, là le terrain de Tchaikovnenstein, la propriété de Foster, nous permettent de vraiment quantifier ce phénomène-là. Voilà. Vous m'avez suivi ou je dois revenir un petit peu là-dessus ? On commence a faire des trucs un peu lourds en formule. Il rapproche les gens, il levoit les gens, les points. Si je pars avec le même G, quand je le vois du point de vue du codage, il y a vraiment cette idée que ce qu'on est en train de faire c'est un peu du codage comme dans les Platins de Markov, ce genre de choses. Et quand je regarde du point de vue du codage, à la source, sur l'espace B, quand je rajoute le même G devant, je tiens des suites contre plus en plus de termes en commun, tandis qu'à l'arrivée, j'agis avec un automorphisme expansif des deux ou quelque chose comme ça. Les orbites n'ont pas tendance à coller l'une contre l'autre. C'est ça l'intuition. Ce que ça me dit, c'est que la conclusion, c'est que le U ici, il ne pouvait pas être défini, c'est-à-dire que nécessairement, dès que j'ai B et B prime qui vérifient la convergence en check-on dans le style, XB est equal à XB prime. Donc l'application XI est constante et puisque l'application XI est constante, la mesure nu est une masse de Dirac. L'application XI est constante, nubé c'est une mesure constante et donc nu, c'est égal à nubé, c'est une masse de Dirac. C'était le cas. Ce que j'aime vous montrer, c'est ça la partie dure de l'argument, c'est pourquoi si nu n'est pas une masse de Dirac, nubé n'est pas une masse de Dirac. Pour passer au cas des atomes, il suffit de dire, vous voyez, si nu, si nubé, je vous l'écris, peut-être, ça va nous reposer de faire un truc un peu facile. Le cas atomique maintenant, le cas atomique, c'est si nubé. Maintenant, si vous supposez que nubé est atomique, quand vous avez une mesure atomique, enfin commiser à des atomes en tout cas, vous pouvez toujours la couper, si nubé a des atomes, vous pouvez écrire nubé est égal à nubé prime plus nubé seconde, et ça, c'est la partie atomique. C'est la partie que vous prenez, d'accord ? Et donc, vous isolez les atomes. Ça, c'est la partie continue. Mais alors maintenant, la partie atomique, comme cette décomposition, elle est unique, vous savez encore que nu tb prime, cb1-1 nubé prime. Ok ? Donc, en fait, vous pouvez un peu oublier la partie nubé seconde parce que vous pouvez travailler avec la mesure nubé prime, qui est l'intégrale de nubé prime db tb, et ça, c'est encore une mesure stationnaire, nubé prime. Et donc, si on veut traiter le cas au nubé A des atomes, on est très vite ramené au cas au nubé et purement atomique. Ok ? Et puis, maintenant, si nubé, donc on peut supposer que nubé est purement atomique. Alors, quand vous avez une mesure atomique, eh bien, elle a un nombre fini d'atomes de masse maximale. D'accord ? Donc, de nouveau, j'écris nubé égale nubé prime plus nubé seconde, et ça, c'est les atomes de masse maximale. Donc, ils ont tous la même masse et ils sont en nombre fini. D'accord ? Ah ben, rebeulotte. Par unicité dans cette décomposition, ben, cette famille, c'est encore une famille équivariante de mesures. D'accord ? Donc, je peux supposer que nubé, c'est nubé prime. Donc, pour traiter le cas atomique, il suffit de traiter le cas au nubé à un nombre et une mesure uniforme sur un nombre fini d'atomes qui ne dépend pas de b. Voilà. Donc, là, j'ai traité le cas où nubé, c'était une mesure uniforme sur un atome. Voilà. Bon, ben, la même démonstration s'adapte, hein ? Dans ce cas-là. Voilà. On est très vite ramenés à cette situation-là. Voilà. Alors, ensuite, ce qui m'intéresse, il y a un corollaire, là, alors avec les mêmes hypothèses, c'est qu'on se convaince assez facilement que si on n'avait pu éviter un atome, on peut éviter les sous-varietés fermées. Et donc, j'ai vous écrit donc le corollaire, j'ai écrit corollaire. Là, maintenant, je vais enlever toutes les hypothèses. Je vous ai fait vraiment le cas essentiel, pourquoi si nubé à pas d'atome, nubé à pas d'atome, mais en fait, la méthode se généralise complètement de manière assez évidente au cas des sous-varietés qu'il faut éviter. Et puis, quand on a un centralisateur, ça marche aussi modulo, les améliorations techniques que je n'ai pas détaillées, parce qu'elles sont horribles. Et quand on a un pack au compact, ça marche encore modulo, le problème de échapper à l'infini sur lequel je passe, mais qui est atroce. Et parce que ça se voit à 100°. Conceptuellement, c'est ça, quoi. Conceptuellement, c'est ce l'âme-là où il se passe quelque chose. Le reste, c'est de la technique. Ce n'est pas très intéressant. Et donc, ce qui se passe, c'est quoi ? C'est que, sous les hypothèses générales, donc, g, c'est un groupe de lits, mu, c'est une mesure de probabilité sur g, telle que l'adhérence de Zarizki. Donc, quand je prends action, Aldan, le gamin a mu. Si je prends son adhérence de Zarizki, elle est semi-simple, sans facteur compact ne sert à rien, là. Elle est... Ah, pipo. Sans facteur compact. C'est parce que... Oui, oui. Facte. Par contre, les moments, on peut supposer que, disons que mu a des moments exponentiels. Vous avez qu'à supposer un support compact, mais ça marchera avec des moments exponentiels. Là, pour l'instant, ce n'est pas là que ça sert. A des moments exponentiels. Alors, j'essaie de rien oublier. Alors, si... Je m'en fiche un peu de cette histoire d'espace homogène. Je ne vais pas prendre l'espace homogène. J'ai juste bien écrit le truc avec le centralisateur. Voilà. Lambda... Lambda est un réseau. Bon, laisse tomber. Excusez-moi pour l'espace homogène, parce qu'on s'en... Je m'en fiche ou je m'en fiche pas ? Je m'en fiche. Je m'en fiche. Je ne vais pas parler de l'espace homogène. Juste les points me suffiront. Par contre, ce qui est important, c'est les L orbit. Je vais poser L. Ce sera le centralisateur dans g. Deux gammes amus. Et le que si nu est une x, ce sera g sur lambda. On va y arriver un jour. Si nu est une probabilité sur x, une mesure de probabilité borallienne, qui est mu stationnaire, ergodique. Bon, je pourrais enlever ergodique, ça ne sert à rien. Qui est mu stationnaire. Si, pour tout x, nu de Lx, est égal à 0. Le problème quand il y a un centralisateur, c'est qu'il faut remplacer... On a le même problème que tout à l'heure avec les sous variétés invariantes. C'est-à-dire que la difficulté n'est pas d'éviter des masses de l'Irak, mais d'éviter des atomes sur des orbites du centralisateur. Vous verrez, ça deviendra peut-être plus clair pour vous un peu plus tard, mais c'est important, c'est ça qu'il faut éviter. Si pour tout x, la mesure de Lx est égal à 0. Alors, beta, presque pour tout B. Quel que soit x, la mesure, mais pour nu B, de Lx est égal à 0. Donc ça, c'est le cas avec centralisateur. C'est essentiellement la même chose, mais là, j'ai mis... j'ai repris toutes les hypothèses pour vous mettre les noms c'est propres et j'ai rajouté la présence de centralisateur. Mais conceptuellement, il n'y a pas de différence, c'est la même démonstration. Voilà. Donc là, on est prêt. On a montré une première propriété. On a montré que les nu B, ça pourrait être des mesures sympas. Et donc maintenant, mon but, qu'est-ce que ça va être ? J'ai fabriqué des nouveaux éléments de G. Pour la sorte nu B, je ne sais pas trop ce que c'est, je sais juste que j'ai une mesure qui n'est pas atomique, disons. On oublie les problèmes de centralisateur. Et maintenant, mon but va être de fabriquer des éléments de G qui vont préserver nu B. Ces éléments de G, en fait, ça va être des groupes ou un paramètre unipotent. Je vais fabriquer des groupes carrément, des sous-groupes ou un paramètre unipotent de G qui vont préserver nu B. Et ensuite, j'appliquerai le torème de Ratner à nu B. C'est ça la stratégie. Et où vivrons ? Donc il faut que je fabrique des candidats pour ça. Je vais fabriquer des candidats. C'est-à-dire que je vais associer. Donc là, on a un nouveau paramètre. C'est qu'on a B. D'accord. Et donc je vais fabriquer des groupes ou un paramètre unipotent mais qui dépendront de B. C'est-à-dire que chaque fois le groupe un paramètre qui préserver nu B, il serait une fonction de B. Et même d'un autre truc. Mais pour l'instant, ça va être une fonction de B. Et alors, pourquoi j'ai des bons candidats pour ça ? Eh bien, c'est parce que j'ai... Je vous rappelle que... Qu'est-ce que c'est qu'un groupe unipotent ? Eh bien, c'est l'exponentiel et une algebraie unipotente. Ok. Et donc, il faut que je fabrique en fonction de B une sous-algebraie de Li, de l'algebraie de Li de G. Mais ça, je sais quelque chose qui a B m'associe des sous-espaces vectoriels. J'ai l'application XI, vous savez, dans les grâces maniennes, là. D'accord ? Donc, je vais... À partir de cette application XI que je vais construire, eh bien, je vais voir que quand les espaces de représentation que je regarde, j'ai dit, quand j'ai une action fortement irréductible sur un espace vectoriel, eh bien, j'ai une application qui, à chaque B, associe un sous-espace vectoriel dont la dimension c'est la dimension proximale. Eh bien, je vais voir que dans le cas où mon action, c'est une action de l'inil potante. Et cette sous-échelle de l'inil potante, eh bien, ce seront mes candidats pour être des gens qui préservent la mesure nubée. D'accord ? Donc, il faut que je revienne un petit peu la source que j'ai rappelée en début de séance à savoir la construction des 6B. De cette application XI, donc, quand on a une gamme amue avec une angel V, là, qui est fortement irréductible, il y avait cette application qui était de dimension proximale R, il y avait cette application qui allait dans la grâce manienne des R plans. Et cette application, il se trouve, voilà, que quand je vais prendre une somme d'applications comme ça, je vais fabriquer des algebes de l'inil potante dans l'algebe de l'île, mon groupe. Alors, pour expliciter ça, je vais un petit peu regarder la tête qu'elle a, cette application, je vais en dire un peu plus sur elle. Alors, donc, je vais prendre, donc, je vais faire d'abord le cas proximal, hein, comme d'habitude, puis j'expliquerai ce qui se passe dans le cas non proximal. Donc, je vais prendre ce sera un R espace vectoriel de dimension finie. Alors, je reviens là, je fais une parenthèse. Je pose, surtout, ce qui était fonction U, etc. Là, j'ai passé pas mal de temps sur le critère de Foster, là, les problèmes de récurrence de marché à Toi, etc. Le output qu'on a de ce travail, c'est ça. Maintenant, on va oublier les fonctions U, on va plus utiliser parce qu'on a cet objet qui ne servira de point de départ. On sait que la mesure nubée qu'on veut étudier est pas trop, est pas complètement dégénérée. Maintenant, une fois la formation là, c'est fini avec les fonctions U, le critère de Foster. C'est fini. C'est ça le output qu'on voulait. Maintenant, on va étudier nubé. Pour étudier nubé, il nous faut un candidat pour être des gens qui préservent un peu nubé. Et c'est ça que je vais construire avec, encore une fois, je reviens à des phénomènes de produits maîtris saléatoires. Donc, je prends V, R espace vectoriel de dimension finie. Donc, ce sera une composante irréductible de mon action adjointe, plus tard. Et je vous rappelle, donc, je vais supposer que Mu est une probabilité. Je suis sur SL une fois pour toutes. Maintenant, j'ai pu m'embêter avec GL, c'est-à-dire qu'il n'y a qu'ESL qui m'intéresse. Il y a une probabilité sur le groupe social linéaire que Gamamu est fortement irréductible et proximale. Donc, c'est ça. Je vais vite enlever cette hypothèse, mais pour l'instant, je la fais, parce que c'est quand même plus simple de voir ce qu'il se passe dans ce cas-là. Et donc, dans ce cas-là, je vous rappelle que... Et je vais supposer aussi qu'il y a des moments. Il y a un moment d'ordre. De toute façon, c'est compact. Ce n'est pas tellement un problème. Voilà. À ce moment-là, on a cette application XI. Et dans ce cas-là, comme la dimension proximale, c'est 1, elle va de B dans PV. Cette application mesurable. Qui a la propriété d'équivariance qu'on aime bien. Et je vais poser taux de B. Donc, ça, c'est une fonction. Ce sera le log de la norme de V sur la norme de B Alors, j'allais c'est un peu tordu, mais vous allez voir pourquoi je fais ça comme ça. Ou V, c'est un élément de la droite XIB. J'ai cette droite. Je prends un vecteur dedans et c'est toujours quelque chose que j'ai souvent fait. Je regarde l'accroissement de la norme par B1-1. Donc, je vous rappelle que B1-1 tendance on envahit XIB sur XI de TB. Voilà. Je fais 1 sur l'accroissement. Alors moi, je prétends que l'intégrale de taux par rapport à la mesure beta, c'est exactement le premier exposant de l'IAPU9, en particulier, c'est strictement positif. D'accord ? Et donc, si je prends toujours mon vecteur V qui appartient à XIB, ou B est un point, alors j'écris plus, beta presque pour tout B, quelque soit V, non, allez, j'ai écrit. Et donc, beta presque pour tout B, quelque soit V appartenant à cette droite aléatoire, l'AXIB, eh bien, si je prends la norme, alors j'agis par la marse aléatoire, mais dans le mauvais sens c'est-à-dire que je prends la norme de ce vecteur, eh bien celle-là, elle a un très mauvais comportement, c'est-à-dire qu'elle tend vers zéro. Normalement, les produits de matrice aléatoire, ça dilate. Mais quand vous avez une matrice qui fait tout grossir, il y a quand même des vecteurs qui fait diminuer. Et l'XIB, qu'est-ce qui fait ? Il détecte les vecteurs qui diminuent pour le produit de matrice aléatoire inverse. C'est ça qui fait. D'accord ? Parce qu'évidemment, V, il n'est pas du tout indépendant de ce que j'applique là. Et c'est pour ça que ça marche. Donc là-bas, qu'est-ce que c'est que cette norme ? Eh bien, par définition, c'est rien d'autre que l'exponentiel par définition de la fonction taux B et par la propriété d'équivalence, c'est l'exponentiel d'une somme de Birkhoff de la fonction. Ça, c'est la propriété d'équivalence plus la définition de la fonction taux qui me garantit ça. D'accord ? Et donc, comme la fonction taux elle a une intégrale strictement positive, quand je fais cette somme de Birkhoff, eh bien, je tend très, très rapidement vers zéro. Je tend linéairement vers l'infini, donc là, ça tend exponentiellement vite vers zéro, ce machin. D'accord ? Alors, la démonstration, c'est une fois, mon coauteur, à l'habitude, de se moquer de la mathématicienne, donc je ne dirais pas le nom, en disant qu'il fait des théorèmes dont les énoncés sont beaucoup plus longs que les démonstrations. Et là, c'est un peu ça, cette proposition que je veux dire. En fait, la démonstration, c'est une ligne, tout est dans la démonstration dans les finitions. Voilà. Euh... Pardon ? Non, non, c'est... Je sais pas, il l'oppose à Marroulis. Je n'ai pas le nom, quand même. Ça, ce n'est pas... Je devrais même pas dire ça, si ça me passe par la tête, comme ça. En voyant mon énoncé, t'as coup, je me rappelle des discussions à l'équipe. Voilà. Donc, la démonstration, c'est quoi ? C'est que... Comment j'ai défini tôt ? D'accord ? J'ai défini, comme ça. Mais là, je vous rappelle comment j'ai défini lambda alors. Eh bien, L'ambdage est dit que c'était l'intégral sur G, qui est salvée, de... L'intégral par rapport sur P et P de V, de la fonction SIMA de GX, des mu de G, des nu de X, où... où nu, c'est quoi ? Nu, c'est l'unique mesure stationnaire. Comme on est proximal, il y a une unique mesure stationnaire. Donc nu, c'est l'unique mesure stationnaire. Et SIMA de G et de X, c'est le log de la norme de GV sur norme de V, où V est un élément de X. Voilà. C'était ça, hein. Quand vous regardez ça, c'est... Simon a montré que c'était exactement ça, hein. Et les propriétés de convergence à l'exposal de Yapounov, on les a déduits du théorème ergodique de Birkhoff, appliqué à cette fonction. Voilà. Et alors, donc en particulier, maintenant, le fait que T, que l'intégrale de T, c'est lambda, c'est juste réécrire cette définition. Qu'est-ce que c'est que la mesure nu ? Donc ça, qu'est-ce que c'est ? Ben, c'est l'intégrale sur G de sigma de G 6B, de l'intégrale sur B, intégrale sur G, des mu de G, des beta de B. Parce que la mesure nu n'est rien d'autre que l'image par l'application C de la mesure de beta sur B. L'unique mesure stationnaire, c'est le fait que nu est la moyenne des nu B que je suis en train d'écrire. Mais maintenant, ben, qu'est-ce que c'est B ? C'est le produit, c'est les suites d'éléments de G avec la mesure produit. Donc je peux très bien dire que le G qui est là, c'est la première lettre de B. C'est-à-dire que ça, je peux dire que c'est l'intégrale sur B de sigma de B1 6 de TB de beta de B. Je peux très bien dire chifter mon B et dire que G, c'est la première lettre. D'accord ? Et maintenant, ben, c'est ce que j'ai écrit, c'est-à-dire que ça, c'est aussi ce sigma de B1 6 de TB. Alors c'est la même chose que moins sigma, c'est le propriétaire caussique, de B1-1 6 de B. Voilà. Et donc ça, c'est exactement taux par définition. Voilà. Donc ça, c'est complètement débile. Mais c'est simplement il y a deux façons de voir l'exposant Gapounov. Soit c'est le taux de d'inatation quand on multiplie par G, quand on multiplie la norme quand on applique G, soit c'est le taux de contraction, ben, quand on multiplie par les inverses, je suis en train de dire que 1 sur la norme, c'est la norme de la, enfin, je rejoins avec la norme et la norme de l'inverse. C'est-à-dire que je suis en train de dire que ce taux d'expansion quand on multiplie par G, ben, ceci, le plus petit taux de contraction quand on multiplie par des aimants comme par des inverses. D'accord ? Bon, alors, ça, c'est une première chose. Alors ça, je vais me garantir que mes algebes de l'île que je vais construire sont des algebes nidpotantes. Pourquoi ça va me garantir ça ? Parce que si maintenant, vous voyez, je suis V, c'est un sous-module d'une algebe de l'île et que j'agis par l'action adjointe, ben, je suis en train de dire que dans l'espace Q6B, là, les éléments que j'ai, ils ont des conjugués par l'action adjoint dans la norme de temps vers zéro. Et ça, une matrice qui a des conjugués dans la norme une matrice à nidpotantes si, justement, si sa classe de conjugaison contient zéro dans son adhérence. Donc là, j'ai garantie que les matrices qui vont apparaître quand je ferai ce procédé, quand je fais des actions par automorphie, par des actions par automorphie sur les algebes de l'île, la des actions par l'action adjointe sur les algebes de l'île, ben, c'est une matrice nidpotante. Hein ? C'est pas, si vous pensez, je fais des arguments pour éviter la théorie de représentation. Hein ? Ce que je suis en train de dire, c'est que quand vous faites quand vous regardez des espaces de racine pour une action adjointe, dans un, ben, les espaces associés à des races, ils n'ont nul. C'est des, j'aurais parlé avec l'anélepotent. C'est juste que je suis en train de dire si vous avez habitude de la théorie des groupes de lits. Hein ? Voilà, mais bon, c'est un argument qui évite d'entraîner la théorie des groupes de lits. Voilà. Puisque c'est, voilà. Donc ça, c'est un premier, une première chose. Alors je n'ai pas, il faut que j'explique ce qui va se passer. Bon. Je, de toute façon, je ne vais pas utiliser cette relation d'équivalience. C'est complète, les propriétés d'équivalience de l'application XI par une description de ce qui se passe au niveau des normes des vecteurs 2 ans. L'application XI, ça va être un champ d'algètes de lits équivalents, mais en plus, je sais comment les normes se comportent selon ce champ équivalent. Je sais que ça, sont très précises parce que c'est gouverné par les sommes de bière coiffe d'une fonction. C'est ça que je veux dire. Et alors, maintenant, qu'est-ce qui se passe quand le groupe n'est pas, n'est pas proximal, c'est quasiment la même chose. Qu'est-ce qui se passe quand j'ai gama, il faut que je dise un mot sur les groupes non proximaux, si j'ai un sous-groupe gama dans GLV et que je note R, sa dimension proximale, un sous-semi-groupe, disons, je prétends la chose suivante. Il existe, note à béner, c'est un l'M, il existe une constance C qui est la propriété suivante. Pour tout Pi, pour tout Pi qui est dans l'adhérence de R gamma, typiquement Pi, ça va être un opérateur, donc l'image est un cibet, là. Pour tout vecteur VW qui appartient à l'image de Pi et qui sont dans l'huile pour tout G dans gamma, eh bien quand je prends la norme de GV disait par la norme de V, donc je suis dans un espace qui est du type cibet, d'accord. Je regarde comment un autre élément de gamma agit dans cet espace. Ben essentiellement, c'est une similitude. D'accord ? C'est-à-dire que quand je regarde la distorsion de la norme de cibet, ben pour que j'ai, pour que j'ai un câlin V ou un W, je trouve essentiellement l'universal prêt. Et pourquoi c'est vrai ? Parce que si jamais, si jamais c'était pas vrai, ben je pourrais couper en 2 mon espace entre là où la norme est petite et là où la norme est grande. Et en passant à la limite, je fabrique un élément là-dedans dont l'image a rend plus petit que R. C'est que la dimension proximale, c'est le plus petit. Donc si jamais il y avait, je commençais à pouvoir voir des éléments qui, dans cet espace de dimension V, ont une grande norme quelque part et une petite norme ailleurs, mais en passant à la limite, en faisant tendre le C vers l'infini, à la fin, j'arriverais à faire un opérateur dont l'image aurait une dimension plus petite. D'accord ? C'est complètement l'émontère. Ça, c'est le... Enfin, c'est un calcul immédiat de l'espèce de batterie. Alors, encore une fois, avec des arguments, si je disais que dans le cas semi-simple, la gamme amus est fortement inductive, donc son adhérence, c'est un groupe préductif. Je regarde qu'agir édictivement, je regarde la théorie du plus haut poids, etc. Enfin, il y a tout un satra de langage de théorie des groupes semi-simples. Je pourrais très bien expliquer ce qui se passe. On verrait même, en fait, je pourrais choisir la norme de façon à ce que c'est soit égal à un, etc. Mais, d'une part, je m'en fiche, j'ai pas envie d'utiliser la théorie d'implantation et d'autre part, j'ai aussi en tête que je voudrais traiter les capéadiques dans le cas péadique, ça c'est optimal. Bon, mais vous en fichez peut-être du péadique, vous avez le droit. Voilà, alors ça c'est une première chose. Alors du coup, ce qui fait que quand je calcule, vous voyez, quand je vais vouloir calculer cette chose, ben, au fond, je m'en fiche un peu, vous voyez, à déconcentré, je m'en fiche un peu du vecteur V que je prends pour la calculer. Alors, sauf que j'aime bien qu'elle ait une propriété d'équivalience, c'est la propriété d'équivalience qui me permet d'avoir une propriété. Alors, qu'est-ce que je vais faire? Donc, dans le cas non proximal, je vais définir, je vais poser taux de B, ce sera le log. Donc, il y aura un sur-air le log de la norme d'un produit extérieur. Puisque tout se marche pareil, je regarde le déterminant et le déterminant, il est à peu près pareil que tout le monde. Divisé par B1-1 V1-VR ou B1-1 d'OxyB. Donc ça, ça fait complètement sens, cette écriture. Et puis alors, c'est immédiat que quand je vais regarder pour V d'OxyB, eh bien, quand je fais la norme de B1-1 B1-1 appliqué à V, ce sera plus petit. Une constante universelle qui est essentiellement celle-là, qui sort là, fois exponentielle de moins taux de B de tépices en 7 moins un B. C'est juste le fait que quand vous avez si vous avez une similitude sur un espace vecteur et vous avez une matrice dont la norme est plus petite que C, eh bien vous pouvez comparer une similitude une matrice qui vérifie une propriété comme ça sur un espace vectorial vous savez comparer sa norme à son déterminant. C'est ça que je suis en train de dire. C'est juste ça. Qu'est-ce qu'il y a un B1-1 B1-1, la même chose. Voilà, la même chose, le tenseur que j'ai mis. J'ai éboulé la norme 2 quand même ici. Voilà. Bon, ça c'est peut-être vous êtes pas obligés d'entrer les détails, ce dont je veux vous convaincre c'est tout ce que je fais dans le cas proximal. J'ai pas besoin de l'éculer cette hypothèse, je peux le faire dans n'importe quel cas. Voilà. Alors ça, c'est ce dont j'ai besoin de l'éculer. Voilà. Donc du coup, en fait, je peux, et j'ai exactement tout ce que j'ai fait dans le cas proximal, ça marche pareil, à cette modification-près. Il y a cette petite calcul de la geste torsorielle. Voilà. Et je définis taux comme ça parce que comme ça j'ai pas de problème pour écrire cette formule puisque taux, il dépend que d'oxybé. Il dépend pas d'un choix du vecteur d'oxybé. Voilà. Ça va me... C'est-à-dire, déjà, montrer que les algèbes de l'I qui vont m'intéresser sont des algèbes de lignes potantes et puis ça me servira souvent cette formule qui complète la formule d'équivariance en disant ce qui se passe au niveau des normes. Et maintenant, j'ai besoin d'en dire un tout petit peu plus sur l'espace cibé, juste pour pouvoir pourquoi c'est une soule d'algèbes de l'I. Pourquoi, quand on fait des sommes, on va récupérer des soule d'algèbes de l'I. Donc, je vais supposer que mu est une probate sur SL2V que gamma mu est fortement irréductible et de dimension proximale R. Je vais noter si donc l'application associée de B dans la grâce manienne des R-plans et le petit m, là, c'est que quel que soit V dans V dire que V est différent de 0 V appartient peut-être pas, on s'en fiche. V appartient à 6B. Ça équivaut à dire qu'il existe une infinité de N. Donc, peut-être je devrais dire beta, presque pour tout B. Il existe une infinité de N telle que quand je regarde BN-1, donc toujours le même point, le point qu'attend, ça va être contracté par la marche aléatoire inverse eh bien attendez ce sont des problèmes de quantificata, excusez-moi. Il existe C Il existe une infinité de N telle que quand je regarde BN-1, BN-1, et bien ça c'est petit le plus ce que je vous disais c'est le plus petit que ça puisse être c'est-à-dire que c'est plus petit que ces fois l'inverse de la norme de BN-1, comme j'ai dit, évidemment c'est plus grand que 1 sur ça ça c'est l'inverse d'une matrice appliquée à un vecteur donc ça ne peut pas décroître plus petit que ça d'accord et ça veut dire qu'est-ce que je dis c'est là où c'est là où c'est le plus contracté ça veut dire que pour une infinité de N ce qu'on voit comme vitesse de contraction c'est la plus petite possible dans toutes les matrices dans toutes les vecteurs d'accord c'est ça le XB c'est-à-dire que d'un point de vue d'intuition de système IAMIC c'est une feuille fortement stable vous avez une dynamique quelque part il y a un espace tangent qui est V à la diamix sur le shift et ça c'est une espèce de feuille fortement stable c'est ça qui se passe comment ça pense à cette suite de B pense à cette suite de B voilà XB dépend de B voilà comment on repère voilà alors la démonstration c'est alimentaire c'est quasiment tout ce j'ai déjà tout à peu près tout dit voilà j'ai juste je prends encore 5 minutes j'ai terminé le fait que les espaces qui m'intéressent sont des sous-agèpes de lit puis j'arrêterai ça j'ai besoin de ce petit argument voilà la démonstration la démonstration comment je vais dire ça donc j'ai une équivalence à montrer donc il y a 2 sens alors il y a un sens qui est très facile c'est le sens comme ça vous voyez parce que si vous avez une suite NK moi je prétends que si j'ai une suite de matrice GN qui est une suite de matrice donc je suppose que ces conditions sont vérifiées je montrerai que vous avez donc 6B tel que la norme de GN est égale à 1 d'accord alors GN GN ce sera B1 BN divisé par la norme de B1 BN ok et puis vous voyez qu'est-ce que c'est que 6B c'est l'image des valeurs d'adhérence de ça d'accord c'est ça que 6B alors qu'est-ce que je suis en train de dire ben je suis en train de dire que moi j'ai en train de dire que j'ai une suite UN tel que la norme de UN est plus grand que 1 sur C d'accord donc UN qu'est-ce que c'est c'est donc c'est une suite extraite 2 c'est BN-1 BN-1 divisé par je suppose que la norme de VC parce que si je ne veux pas monter rien divisé par la norme de B1 BN c'est ça que j'ai dit ça y est je n'arrive plus non multiplié par ça ça y est j'ai envie de dire que j'ai une suite quelque part qu'elle a coincé entre 2 constantes parce que celle-là c'est UN fois ça pardon cette suite elle est coincée entre 1 et 1 sur C d'accord donc maintenant ce que j'ai c'est que j'ai une suite extraite tel que pardon c'est l'inverse de ça c'est entre C et 1 ouais c'est entre C et 1 pardon excuse-moi là c'est ça voilà maintenant je sais que GN il y a une suite extraite qui tend vers un projecteur vers une application F d'accord et je sais que GN UN est égal à V d'accord mais UN il a une suite extraite qui est extraite je suppose que c'est tend vers un vector U ok et ben quand vous passez à la limite ça vous garantit que U est différent de 0 d'accord et que U part pas à l'infini d'accord donc maintenant je sais que FU est égal à V ça vous va ? juste parce que par compasité par je ne suis pas quelque chose normalement c'est trivial mais il y a tellement de lettres et de et de suite extraites qu'on ne s'y retrouve plus donc j'essaye de pas tout écrire pour écrire ce qui a du sens voilà donc ça c'est complètement trivial et alors là c'est la réciproque qui n'est pas complètement évidente en fait parce que dans la réciproque vous voyez vous voyez pour y avoir un problème dans la réciproque c'est a priori il faut penser au cas ou votre suite de matrice GN c'est le cas des matrices unipotentes qui vous posent un problème vous voyez parce que si GN c'est cette matrice là quand vous prenez vous avez envie de dire que la suite qu'il faut prendre c'est 1 sur n GN ok et quand vous faites 1 sur n GN le Xibé associé l'espace associé c'est 1 sur n GN ça tend quand vous la renormalisez ça tend vers ça donc l'espace limite qui apparaît c'est la droite engendrée par E10 là d'accord mais si vous prenez GN moins 1 de E1 c'est fixe donc c'est pas de l'ordre de 1 sur n ou de n d'accord c'est ça le problème ce que je dis dans ce LEM c'est que la suite B1, Bn n'est pas de ce type là faut me suivre il y a un phénomène de semisimplicité qui dit qu'on n'a pas une suite qui se comporte quand il y a une grande matrice unipotente donc c'est ça qu'il faut montrer d'irréductibilité évidemment ce qui se passe c'est qu'on n'est pas irréductible quand on est irréductible c'est pas ça qui se passe alors je vais le dire précisément de comment garantir quand on a qu'est-ce que c'est, c'est toujours pareil c'est que moi j'ai envie de garantir que quand j'applique une certaine matrice un certain vecteur grosso modo je trouve quelque chose qui est de l'ordre de la norme de la matrice c'est à dire donc j'ai envie de dire j'ai envie de le faire dans le sens c'est à dire j'ai envie de dire que quand je prends V donc si de TnB d'accord quand je prends B1 Bn appliqué à V j'ai envie de dire que c'est à peu près la norme de B1 Bn fois la norme de V c'est ça que j'ai envie de dire d'accord, si j'arrive à avoir ça pour une infinité de N c'est exactement pareil par l'équivariance c'est la même formule ok donc il faut que j'arrive à garantir ça et alors qu'est-ce qui se passe quand est-ce que quand j'ai une matrice quand est-ce que j'ai je vous rappelle c'est quelque chose qui est calcul qu'on a déjà fait quand est-ce que la norme de Gv c'est à peu près la norme de G fois norme de V à des constants de prêts ben s'il faut regarder la décomposition de cartons j'ai égal à L et c'est quand il y a un espace ici ça c'est là donc je suis dans GLN de R et là il y a A donc il y a un espace important c'est L-1 de 0 croire Rd-1 donc ça je vais l'appeler c'est un espace qui essentiellement dépend que de G et quand est-ce que la norme de G à peu près la norme de Gv c'est à peu près la norme de G fois norme de G et ben c'est quand V la distance entre la droite engendrée par V et le VGM est plus grande que epsilon donc ça ça me garantit une propriété comme ça on a déjà fait ses calculs là d'accord si je suis pour calculer la norme d'une matrice il y a un hyperplan qui est mauvais qui est défini par la décomposition de cartons et dès qu'on est loin de cet hyperplan il n'y a pas de problème on sait que la norme de Gv c'est à peu près la norme de G fois norme de V donc il me faut garantir c'est quoi pour garantir cette propriété là il faut que j'arrive à garantir que la distance entre la droite C de TnB et l'hyperplan mauvais là appliqué associé à la matrice B, B1, Bn M ça c'est plus grand que epsilon une infinité de fois pour une infinité de n d'accord et alors ben qu'est-ce qui se passe ben cet hyperplan mauvais vous voyez il est il est assez aléatoire d'accord mais globalement de quoi il se rapproche les hyperplans mauvais quand je fais l'hyperplan mauvais non pas petit thème ça veut dire mauvais là non pas pour B1, Bn mais pour B1 d'accord ça je sais que ça se rapproche mais c'est quelque chose que je peux noter état B qui est le qui est l'orthogonal du Xibé mais dans la représentation adjointe d'accord ça c'est quelque chose qu'on a fait voilà donc grosso modo celui là pour le voir bien il faudrait que je vois ça comme la première lettre là d'un mot infinie mais écrit dans l'autre sens ok donc ce que je vais faire c'est que je vais travailler avec le chiffre bilataire donc je vais introduire Bthild ce sera le chiffre bilataire ok et maintenant ce qui se passe c'est que presque sûrement quand je prends une suite B qui s'écrit B alors une suite Bthild qui s'écrit B-B qui appartient au chiffre bilataire parce que celui là je voudrais voir celui là il m'a batté un peu parce qu'il n'est pas vraiment équivariant quoi j'ai des mauvaises propriétés sur celui là d'accord donc je vais plutôt dire que l'espace que j'aimerais hésiter là celui qui est ici Vm V1 Bn il ressemble à peu près au état état est défini par ça de la suite B- d'accord et donc qu'est-ce qui se passe c'est-à-dire précisément que en fait ce que je veux dire c'est que cette suite B-B quand j'écris la suite pardon excusez-moi j'ai dit une bêtise B- le état B-N B-1 d'accord il est à peu près égal au état de B- ce que je veux dire par là c'est qu'il se rapproche ok et maintenant donc ce que je veux comparer la suite le ce dont je veux montrer que c'est plus grand cette quantité là la distance entre ctnb et ce gala ici elle ressemble beaucoup à la distance que j'écris comme ça d'accord ce que j'appelle tnb moins c'est c'est la partie négative de la suite tnb que j'ai décalée B maintenant c'est ctnb tilde donc ce que je veux dire par là c'est que ces deux fonctions elles vont avoir une infinité de valeur ou elles vont se rapprocher c'est à dire que je veux dire plus précisément ces deux fonctions elles vont être essentiellement pareilles quand même et très grands et maintenant cette distance c'est savoir si cette distance elle va être plus grande que epsilon une infinité de fois juste par le théorème de recurrence de point carré puisque là je suis en train de regarder l'orbite d'un point sous le shift et par le théorème de recurrence de point carré que je reviens à cette distance elle va prendre une infinité de valeur plus grande que epsilon donc cette distance là est tendance à être très souvent grande si je prends epsilon très petit même elle va passer pratiquement tout son temps à être grande alors qu'essentiellement celui-là quand on prend des n grands il ressemble à celui-là donc ça me garantit que je vais avoir une infinité de fois la propriété qui m'intéresse ici d'accord donc c'est bon je vous le fais je n'ai pas écrit tous les détails mais on peut garantir qu'on a ça qui ne serait pas une infinité ça c'est une propriété si vous habitez de la géométrie hyperbolique c'est une propriété de point limite conique je suis en train de dire que le 6B si je suis en train de faire une marche aléatoire si je suis dans SL2 je suis en train de dire qu'il y a un point limite qu'il y a un point limite conique ici que la façon dont le 6B tend vers l'infini il y a une suite qui tend coniquement vers l'infini voilà donc ça c'est fait voilà j'ai juste conclure ce que je voulais ce que je voulais du coup un corollaire de ça c'est que d'une part une remarque c'est que la démonstration vous voyez j'aurais pu travailler dans plusieurs représentations à la fois donc si j'ai deux représentations si j'ai un V dans le xi d'une première représentation et un W dans le xi d'une autre représentation je peux garantir que j'ai ça dans les deux représentations pour une infinité de veine quitte à monter la constant C et que j'ai juste utilisé le theorem de récurrence 2.4 ici je l'applique dans les deux à la fois donc je trouve une suite 2N qui marche pour les deux gars d'accord puisque je peux le faire en plusieurs représentations mais un corollaire c'est que je sais comment se comportent le 6B quand je fais des produits tempsoriels c'est à dire que si j'ai une première représentation donc si j'ai un sous-groupe si j'ai mu qu'il y a une probabilité une mesure de probabilité sur GL2V1 enfin disons on a dit SL SL2V2 on va les appeler VW plutôt eh bien si je fais le 6XI qui va qui est l'application de bord dans la grâce manienne des R-plans dans V état j'ai plutôt les notés B donne VB j'ai B donne VB dans ma première grâce manienne j'ai B donne WB seconde grâce manienne eh bien le VB tempsor WB il est inclus dans la somme directe des UIB où j'écris V tempsor W j'écris plus les hypothèses V tempsor W je le décompose comme une somme de représentation irréductible c'est que dans chaque composante irréductible j'ai un espace de STIP et mon VB tempsor W il vit dans cette somme directe pourquoi ? parce que j'applique ça justement je prends 2 vecteurs je forme leur produit tempsoriel et il y a une suite où la norme a tendance à décroître le plus vite possible à la fois pour V et pour W ce que je peux garantir c'est que quand je fais la norme il y aurait d'autres façons de montrer ce que je suis en train de démontrer mais en disant la théorie d'arpentation c'était plus clair mais je vais éviter les arguments de théorismes simples de racines, de pots dominants, etc donc ce que je suis en train de dire c'est quand je fais la norme de BN-1 BN-1 appliqué à V tempsor W mais à cause de ça je peux trouver une suite où elle est dominée par ces fois sur la norme de BN la norme évaluée dans V la norme de BN-1 évaluée dans W et ça c'est énorme calculé dans V tempsor W donc elle est bien en train de décroître le plus vite qu'on puisse décroître dans le produit tempsoriel donc ça veut dire que précisément j'étais dans ces composantes là j'ai pas le choix et donc c'est tout de suite c'est ce qui va me donner la stabilité par crochet de lit donc maintenant corollaire mu est une mesure de probabilité sur G le sous-broupe engendré par l'action adjointe de gamma mu à une adhérence de zariski semisim et je vais définir donc ça c'est une notation maintenant qu'on va garder tout le temps je vais définir VB c'est une sous-agèpe de lit c'est la somme directe je vais pas m'embêter tout ce que j'ai raconté je peux conclure ce qui se passe quand je fais des facteurs compact absolument tout c'est juste qu'il y a des pathologies en plus par exemple elles sont pas tout homogènes il y a des phénomènes qui apparaissent donc j'essaye de ne pas dire ce qui se passe quand il y a facteurs compact c'est pas un problème pour classifier les mesures d'avoir des facteurs compact mais c'est juste que ça il y a plein de trucs qui deviennent un peu immonde à raconter donc VB ça va être la somme directe des UIB pour B dans B où les UI sont les composantes gamma-mu irréductibles sont décomposantes parce qu'il y a un choix a priori il va y avoir deux composantes hiésomorphes donc bon les composantes gamma-mu irréductibles non trivial de G donc je regarde l'action de gamma-mu sur G bon ben comme l'adherence de Zarisky gamma-mu et Smith-Simple c'est une somme directe irréductible et je prends la somme de toutes les noms triviales et bien tout ce que j'ai fait la propriété stabilité par producteur sorriel me garantit une stabilité par produit de lit, par crochet de lit et le fait que j'ai pris les composantes hiéréductibles donc c'est les parties où Toby précisément il a une intégrale non nulle donc le point alors VB et une sous-algèbre nile potante même un petit peu plus de l'algèbre de l'IG et et quoi et V2TB c'est l'action adjointe d'implicance moins 1, appliqué AVB donc ça pourquoi c'est une sous-algèbre nile potante ? parce que comme j'ai pris les composantes non triviales quand je prends les fonctions taux associées à chacune des représentations c'est exactement positif, c'est pas des bornes c'est pas des constantes elles sont pas égales à 0 donc du coup quand j'ai un taille j'essaie de propriété de décroissance qui me garantit que les éléments de chacun des UIB ce sont des éléments de l'algèbre de lit quand je prends leur action adjointe la action adjointe elle est conjugée qui tend vers 0 donc la action adjointe est nile potante maintenant la stabilité par produit c'est la stabilité par produit temps sorriel que j'ai écrit cette situation à un groupe semi-simple qui agit sur une somme d'espace vectoriel vous définissez les VB comme ça si vous avez un produit bilinaire invariant par le groupe il y a une propriété stabilité par le produit bilinaire invariant c'est juste ça à cause de la propriété de produit temps sorriel que j'ai écrit qui vient elle-même de cette propriété de dort ça c'est encore une fois ça pourrait se voir autrement avec des arguments sur mon théorétaire plantation c'est juste que j'ai voulu faire une plantation sans parler de techniques semi-simples voilà et donc je vais écrire les noncés vers lesquels on va aller qui va occuper les dernières séances la prochaine séance j'expliquerai cette énoncé et la dernière séance j'essaierai de donner de sa démonstration donc les noncés c'est le suivant maintenant je vous avais dit là je me suis lancé dans cette grande discussion sur ces familles de sous-espace équivariante ce que je vous ai dit j'ai construit des mesures nubées maintenant il faut que je montre qu'elles ont de la variance et par qui elles ont de la variance j'ai VB et donc j'ai un groupe VB qui est l'exponentiel de mon agèle de l'IVB qui a la propriété d'écuvariance qui est ici qui a un magnifique groupe à d'unipotent je veux dire VB qu'est ce que c'est ? je vais vous donner des exemples dans une minute j'ai un groupe unipotent et donc la proposition clé qui va être qu'on va démontrer c'est que si GG qu'un groupe de l'I lambda qu'un réseau si mu est une mesure de probabilité tel que l'axon adjoint de gamme à mu a une adhérence de zarisky semi simple sans facteur compact et alors là c'est important c'est dans cette démonstration qu'on va utiliser que mu est à support compact alors si nu est une mesure de probabilité de probat mu stationnaire nu stationnaire si nu est une mesure de probabilité mu stationnaire mu ergodique tel que quel que soit x dans g sur lambda dans x égale g sur lambda nu de lx égale 0 il faut qu'on ne sache pas le centralisateur pour pouvoir commencer à travailler et créer des nouveaux éléments donc on sait que c'est implique que nu b est de lx égale 0 dans le cas où il n'y a pas de stabilisateur je suis juste dit si je n'ai pas d'atome donc typiquement l'espace x est le tort t2 j'agis par s l de z je ne sais pas dire que j'ai une mesure stationnaire qui n'a pas d'atome j'ai envie de conclure que c'est la mesure de art d'accord ? c'est des manipulations assez faciles alors donc j'aimerais conclure nu b et vb invariant et dans les cas de base là j'ai vb, j'ai ma mesure nu b qui satisfait la même relation d'équivalence que vb qui a une sous-algebraie nile potante j'aimerais conclure nu b et vb invariant si j'ai nu b et vb invariant pendant le cas des tort t2 qu'est ce que c'est que vb c'est une droite dans r2 il faut vraiment le faire exprès pour que ce soit pas la mesure de le bec sur le tort t2 malheureusement dans le cas t2 c'est ce qui va se passer parce que j'ai pas choix mais nu b pourrait être invariant par un sous-groupe de vb et donc je suis obligé de dire ça alors il existe une décomposition de nu b comme une moyenne de mesure nu bx et une mesure décomposition qui a la même propriété d'équivalence nu b de tb maintenant il y a b1 il y a le x donc quand je shift il faut agir par b1 moins 1 la propriété d'équivalence naturelle c'est celle-là nu de tb b1 moins zx c'est b1 moins 1 nu bx donc il y a une décomposition il existe une application bx donne vbx qui inclut dans vb qui est une sous-algebra tel que et v de tb b1 moins 1 x c'est l'action adjointe la même propriété d'équivalence l'action adjointe de b1, puissance moins 1 tel que nu bx et 1 variante par l'exponentiel de vbx et vbx 1 variante donc j'aimerais montrer que nu b vb 1 variante en basse dimension c'est ça qui se passe mais évidemment quelque part on est obligé de recouper un morceau parce qu'on pourrait avoir des sous espaces homogènes intermédiaires si on avait des sous espaces homogènes dans vb j'ai pris tout ce qui se passait dans la jeppe de lit et donc on sous des espaces homogènes il va couper ça mais il va prendre que certaines des composantes je commence à fabriquer ça pour fabriquer ça ça veut dire qu'en fait je vais redécomposer pour l'instant la mesure à la fin on va montrer que nu bx est constante c'est toujours la même mesure mais pour l'instant je ne sais pas mais je peux dire que je peux la recouper en morceau et quand je la coupe en morceau je fais ça de manière équivariante naturelle, c'est-à-dire que c'est ici quand je fife par b il faut multiplier du b par b1 moins 1 donc je fais ça de manière naturelle tel que avec cette façon de coupe en morceau il y a une façon de couper en morceau le champ de mesure, le champ d'algètes de liens variantes qui cohérentent et à chaque fois je préserve voilà maintenant je suis disais j'ai encore un peu tard excusez-moi donc la prochaine fois voilà maintenant on a une magnifique mesure variante par des groupes un paramètre unipotent qu'on va lui appliquer ratteneur donc la semaine prochaine je vais détailler comment une fois qu'on a ça c'est terminé on a envie de le dire parce que je veux dire quand on est un technicien du sujet comme moi on voit une mesure par un groupe unipotent on saute de joie, ça y est on a terminé, on a fini on le fait même plus au rentier soit quoi mais peut-être que vous n'avez pas tellement l'habitude parce que je peux comprendre donc moi j'ai l'habitude mais je vous le fais quand même quoi voilà on va faire ça en détail c'est de montrer cette proposition voilà j'essaierai de faire ça pendant la dernière séance voilà je vous remercie excusez-moi d'être en retard