 Donc la dernière fois, j'ai longuement parlé une mesure stationnaire, donc je vous rappelle un des énoncés principaux que j'ai donné, j'ai introduit un nouvel objet, quand on a un groupe G, mini d'une mesure mu, qui agit sur un espace X, mini d'une mesure de probabilité, qui agit sur un espace X, mini d'une mesure de probabilité nu et que nu est stationnaire. J'ai introduit une autre façon de voir nu, c'est-à-dire quand j'ai noté, donc ce sera toujours le cas dans toute la série exposée B, l'espace produit, mini de la mesure beta qui est la mesure produit, donc c'est l'espace des tirages aléatoires, d'éléments indépendants identiquement distribués dans G de l'OAMU, et j'ai introduit un objet, donc c'est une application qui va B de nu B, qui va de grand B dans l'espace des mesures de probabilité sur X. La cette mesure est la limite, donc le théorème c'est qu'elle existe de la suite de mesures qu'on obtient en poussant la mesure nu par cette suite de transformation aléatoire, mais qu'on écrit dans le mauvais sens. Normalement quand on agit par des transformations, on a envie d'agir à gauche, et là on agit dans le mauvais sens, on pousse nu, et on a quelque chose qui converge, et ça c'est une conséquence du théorème des martingales de double. Et ce que j'ai dit, c'est qu'elle vérifiait une relation d'équivariance, donc thé c'est le décalage, voilà, thé c'est le décalage, et cette mesure, cette famille aléatoire d'un de mesures vérifie une relation d'équivariance par rapport à l'application de décalage, et donc ce qui découle immédiatement de la définition. Voilà, donc ce que j'ai dit, c'est que pour quand on veut construire des mesures stationnaires, et bien on les construit comme des points fixes d'un opérateur, donc c'est pratique de les voir comme ça. Par contre, quand on veut, et bien il apparaît dans le travail qu'on a produit avec Yves Benoît, que pour montrer des propriétés un peu fines de géométrie de ces mesures, c'est plus pratique de les voir de ce point de vue là. Et les deux points de vue sont équivalents, c'est-à-dire que quand on donne une famille, une mesure, une famille qui vérifie cette propriété d'équivariance, la mesure nu et l'intégrale n'est nulle b, d, b, t, d, b est stationnaire, c'est immédiat, il n'y a pas de subtilité quoi, c'est complètement immédiat. Voilà. Donc dorénavant, je jonglerai entre les deux points de vue. Alors j'ai tout de suite donné des applications de cette construction dans le cadre, oui ? Qu'est-ce que ça, on décalage ? Le shift, le shift map, ce shift map. Voilà. En français, des fonds dit shift. Voilà. Mais quand on est très précis là, j'ai fait deux exposants d'anglais, donc aujourd'hui je vais dire décalage. Voilà. J'ai donné une application de cette construction à l'étude des mesures stationnaires pour les marches aléatoires sur les groupes linéaires. Donc ce que je veux dire, c'est que je ne me suis intéressé au cas amus. Maintenant, c'était une mesure de probabilité sur le groupe GLV. V était un espace vectoriel réel de dimension finie. J'ai noté gamamus. Donc ça, c'est une notation que je garderai pour tout l'exposer. Le sous semi-groupe, donc le sous semi-groupe engendrait par le support de mu. Et j'ai rappelé un théorème de Fürstenberg qui dit que si, donc c'était Fürstenberg, donc si gamamus est fortement irréductible, c'est-à-dire qu'il ne préserve pas de réunions finies de sous espace vectoriel dans V. S'il est proximal, et bien il n'est pas... alors il existe une unique probabilité mu stationnaire, nu sur P2V, sur l'espace projectif de V. Et cette probabilité, et bien elle va hériter quelque part du fait que gamamus était proximal, c'est-à-dire que beta presque pour tout B, donc proximal, c'est-à-dire qu'on contient une transformation qu'à un point 6 contractant dans l'espace projectif. Et beta presque pour tout B dans B, nu B, la mesure de bord maintenant, est une masse de dirac. C'est-à-dire que la présence dans le semi-groupe de transformation proximale, donc de transformation qui a tendance à contracter l'espace projectif sur un seul point, fait que quand on fait des tirages aléatoires et qu'on les applique à une mesure nu, ça a tendance à la concentrer sur une masse de dirac. Donc c'est pas très surprenant, mais bon c'est pas si facile que ça à démontrer, mais c'est ce qui se passe. Et à la fin de l'exposé, j'ai évoqué ce qui se passait parce que je vais l'utiliser. Donc dans le cadre, dans le cas où le semi-groupe n'est pas proximal, on peut aussi dire ce qui se passe. Donc déjà ce qui se passe quand c'est proximal, c'est que nu B, c'est la mague de dirac en 6B et puis une fois qu'on sait ça, c'est assez pour des raisons simplement de structure des grandes matrices. C'est assez facile de voir que toute valeur d'adhérence, alors presque sûrement pour sur B, toute valeur d'adhérence de B1, BN sur la norme de B1, BN. Je normalise ma matrice étant sans doute à être grande, mais je la normalise pour qu'elle est norme 1 et maintenant ça me fait su de matrice norme 1. Je peux extraire une sous-suite qui converge et cette sous-suite son noyau peut varier parce qu'à gauche, à droite, je rajoute des nouvelles matrices à chaque étape donc ça peut faire changer le noyau, ça peut tourner. Par contre à gauche, ça a tendance à être déterminé et donc c'est ce qui est bien ce qui se passe, c'est que toute valeur d'adhérence cette matrice est d'image la droite 6B. 6B c'est un élément de l'espace projectif donc c'est une droite à l'espace vectoriel. Donc cette matrice quand le temps est très très grand, si on prend une sous-suite qui converge comme opérateur linéaire, le noyau on ne sait pas trop où il est, mais l'image c'est ce que 6B. Et alors ce qui va se passer, quand Gamamu, j'ai conservé l'idée que Gamamu est fortement irréductif, ça c'est indispensable, mais quand Gamamu n'est pas proximal, j'ai introduit un invariant R, la dimension proximale de Gamamu, donc ce qui est important c'est que ça, enfin bon ce qui est important c'est même pas très important mais ce qui est remarquable c'est que ça ne dépend que de Gamamu, ça ne dépend pas de la mesure, c'est juste un invariant du sous-roup sur lequel vit la mesure, ça ne dépend pas du tout de la mesure elle-même, ça n'a vraiment un gibrique. La dimension proximale de Gamamu et à ce moment-là ce qui se passe, c'est qu'on a maintenant cette application XI, elle est toujours définie mais au lieu d'aller de B dans l'espace projectif, elle va aller dans la grâce manienne des R plans de V, elle vérifie la même relation d'équivariance, donc on va avoir XI de Tb, égalité de B1 sans son voisin XI de B, c'est-à-dire qu'on va toujours avoir cette propriété, ça c'est toujours vrai, cette propriété elle est virée mais ça veut dire que maintenant, comme Gamamu n'est pas proximal, il n'y a pas d'éléments qui a tendance à contracter sur une droite, il y a des éléments qui ont tendance à contracter sur des R plans, donc on peut pas, ces matrices-là, quand on les prend en grand temps, elles ont tendance à contracter sur un R plan et pas à contracter sur une droite, mais enfin c'est pas grave, c'est quand même très utile comme information, et alors du coup, il n'y a plus d'unicité de la mesure stationnaire, il n'y a pas de raison, par contre ce qui se passe, c'est que XI B est quelque soit nu, une probabilité stationnaire, nu stationnaire sur PV, si je regarde beta presque pour tout B, si je regarde le sous-espace projectif de PV engendré par le support de la mesure nubée, j'ai cette mesure donc si c'était proximal, eh bien je serai en train de dire c'est juste un point, cette support et quand c'est pas proximal, ça va être contenu dans ce R plan et c'est à plus précisément ce R plan, c'est exactement le sous-espace projectif engendré par le support de la mesure nubée, donc c'est égal à l'espace projectif du R plan XI B, c'est-à-dire dans mon espace projectif de V, donc si on n'a pas été en dimension 4 là, et ce que je vais voir apparaître par exemple, c'est des deux plans et donc les mesures nubées dépendent de la mesure nu, il y a plusieurs choix possibles, par contre leur support, il est engendré par cette, il engendre exactement cette droite projective, voilà, c'est ça qui est, c'est ça le dessin, donc typiquement on peut penser au cas, mu qui vit sur SL2C que je considère comme un sous-groupe réel de GL4R, voilà et alors c'est exactement ce qui se passe, c'est à dire qu'on est dans P3 et alors la mesure, comme on préserve la structure complexe, on ne peut pas avoir des droites, on a la structure complexe, donc on ne peut pas avoir des droites comme image, c'est endomorphie, ça va rester des endomorphies qui préserve la structure complexe, donc nécessairement les deux plans sur lesquels on contracte, les espaces projectifs sur lesquels on contracte, ils sont dimension paires et donc on va avoir des droites complexes mais du point de vue projectif réel on voit comme des droites, enfin c'est des points complexes, c'est des droites complexes donc dans le projectif ça nous fait des droites projectifs, donc c'est ça le dessin, alors maintenant quelque part ce que je viens de définir, quand j'ai une grande matrice aléatoire comme ça, ce que je viens de décrire c'est un peu une propriété de direction, je sais où elle va aller, où elle va envoyer l'espace, maintenant je vais étriller sa norme, précisément je vais étudier cette chose pour laquelle j'ai divisé, donc c'est à dire que je vais essayer de montrer qu'on crainte une loi des grands nombres pour la norme de la matrice, ce que je suis en train de dire c'est que je sais, alors d'un genre une remarque c'est que ce que je viens de faire, je reviens en arrière une minute, ce que je viens de faire pour le semi-groupe je peux l'appliquer au semi-groupe adjoint, donc je regarde les adjoints de mes matrices, maintenant ça vit dans le groupe linéaire A2, l'espace vectoriel duale, alors qu'est ce qui va se passer, maintenant ça va me décrire, l'adjoint, je vais savoir que quand je prends l'adjoint comme ça, à chaque fois que je prends une valeur d'adhérence de cette matrice, eh bien je connaitrait son image, mais connaître l'image de l'adjoint d'une matrice c'est connaître son noyau, d'accord, donc l'énoncer automatiquement en étudiant la marche aléatoire adjoint, c'est à dire l'énoncer adjoint, d'accord, c'est à dire que cette matrice c'est rien d'autre que l'adjoint de celle-là et donc pour celle-là quand je fais le produit dans ce sens-là, je connais l'image, donc pour celle-là je connais le noyau, donc l'énoncédual c'est corollaire, c'est toute valeur d'adhérence, donc bêta presque pour tout b, mais je suis devenu un vrai probabilisme, donc je ne précise plus que c'est presque sûrement, a pour noyau l'orthogonal de l'image de ça, c'est-à-dire que si étoile de b, ça c'est un sous-espace vectoriel du duale, donc il faut que je prenne son orthogonal qui est un sous-espace vectoriel de mon espace de départ, ce qu'il compte c'est que cette matrice je ne sais pas du tout où elle envoie les points et c'est complètement aléatoire, c'est-à-dire elle envoie les points n'importe où, quand je suis une trajectoire ça va tendance à se promener sur l'espace projectif, en revanche je sais très bien où est son noyau, alors je vais utiliser ça dans une minute, la dimension oui absolument, la dimension oui c'est normal parce que, ce que tu sais c'est quand même que, voilà, la dimension proximale dans ce mi-groupe est son adjoint ça la même, donc maintenant j'ai donné un théorème sur le comportement des normes, donc c'est encore Furstenberg, peut-être Furstenberg Aston celui-là, mais peut-être que ça c'était dans le cas proximal, je ne sais plus qui est passé dessus, peut-être kiffer aussi pour le cas non proximal et donc le terrain est suivant, je prends mu, une probabilité sur GLV et je vais supposer que gamma mu est fortement irréductible, alors et quoi d'autre, alors maintenant je vais montrer la loi des grands nombres, je veux utiliser la norme de ces matrices, alors pour montrer la loi des grands nombres il faut une hypothèse d'intégrabilité, pour montrer le théorème de Birkhoff on travaille avec des fonctions intégrables, pour montrer la loi des grands nombres il faut l'espérance du premier moment soit finie, donc je vais supposer et l'intégrale, alors l'analogue de l'hypothèse que le premier moment d'ordre 1 est fini, la norme c'est multiplicatif, donc c'est plutôt quelque chose, si je veux avoir un comportement additif, je regarde le log de la norme, donc une hypothèse de moment d'ordre 1 c'est ça, l'intégrale sur GLV, alors je demande que cette intégrale soit finie, mais alors la norme c'est pas symétrique, donc je vais rajouter l'inverse, peut-être que je vais prendre, il ne faut pas que je me plante, donc j'ai demandé que l'intégrale de la norme soit finie et je vais aussi demander la même chose avec la norme de G-1, que j'intégrale, c'est deux intégrales, je l'écris, parce que je travaille sur GL, je travaillerai sur SL, ce serait le même énoncé, voilà c'est juste que je travaille sur GL, il faut me supposer les deux, donc je fais cette hypothèse d'intégrabilité qui est naturelle, et alors alors il existe un nombre réel lambda, ce qu'on appelle le premier exposant lié à Pouneuve de la marche rétoire, tel que beta presque pour tout B, élément de B, quand je regarde 1 sur N, le log de la norme de BNB1, ça tend vers l'envers, quand même tend vers l'infini, donc ça c'est un analogue du théorème de Birkhoff ou de la loi des grands nombres, et dans la loi des grands nombres, dans le théorème de Birkhoff, on sait que le nombre qu'on trouve c'est l'intégrale de la fonction, c'est-à-dire que là, je suis en, mais là c'est pas une vraie fonction que j'intègre, c'est pas les itérés d'une fonction, je sais pas une somme de Birkhoff, donc le nombre que je trouve, il se trouve qu'en fait on a aussi, on se casse élémentaire, on a lambda qui est égal à la limite quand même tend vers l'infini, du log de l'intégrale du log de la norme de G par rapport à la mesure produite, c'est-à-dire que j'ai cette convergence peut-être 1 sur N, j'ai cette convergence donc c'est une convergence presque partout, mais elle vient avec une convergence des intégrales, il y a une torre de convergence dominée quelque part, et en fait c'est aussi égal, ça devient plus intéressant, non pas l'intégrale de la norme de la matrice, mais l'intégrale de la distorsion de la norme par la matrice sur n'importe quel vecteur, c'est-à-dire que je prends la matrice et je regarde pas sa norme, mais je regarde comment elle augmente la norme dans une droite donnée, et ça c'est pareil, je fais la même intégrale et ça converge vers le même nombre, et ça c'est uniformément quand je prends un vecteur mon nul dans l'espace vectoriel, c'est-à-dire que quand je regarde la façon, si vous voulez, quand vous regardez cette matrice là, quand je regarde la façon dont elle torde un vecteur, dont elle augmente la norme le long d'un vecteur, en fait ça dépend pas tellement du vecteur, en général on trouve à peu près la même chose qui est liée, la norme de la matrice elle-même. On est toujours dans les capteurs de cimale ? Non, non pas du tout, j'ai dit fortement irréductible, c'est tout. J'ai dit fortement irréductible. Et euh, qu'est-ce que je vais effacer ? C'est ça. Et alors là où il va apparaître une hypothèse de proximalité, c'est maintenant, alors j'ai cette convergence uniforme ici, que je vais utiliser dans une minute pour des phénomènes dynamiques, et où apparaît la proximité, la proximalité et la question étant de savoir, il y a une question naturelle, si vous voulez, c'est de savoir quel est le signe, si la mesure est dans SLV, s'il n'y a pas de distorsion du volume, mais en fait, on veut se donner des conditions pour que ce lambda soit strictement positif. C'est là qu'apparaît la proximalité. Donc, si Gamamu n'est pas compact dans PGL de V, c'est-à-dire que je prends l'image de Gamamu, et n'est pas relativement compact. Je prends l'image de Gamamu, l'image projective de Gamamu, et je demande qu'elle ne soit pas compact. Et ça cette hypothèse, c'est exactement équivalent à dire que la dimension proximale, ça sépare définition quasiment, la dimension proximale de Gamamu est strictement plus petite que la dimension de V. C'est-à-dire que, ici, quand j'ai défini la dimension proximale, c'était la plus petite dimension de l'image, le petit tirant d'un opérateur linéaire qui soit dans l'adhérence de l'image de Gamamu dans l'espace projectif des endomorphismes. D'accord ? Donc, dire que cette dimension proximale, ici, dire que ça, c'est plus petit qu'à dimension de V, c'est exactement équivalent à dire que Gamamu est relativement, donc on devrait dire R étoile Gamamu, est relativement compact dans PGL. Voilà. Donc, ce que je suis en train de dire, c'est que dès que, quand Gamamu est relativement compact, eh bien, le log de la norme, c'est complètement proportionnel au déterminant. Si j'ai une matrice, le log de la norme d'une matrice qui est comme isomique, comme avec transformation projective, vit dans un groupe compact, le log de la norme, quand Gamamu est relativement compact, si Gamamu, c'est la dimension proximale, est égal à la dimension de V, eh bien, le log de la norme de G, c'est rien d'autre que des fois, le log, peut-être un sur des fois, ce serait mieux, ou des, c'est la dimension. Quand vous avez une matrice, la partie compacte ne compte pas pour le calcul de la norme, il vous reste plus que la partie scalère et la partie scalère et vérifiez cette propriété. Alors je triche un tout petit peu, parce que, évidemment, la norme, j'ai une partie compacte, ça veut pas dire qu'elle préserve la norme, donc c'est à des constantes prêts. Si la norme est invariant par la partie compacte, mais essentiellement, c'est le même comportement asymptotique. Donc cette quantité, ici, si Gamamu a une image relativement compacte dans le projectif, cette quantité, elle est complètement calculée par le déterminant. Et donc la propriété forte, c'est que si la dimension proximale de Gamamu est strictement plus petite, si on est relativement compact dans le PGL, alors, lambda est strictement plus grand que 1 sur D l'intégrale du log de la valeur absolue du terminant. C'est-à-dire, si on était relativement compact dans le PGLV, on aurait égalité. Mais la réciproque est vraie. C'est-à-dire qu'il y a une expansion. Donc, en général, je vous fais la version vraiment complexe. En général, on étudie les maîtrises dans SLN. Mais l'endroit où l'on utilise SLN, c'est juste pour dire que cet intégral vaut zéro. D'accord ? Donc si la maîtrise vit dans SLN, cet intégral, c'est zéro. Et ce que vous êtes en train de dire, c'est que cet exposant d'augmentation qui gouverne la taille d'énormes est strictement positif. C'est ce qu'elle appelle la positivité du premier exposant de l'Yapunov. Et c'est un énoncé qui n'utilise pas SLN, ce qui l'utilise, c'est juste cette propriété. En fait, c'est un énoncé sur quelque chose qui se passe dans les transformations projectives. Donc là, je l'écris comme ça, là je fais du super général. Mais voilà, on va l'utiliser que quand la mesure vira dans SL, auquel cas ça fait zéro. Et ce qu'on est en train de dire, c'est qu'il y a de l'expansion. Et c'est ça le point clé dans les théorèmes d'équidistribution des marches alatoires en espace homogène que j'ai raconté l'autre jour. Le point clé, c'est que on a tendance, quand on a une marche alatoire sur un groupe sonis simple, elle vit dans SLN. Et à ce moment-là, comme elle vit dans SLN, on prend n'importe quel vecteur et en tant grand, on a tendance à augmenter sa norme, quel que soit le vecteur. Il y a une expansion uniforme. Et ça, c'est le point clé, c'est là qu'on utilisera partout sonis simple. D'accord ? Excuse me, couldn't you say something stronger because if you have a measure which is symmetric, then it's still zero, right ? Non, non, non, c'est une clinote. Because the... When the measure is symmetric, this is not the same... No, norm is not additive. The norm is not additive. The point, no, no, no, I thank you for this question. Le point, c'est que la norme n'est pas additive. Évidemment, si la norme était vraiment additive, on pourrait pas avoir cette expansion. Ce qu'elle traduit, what he says is that in general, you see what happens is that you would like to say that the norm of G times G minus 1, this is one. And this is true. But it's... You have a norm of determinant, not norm of G. This is what comes to your mind. Non, non, mais... Here I'm computing norms. Precisely, this is what happens. And here I'm... This is additive. Okay ? But I'm concerned with norms. Okay ? And what I'm saying is that okay, the measure is symmetric. Okay, when you take such a product, the norm is one. But what happens is that your group is irreducible. So in general, you will have products of this form. And the norm of the product of this form, this is more or less the norm of G times the norm of F, times the norm of G minus 1. In general, for most of the elements you will find so that would this be an additive function ? Would this be a character of the group ? This norm would be the norm of F. But as soon as F puts everything in general position, what you get is this norm. And this norm is very large. And this... This is what happens. Okay ? Okay, so... Pardon, je reviens en français. Voilà, j'ai démontré cette théorème. Et essentiellement, ça va être une traduction de ce que j'ai dit tout à l'heure sur la propriété des noyaux. C'est-à-dire que quand je fais un grand produit comme ça, eh bien essentiellement je suis en train de récupérer quand je normalise. Ce que je récupère, c'est une matrice dont je connais très bien le noyau. Et donc dès que V ne sera pas dans ce noyau, il va avoir tendance à être bien dilaté. C'est ça le... ce qui est derrière ce résultat. J'ai un petit calcul d'Algiabinaire. Donc... je vais faire un lème qui dira la chose suivante. Je suppose que j'ai une suite GN incluse dans GLV. Donc oui, alors à chaque fois je mets une norme et puis je n'ai pas dit quelle norme je prenais, mais tous ces énoncés, c'est quasiment évident qui sont invariants par changements de normes. Alors tous ces énoncés, la norme qu'on a choisie sur l'espace vectoriel ne compte absolument pas. C'est pour n'importe quelle norme. Le lambda dépend pas de la norme. C'est l'équivalence des normes qui me dit ça. Voilà. Donc je prends une suite GN dans GLV et je suppose que toutes les valeurs d'adhérence, je choisis un sous-espace vectoriel W dans V et je suppose que toutes les valeurs d'adhérence de GN divisé par la norme de GN ont pour noyaux W. Donc exactement une suite, je suppose exactement que ma suite ait vérifié cette propriété. Alors, donc ça, c'est quasiment évident cela. Alors, pour tout vector V qui n'appartient pas à W, il existe un epsilon strictement positif tel que quel que soit n quand je prends la norme de GNV, eh bien c'est plus grand que epsilon, la norme de GN, la norme V. D'accord ? C'est-à-dire que, en général, quand on calcule la norme d'une matrice contre un vector, sauf sur la vraiment c'est exprès s'est donnée par la norme de la matrice contre un vector. C'est ça que dissel aime. Donc, la démonstration, c'est essentiellement regarder ce qui se passe dans la décomposition de carton. J'ai parlé la dernière fois. Et je peux même dire que epsilon est uniforme. En fait, cet énoncé est un énoncé projectif puisqu'il n'y dépend pas du multiple de V que je choisis. Et cet epsilon est uniforme sur les compacts de l'espace projectif de V privé de celui de W. Ce que je dis, j'ai mon espace projectif. Là, j'ai PWV qui est interdit. D'accord. Et à chaque fois que je prends un petit compact de l'espace projectif de PV qui ne rencontre pas PWV, j'ai une majoration de ce type qui est uniforme sur mon petit compact. Voilà. Donc, la démonstration, c'est complètement lémentaire. Je voulais vous expliquer cette envie toutes les valeurs de toutes les limites points de cette... Vous avez une séquence de matrices qui ont toutes les normes. Donc, j'imagine que toutes les limites points ont la même kernel. D'accord. Exactement ce que j'ai eu ici. Donc, je vais appliquer cette lémat à cette séquence de matrices. D'accord. Donc, la démonstration, j'écris gn sous la forme kn, an, ln. C'est la décomposition de cartons. Donc, kn et ln, ils appartiennent à SOD. Donc, j'ai pris la od, peut-être. Voilà. Et an, qu'est-ce que c'est ? Donc, je vais noter r, la co-dimension de W. Donc, an, elle est de la forme an1, and avec an1 qui est plus grand que ... qui est plus grand que and, c'est des normes strictement positifs. Et l'hypothèse, l'hypothèse, elle se traduit exactement sous la forme qu'il existe disons theta, strictement positif tel que anr est plus grand que theta an1. On ne peut pas voir apparaître un trou entre la riem et la r plus uniem parce que, comme notre matrice, sinon, on trouverait des valeurs d'adhérence qui contracteraient plus. D'accord ? Si le défaut entre assis anr, il devenait négligeable devant an1, il y aurait des matrices qu'on pourrait extraire une sous-suite et trouver une suite comme ça, où le noyau serait dimension un de plus. D'accord ? Donc, le fait que la dimension ici est fixe me dit que j'ai nécessairement une propriété de ce type-là. D'accord ? Et maintenant, non seulement la dimension est fixe, mais en plus, l'espace vers lequel on contracte l'espace noyau qui apparaît est fixé. Donc, je suis en train de dire exactement que ln, donc j'ai pris, j'ai supposé que v c'était rd, quoi, quand j'ai écrit ça. Et ce que je suis en train de dire, c'est que l'espace qui apparaît comme noyau est fixé. Donc, je suis en train de dire que ln-1 de 0 croit r, puissance d-r tend vers W. D'accord ? L'hypothèse, elle dit exactement ça. C'est pareil. Ln, ln-1, le noyau, si j'ai un machin qui s'écrit f, qui s'écrit gl, le noyau de f, c'est l-1 du noyau g. Voilà. Donc, c'est bien l-1. Voilà. Donc, l'hypothèse, c'est ça. C'est pareil. Et donc, maintenant, quand je veux calculer les... Là, ce que j'ai fait tout ça, c'est ça qui est formidable avec la décomposition de cartons. C'est que quand on a des calculs, on se ramène tout de suite à calculer avec cette matrice-là, où c'est quand même beaucoup plus facile de faire les calculs. Donc, maintenant, eh bien, quand j'ai mon vecteur v, maintenant, v, il s'écrit v-1, v-d. Et puis, à cause de cette propriété, comme je sais que v n'appartient pas à w, eh bien, je sais que pour n-grand, eh bien, v. Donc, qui t'a remplacé ? Peut-être, j'ai toujours... Ah, j'ai trop les esphères comme ça. Je sais quoi ? Je sais que lnv, alors, j'ai plutôt, voilà, j'ai pas... lnv, je vais l'appeler zut, c'est pas pratique. lnv, je vais l'appeler wn, OK. Et mon hypothèse, elle dit que, eh bien, pour n-grand, wn, c'est la distance de wn à... le... le 1 sur n, très grande, une certaine zéro, la distance de... ce vecteur wn à zéro croix r puissance d-r est strictement positif. Mais vecteur ici, à cause de cette propriété, puisque v s'approche pas de l'espace w, quand je lui applique ln, je vais pas, donc là, r puissance r, r puissance d-r, il y a cet espace qui est interdit, parce que c'est là qu'on attend sa contractée, mais mes vecteurs wn, ils sont ici. D'accord. Et à ce moment-là, pardon, à ce moment-là, quand je veux calculer la norme de gnv, eh bien, c'est rien d'autre que la norme de an wn. Et ça, c'est un calcul immédiat que, puisque j'ai cette propriété et que le vecteur wn ne peut pas s'approcher de l'espace r puissance d-r, ça, c'est plus grand qu'un epsilon, alors qu'il dépend de ce 1 ici, fois la norme de an, la norme de wn. C'est juste la formule pour la norme. Je l'écris pas, mais c'est juste... Ça va ? Voilà. Et donc maintenant, ça, c'est rien d'autre que epsilon, la norme de gn fois la norme de v, et c'est ce que je voulais. Ça va ? J'étais trop vite ou... Voilà. Donc ça, c'est le point clé. Voilà. Donc ici, on n'a pas besoin de prendre si mal. Ce qu'on a besoin, c'est savoir, juste que quelque part, non, c'est ça qui se passe. Voilà. Alors, maintenant, comment ça se traduit pour démontrer le theorem de Fürstenberg ? Eh ben, je vais quand même faire un tout petit peu de théorie hergodique. L'oblémontration du theorem maintenant de Fürstenberg-Kesten. Je vais... Donc je vais regarder j'ai appliqué ce l'M et pour ça, je vais commencer par introduire, donc montrer qu'il y a quand même, j'ai appliqué le l'M ensuite, mais il faut déjà que je sache qu'il y a des points de l'urgence. Et ensuite, le l'M me servira à montrer que grosso modo, la limite dépend pas des points. Alors comment je vais faire ? C'est là que je vais utiliser la théorie hergodique. Donc je vous rappelle, ça va, c'est proche des constructions qu'on a fait la dernière fois. Je vais définir... Je considère B qui est l'espace de Bernoulli. Je fais le produit avec l'espace projectif. Et puis je vais définir une transformation. Alors là, c'est-à-dire, cette transformation, qu'est-ce que c'est ? Eh bien, associe au choix pour mu, on a défini, à partir de cette mesure, on a défini les chaînes de Markov sur PV. Et la dernière fois, je vous ai dit que quand on avait une chaîne de Markov, il y avait un système dynamique associé. Avec les mesures en un de l'un, ça correspondait à des propriétés sur les mesures en un de l'autre, etc. Donc c'est juste ce système dynamique là. Alors, en théorie des groupes, ce qui se passe, c'est que cette chaîne dynamique était définie par les mesures de Markov. Quand la chaîne de Markov, elle vient de l'action d'un groupe munie d'une mesure, les mesures de Markov, elles ont une construction uniforme. Donc c'est ça que j'ai en train de dire. Bon, s'il n'y avait rien compris, ce n'est pas grave, parce que de toute façon, le système dynamique, je peux le définir, indépendamment de ce que des constructions j'ai fait dernière fois. Mais c'est le même système dynamique que celui que j'ai construit dernière fois. Donc, je prends B1.6, je dénoté X, je crois les points d'espace projectif. BX, et je décale B et la première coordonnée, je l'applique AX. Donc ça c'est standard. Dès qu'on a un espace avec une action du groupe, ce système dynamique est définie. Et puis ils préservent, c'est ça une mesure stationnaire, ils préservent la mesure de probabilité bêta tensionnue. C'est ça dire que nu est stationnaire. Alors, qu'est-ce que c'est que nu ? Alors comme c'est pas nécessairement proximal, je choisis où nu est une mesure mu proximale, mu stationnaire ergodique. J'en choisis une. Et je sais que ça existe puisque j'ai un espace compact. Puisque c'est compact, il y a des mesures mu stationnaires. J'en prends une. J'ai un beau système dynamique et, puisque je l'ai choisi ergodique, ce qui existe toujours aussi, eh bien c'est un système dynamique ergodique. Et je vais lui appliquer le théorème de Birkhoff pour une fonction bien particulière. Donc la fonction bien particulière c'est celle qu'apparaît là. C'est à dire je définifie de B et de X comme étant la distorsion de la norme lors de ce processus. Donc c'est la norme de B1V divisé par norme de V où V X c'est une droite et je prends un vecteur non-nue de l'ancette droite et la construction dépend pas de la norme. Donc ça, alors cet objet c'est en fait c'est un co-cycle. Quand vous regardez ça comme une fonction d'allément du groupe l'espace projectif il vérifie une propriété de co-cycle partout en produit de matrice aléatoire etc. ce co-cycle apparaît. Il est vraiment complètement lié à cette structure et c'est quelque chose qui existe en géométrie aussi c'est ce qu'on appelle le co-cycle de Boozman. C'est à dire en géométrie hyperbolique que par exemple disons si la dimension de V est 2 la norme c'est la norme clidienne donc la choix de la norme clidienne c'est le choix d'un point dans le plan hyperbolique et puis maintenant j'ai un élément du groupe une droite à l'infini et puis l'élément du groupe quelque part il y a un B1 moins 1 de haut et donc au signe prêt et au facteur prêt cette quantité c'est le co-cycle de Boozman vu de X en haut B1 moins 1 donc cette propriété de co-cycle c'est il y a cette grandeur géométrique qui présente partout en géométrie à courbure négative et qui apparaît ici d'un point de vue produit de matrice mais c'est la formule toute la théorie des groupes un peu quantifiées comme ça repose sur l'étude de cette formule voilà bon ça avance pas grand chose peut-être ce que je dis là voilà bref donc je reviens oublier cette parenthèse c'était juste comme ça j'aime beaucoup cette formule donc qu'est-ce que je dis je dis que mon hypothèse d'intégrabilité là mon hypothèse d'intégrabilité me dit exactement hein que phi elle appartient à L1 de B croix PV muni de la mesure beta temps sur nu donc c'est une fonction intégrable donc je peux lui appliquer le théorème de Birkhoff et le théorème de Birkhoff me dit que quand je prends comme j'ai fait gas à prendre quelque chose d'hergodique quand je prends un sur N eh bien je fais la somme de Birkhoff de cette fonction et c'est là qu'apparaît la propriété la propriété lecosique me dit exactement que la nème somme de Birkhoff de cette fonction c'est ça et donc ça ça va converger vers lambda beta temps sur nu presque sûrement et dans L1 voilà et qu'est-ce que c'est que lambda ou lambda c'est rien d'autre que l'intégral donc pour l'instant sur B croix PV de phi des beta temps sur nu voilà ce que c'est que lambda c'est l'intégral de cette quantité et donc le théorème de Birkhoff me vend une convergence de style alors pour l'instant dans cette convergence c'est celle-là d'accord et dans cette convergence le V c'est pas n'importe quel V c'est un point dans la droite et je choisis dans un ensemble de mesures 1 pour la mesure nu pour l'instant j'ai pas l'uniformité et j'ai pas une convergence de style d'accord j'ai pas une convergence des normes alors la convergence des normes je vais l'obtenir avec mon fameux laine parce que qu'est-ce qui se passe donc je suis en train de dire que quand je prends cette quantité pour presque oui V et différentes zéro V appartient à X pour presque tout nu pour nu presque tout X dans un ensemble de mesures 1 pour la mesure nu cette convergence a lieu d'accord mais maintenant d'une part cette quantité-là elle est plus petite que 1 sur n le log voilà elle est plus petite que le log de la norme déjà donc je sais que la limite 1 de ce log est plus grande que lambda j'ai une première information maintenant grâce à mon laine j'ai avoir une majoration dans l'autre sens parce que comme je sais je sais que le noyau de toute valeur d'adhérence de Bn bla bla bla B1 divisé par la norme de Bn B1 eh bien c'est égal et alors je vais le noter état de B qui ne dépend que de B il y a un espace comme ça d'accord c'est ce que j'ai dit tout à l'heure c'est ça état de B c'est celui-là bon et bien maintenant moi ce que je prétends je peux choisir X en dehors de état de B dans cette convergence pourquoi ? eh bien si la mesure est proximale alors de manière générale pourquoi on peut choisir X en dehors de état de B alors je vous rappelle que j'ai montré la dernière fois un laine qui disait quand on avait une mesure stationnaire sur l'espace projectif d'une représentation fortement irréductible elle ne chargeait pas les sous-espace projectifs d'accord donc NB je vous rappelle qu'on a donc on a cette application si qu'il y a de B dans la grâce manienne alors disons on va d'abord on va traiter le KR égale 1 d'accord dans le KR égale 1 si elle va de B dans l'espace projectif de V d'accord en fait je devrais plutôt parler parce qu'il m'intéresse c'est pas l'étude de XI maintenant c'est l'étude de ETA donc j'utilise le fait que ETA c'est le XI pour la représentation adjointe d'accord enfin pour le SMI groupe adjoint donc là en fait je suis en train de travailler dans le dual d'accord mais bon donc quand on a cette propriété bien on sait que l'intégrale de la masse de Dirac la mesure image 6 stars de la mesure BTA nu c'est une mesure c'est stationnaire donc le LEM que j'ai démontré la dernière fois sur les mesures stationnaires sur les espaces projectifs pour les actions fortement et réductibles me dit exactement ce que j'ai dit c'est que quel que soit W inclus dans V sous espaces propres eh bien la mesure d'ÉTA de l'ensemble des B tel que 6B appartient à W est égal à 0 j'ai démontré un LEM qui disait ça la dernière fois parce que ça c'est rien d'autre que nu d'accord donc j'ai démontré ça la dernière fois donc dans le cas ça c'est le cas proximal mais quand j'ai l'air quelconque eh bien maintenant quand je regarde 6 stars de BTA eh bien c'est une mesure stationnaire non plus sur l'espace projectif mais sur la grâce manienne d'accord bon mais la même propriété est vraie c'est-à-dire que la grâce manienne ça vit dans un espace projectif quelque part donc si vous reprenez la démonstration que j'ai faite pour les actions sur l'espace projectif elle passe au grâce manienne et donc par le LEM analog ou bien on passe dans le projectif en face qu'on V on passe dans la puissance extérieure en tout cas la même démonstration qu'à la dernière fois donne que quel que soit W un sous espace tric de V eh bien si je regarde BTA ensemble des B dans V tel que l'espace 6 de B est inclus dans W cette mesure est nulle ça c'est le cap non proximal donc ce que ça me donne maintenant en termes de état en particulier ça c'est une propriété sur la distribution du oxy dans le dual et donc maintenant je dualise et ce que ça va me donner ce que ça va me donner c'est que en particulier eh bien quel que soit X appartenant à PV la mesure de l'ensemble des B dans B la mesure BTA tel que X appartient au état B c'est égal à 0 c'est juste le cas je passe dans le dual cette propriété X appartient au état B c'est la même chose que dire que si étoile B est inclus dans l'orthogonal de X dans le dual d'accord donc c'est pour ça que c'est exactement ça et ça précisément ça vient d'une étude cette propriété c'est une traduction du LEM que j'ai donné sur les mesures stationnaires pour les actions fortement irréductibles appliquées à la grâce manienne des R-plans du dual c'est dans cette espace qu'on montre cette propriété donc là il y a un jeu de changement d'espace cette propriété appliquée dans cette grâce manienne en réalité cette propriété me dit quoi elle me dit que dans ma convergence qui est ici dans ma convergence qui est ici eh bien c'est une convergence qui a lieu presque partout pour une mesure produit ce que je suis en train de dire c'est que nu presque pour tout X appartenant à PV BTA je fais un fou mini maintenant BTA presque pour tout B appartenant à B quand je prends cette quantité où V est un vecteur de X eh bien le temps vers lambda d'accord mais maintenant je peux choisir X puis choisir B c'est ça une mesure produit donc en particulier une fois que j'ai choisi X eh bien pour pratiquement, pour presque tous les B d'accord je sais que X n'appartient pas à état de B à cause de ma propriété ici pour presque tous les B à ce sous-espace de co-dimension R où la norme se calcule mal donc par le LEM il existe Epsilon qui dépend de B tel que quel que soit N eh bien cette quantité elle est plus grande que la norme de BNB1 d'accord c'est le LEM donc je sais donc maintenant je sais aussi que la limite sup de 1 sur n le log de la norme de BNB1 c'est plus petit que lambda donc du coup je sais que cette quantité est envers lambda ok le point clé voilà c'est que quand on calcule le log de la norme d'une matrice l'iriductibilité nous sert à dire que pour pratiquement il y a un espace qui n'est pas bon pour le calcul de la norme mais quand on prend un V fixé il ne passe pas bon à cause de l'iriductibilité voilà alors du coup j'avais quelque chose qui dépendait du vecteur maintenant j'en ai fait donc que j'ai dit là je viens de montrer c'est ça c'est pas malin j'avais quelque chose qui dépendait du vecteur j'en ai démontré je viens de démontrer cette propriété que en fait cette quantité là eh bien elle converge vers lambda presque sûrement et ça dépend plus du vecteur en particulier le lambda il dépendait a priori de la mesure stationnaire nu en fait il dépend pas c'est à dire que peut y avoir plusieurs mesures stationnaires mais ma fameuse fonction fie elle a la même intégrale pour toutes les mesures stationnaires un phénomène un peu rigolo et voilà donc maintenant il faut que je démontre que c'est vrai aussi quand j'évalue sur un vecteur mais quand j'évalue sur un vecteur c'est pareil maintenant si je reprend un x dans pv quel conque et v dans x que je vois comme une droite eh bien j'ai encore une fois je sais que beta presque pour tout b x n'appartient pas à établer d'accord donc de nouveau je réapplique mon calcul dans l'autre sens bah je sais donc je sais que il existe epsilon et donc il existe epsilon et donc par le m il existe epsilon tel que epsilon la norme de b1 bn fois norme de v plus petit que la norme bnb1 de bn b1v plus petit que norme de v ok et donc du coup bah le comportement de ça c'est le comportement de ça d'accord ça c'est le pourquoi le comportement est le même qu'on regarde la norme ou la norme des vecteurs c'est le point clé c'est celui là c'est qu'on appartient pas il y a un espace de codimension r qui n'est pas bon pour le calcul de la norme mais presque sûrement on n'y appartient pas voilà alors je vais terminer là donc là c'était les propriétés convergence presque sûres maintenant il faut que je démonte des propriétés de convergence de convergence en moyenne donc je veux montrer alors d'abord comment montrer une convergence en moyenne quand on a une convergence presque sûre et puis on applique le theorem de convergence dominée et j'ai donné une version un tout petit peu différente de la version qui est d'habitude donc c'est un enfin c'est pareil si vous avez une suite fn qui converge vers f simplement et s'il existe une suite gn qui converge vers g dans l1 d'accord et que la valeur absolue de fn est majorée par gn donc en général dans les cours de probat de théorie de la mesure on est gn il dépend pas de n si vous avez une convergence dans l1 il n'y a aucun problème la même démonstration je veux dire il n'y a rien de subtil c'est pareil et bien alors fn converge vers f dans l1 bon bah alors je vais appliquer ça à ça d'abord pour la convergence de cette intégrale ici maintenant je prends la ma suite ma convergence presque sûre mon fn c'est cette suite là qui est une suite sur l'espace b d'accord je suis de fonction sur l'espace b et qu'est ce qui va se passer et bien si je regarde 1 sur n donc je vais poser n de g c'est le max de la valeur absolue du log de norme de g et de la valeur absolue du log de norme de g sens moins 1 et donc en particulier quand je regarde la valeur absolue pourquoi je m'embête avec le log de g moins 1 là j'ai la doute tout à coup ça doit être bien donc le valeur c'est bizarre ce que j'écris là quelque chose comme ça le log de la norme de g donc c'est le log de c'est bizarre ce que j'écris là tout à coup non c'est ça que je vais écrire c'est que c'est le max du log de la norme de g c'est toujours positif ce truc pardon c'est que la norme de l'inverse c'est pas l'inverse de la norme c'est ça que j'écris je donne n de g c'est ça de la valeur absolue log de norme de g c'est ce que dit qu'n de g donc quand je prends mon machin qui apparaît ici là 1 sur n le log du bnb1 qui est ma suite fn eh ben ça c'est plus petit que quoi c'est plus petit que 1 sur n log de n de bn plus plus log de n de b1 hein et là dessus donc ça c'est fn sans log j'ai mis un log déjà oh non c'est pas bien on va enlever le log ici sans log dans les papiers si jamais je fais ça je vais me planter après voilà donc là c'est bon donc ça c'est fn et ça c'est gn donc ça ça converges dans l1 par le theorem de Birkhoff classique associé à des fonctions réelles et ça du coup c'est dominé ça converges simplement et puis ça converges dans l1 alors du coup ça converges aussi dans l1 ok et exactement pourquoi il y a quelque chose d'un peu bizarre là dedans ah non mais parce que non mais je suis vraiment bété pour rien il n'y a pas besoin de prendre n là pour ça excusez-moi c'est que n c'est quand on prend des vecteurs d'accord c'est quand on prend le log de la norme de gv divisé par norme de v eh bien ça c'est plus petit excusez-moi je me suis en berlificoté les patins c'est problème quand on connaît un truc par coeur j'ai sauté une étape là il n'y avait pas besoin de prendre le n ici parce que la norme de ab c'est plus petit que norme de b ce qui est important ici c'est celui là qui va être majoré par log de n voilà c'est pour ça que j'ai besoin de la norme de l'inverse d'accord donc ce qui compte c'est qu'une fois que vous êtes là eh bien c'est pareil là je vais avoir un fn quand je fais bnb1 et puis là j'ai un gn rebeulote le teremergodique classique ou la loi des grand monde classique me dit que le gn il converge dans elle-en donc le fn converge dans elle-en ok et alors ça c'était ça c'est pour avoir donc ça me dit tout de suite que en fait moi je voulais annoncer qu'il y avait une certaine intégrale qui était l'intégrale sur norme de g des mn de g qui doit tendre vers lambda mais en fait beaucoup plus c'est vrai c'est à dire que en fait ça t'allégale converge parce qu'elle vient d'une convergence dans elle-en c'est qu'il y a c'est que cette suite de fonctions log de bn b1v sur norme de v eh bien cette suite de fonctions avait fixé cette suite dans l1 converge 1 sur n, pardon converge vers lambda dans elle-en ok et je vous ai dit aussi que c'était uniforme en v donc pour montrer que c'est uniforme une technique c'est juste de prendre un v maintenant qui autorisait à bouger vn il appartient à une droite xn et puis on peut toujours supp... et la question c'est montrer que ça converge encore quitte à extraire on peut toujours supposer que xn est en vx ok et à ce moment-là parce que j'ai été malin alors si je suis malin je ne suis pas malin je l'ai effacé quand xn est en vx eh bien vous savez que presque sûrement dès que le x si xn est en vx presque sûrement x il appartient par état de b d'accord donc vous savez que la norme de bn b1vn eh bien ça va toujours être plus grand qu'un epsilon à la norme de bn b1 norme de bn d'accord et donc du coup le epsilon bien sûr il dépend de b mais sur un ensemble de mesures énormes de b bah il est le même d'accord donc vous enlevez ce petit ensemble de mesures qui ne compte pas beaucoup et vous en déduisez la convergence uniforme juste avec cette propriété j'ai besoin de détailler ou j'ai été trop vite peut-être la convergence uniforme c'est un gag c'est facile je veux dire c'est juste le fait que quand vous avez cette propriété eh bien comme cette inégalité je vous ai dit qu'elle était uniforme en v on peut s'autoriser à bouger un petit peu v dans cette inégalité c'est pour ça que j'ai fait attention tout à l'heure à bien dire dans l'M que c'était une propriété qui pouvait être en du uniforme en v dès que v était dans un compact du complémentaire du petit hyperplan alors voilà c'est pour parce que c'est pour avoir la convergence uniforme ici c'est le même n voilà c'est parce que tu vois là j'ai je veux montrer une convergence uniforme donc faut que je rajoute un paramètre bon je ne veux pas m'étendre parce que c'est pas le point le plus important c'est un petit calcul c'est le point clé disons pour avoir la convergence simple j'espère que j'étais assez vite mais vous m'avez compris pour la convergence uniforme faut juste partir du fait qu'on a cette identité qu'on peut s'autoriser un petit peu à bouger le vecteur et donc ça fait qu'on peut gagner la convergence uniforme voilà je vous ai fait tous les produits de matrice aléatoire en 2 heures c'est normal que vous compreniez plus rien c'était trop vite non ça va vous avez des questions ? alors je vais appliquer tout ça maintenant maintenant ce que je voudrais faire j'ai oublié la positivité j'ai oublié pourquoi si on n'était pas compact projectivement on était positif alors ça c'est une minute le point clé il suivant donc lambda il a apparu la limite ça c'est un point important parce qu'on va utiliser cette positivité lambda c'était l'intégrale sur b croix pv de la fonction phi de b et de x db tat b x donc j'ai un système dynamique j'ai une fonction et je veux montrer que son intégral est positive alors c'est pas tout à fait ça que je veux montrer dans le cas où il y a un déterminant on va il faudrait retirer la partie déterminant ce qu'on montre c'est pas une positive on va supposer pour simplifier on va supposer que la mesure est concentrée sur sl d'accord c'est juste pour pas s'embêter à traîner un déterminant dans tous les coins quand la mesure est concentrée sur sl je veux démontrer que cette quantité est positive alors j'ai un critère il faut que j'ai une technique pour montrer qu'une certaine intégrale est strictement positive qui utilise un petit peu la dynamique alors il y a un lèm extraordinaire qui dit que c'est un lèm abstrait théorhargodique j'ai un système dynamique j'ai un système dynamique mesuré donc ça veut dire que x mu est un espace de probabilité que t est une transformation mesurable j'ai pas mis la tribu mais il y a une tribu qui vient avec t est une transformation mesurable et t préserve la mesure alors ça ce système ça va être mon système BX BX PV ça va être ce système et maintenant j'ai une fonction phi qui est une fonction intégrable et je veux un critère pour que l'intégrale soit strictement positive à rien critère donc là ce que je vous fais c'est pas la démonstration je vous ai dit ça c'est la positivité du premier exposant de miapoune 9 c'est fjörstenberg les propriétés de convergence qu'on vient de voir c'est fjörstenberg et caston oui les deux non les deux tout le théorème que j'ai annoncé c'est fjörstenberg et caston la démonstration que je suis en train de faire n'est pas la démonstration originale de fjörstenberg il y a un autre argument et l'argument que je suis en train de développer le point c'est qu'il va démontrer plus que la positivité ce qu'il va démontrer c'est une propriété de séparation des exposants miapoune 9 mais je n'ai pas insisté dessus parce que ce qui m'a intéressé moi c'est juste la positivité mais l'argument de fjörstenberg est un peu différent il repose sur une propriété trop spectrale de non-moyenabilité mais il donne juste la positivité tandis qu'il y a une technique carrément la séparation c'est à dire que quand vous avez une dimension proximale qui égale à R vous avez que les R premiers exposants sont égaux mais le RIM est strictement plus grand que le R plus unième c'est ça qui montre en fait ce l'âme mais en particulier du coup j'en déduis la positivité voilà donc c'est ça c'est la méthode de Givard chirurgie donc j'ai une fonction phi et alors j'ai un critère pour que l'intégrale soit strictement positive donc il y a équivalence entre d'une part le fait que l'intégrale par rapport à la mesure de la fonction là ça est strictement positif et le fait que mu presque pour tout x dans x quand je prends les sommes de Birkhoff de la fonction donc phi de x plus chi de Tn-x ça s'attend vers plus l'infini quand même de temps vers l'infini alors il est assez subtil ce l'aime parce que la propriété comme ça est trivial c'est à cause du théorème de Birkhoff si l'intégrale était ergodique il faut quand même qu'il soit ergodique mon système c'est à dire que les ensembles invariants en mesure 0 ou 1 sinon on pourrait avoir des parties différentes de la mesure donc la propriété dans ce sens là elle découle du théorème de Birkhoff parce que le théorème de Birkhoff vous dit que si l'intégrale est positive quand vous faites les sommes de Birkhoff de la fonction et que vous les normalisez par n ça tend vers l'intégrale de la fonction qui est strictement positive d'accord et donc en particulier ces sommes quand on les divise par n ça tend vers quelque chose de positif donc elles-mêmes elles-mêmes tendent vers l'infini mais en fait elles tendent vers l'infini à vitesse linéaire ce que dit l'aime c'est que dans cette situation alors pardon je suis bien précis c'est le a1 un valeur dans r ici ça c'est fondamental dans ce l'aime c'est que quand on a une fonction dire que les sommes de Birkhoff tendent vers l'infini c'est dire qu'elles tendent vers l'infini à vitesse linéaire d'accord quand l'intégrale est nul il peut y avoir des visites à l'infini des sommes de Birkhoff mais nécessairement nécessairement les sommes de Birkhoff vont revenir près de zéro et ça c'est une propriété des fonctions à valeur réelle dans r2 c'est pas vrai si vous avez une fonction vers dans r2 c'est à partir vers l'infini et c'est une propriété de récurrence en particulier ce l'aime vous dit directement qu'une marche aléatoire en dimension 1 est récurrente marche aléatoire centrée est récurrente ok quand le 2 le cas où le système c'est un décalage et la fonction c'est juste le premier incrément de la marche aléatoire d'accord donc c'est ça le l'aime c'est quand on est dans r soit on part à l'infini à vitesse linéaire soit on revient régulièrement près de zéro voilà alors je vous le démontre pas c'est vraiment un peu hors de notre propos mais alors maintenant qu'est-ce qui va se passer donc je l'applique à mon système alors je vais étudier les trajectoires de ma fonction à croissement de la norme donc j'ai l'appliqué à ma fonction phi de b et de x qui est le log de la norme de bv sur norme de v ok alors eh bien et je vous rappelle que je suis passé maintenant j'ai supposé que j'étais de déterminant 1 donc ça je sais de b1v je sais que presque sûrement je vais avoir un epsilon qui va vérifier cette propriété d'accord donc si j'ai envie de montrer que les sommes de Birkhoff de cette fonction tendent vers l'infini c'est montrer que c'est énorme ici tendent vers l'infini ok et pourquoi c'est vrai ? ben c'est vrai parce que je sais que les valeurs d'adhérence de bnb1 tu vois la norme de bnb1 eh bien elles sont de rang la dimension proximale du groupe et j'ai précisément supposé qu'elle était strictement plus petite que la dimension de l'espace donc elles sont de rang strictement plus petite que la dimension de l'espace elles sont pas injectives ces valeurs d'adhérence j'ai une suite de matrice unimodulaire de norme 1 pardon j'ai une suite de matrice unimodulaire je suppose que quand je les normalise les valeurs d'adhérence ne sont pas injectives ça veut dire que nécessairement la norme tend vers l'infini parce que dans sln une suite de matrice de norme bornée c'est une suite de norme bornée c'est une suite bornée dans sln donc si jamais cette suite de norme s'y tendait pas vers l'infini c'est à dire qu'il y aurait une sous-suite bornée et ça dirait que cette matrice elle vivrait dans un compact de sln et donc j'aurai des valeurs d'adhérence qui seraient injectives et j'ai précisément dit que toutes les valeurs d'adhérence étaient non injectives d'accord nécessairement la norme tend vers l'infini donc ici cette fonction c'est somme de Birkhoff tend vers l'infini presque sûrement donc l'intégral est strictement positive c'est assez subtil comme démonstration c'est magnifique l'hiver je suis très fier quand on parle de l'hiver je dis bien que c'est lusque mais je connaissais sa laine comme la laine c'est Adkinson c'est ça, c'est celui-là, Adkinson merci, j'avais oublié le nom en fait j'ai préparé le cours de ce matin j'avais pas mes références, j'avais oublié le nom Adkinson, ça s'appelle ça, merci c'est ouf, j'ai effacé le début Adkinson, ça s'appelle c'est ça c'est l'aine d'Adkinson ils utilisent le point clé c'est voir le lien avec le phénomène de produits maîtris sanatoires il avait déjà vu la séparation c'est parce que ça c'est pas que le qu'est-ce que tu dis ? c'est qu'il y a un acteur qui a vu que ça n'a pas seulement le fait que l'extrôme de l'extrôme de l'extrôme c'est immédiat, c'est la même démonstration la même démonstration dans la séparation c'est ce qu'ils ont vu, c'est le lien entre l'aine d'Adkinson et la séparation des exposants d'Yapunov, tu vois maintenant je vais j'ai quitté le monde je sais que j'ai rien oublié mais je pense que je vais quitter le monde des produits maîtris sanatoires pur de dur et je vais revenir au marché sanatoires sur les espaces homogènes donc je vais utiliser le résultat qu'on vient de démontrer là pour commencer à montrer des éléments de la classification des mesures stationnaires donc ce qui va m'intéresser aujourd'hui dans le temps qu'il reste je vais essayer de vous expliquer pourquoi le théorème de classification des mesures stationnaires implique le théorème de classification des fermets invariants donc en fait c'est pourquoi on a de l'équilistribution il y a 2 semaines je vous avais expliqué que le lien entre une classification de mesures invariantes et une classification de fermets invariants c'est une propriété d'équilistribution donc aujourd'hui je vais vous expliquer comment les constructions que je viens de rappeler ces phénomènes de problématrice sanatoire permettent de montrer les équilistributions qui jouent un rôle clé et ça va aussi montrer une autre propriété à ces techniques sur les mesures nubées qui jouent un rôle dans la classification des mesures invariantes j'ai introduit un outil et cet outil on l'utilise à 2 endroits donc bon je vais dire des choses précises ça va être plus clair en ce que je veux dire donc alors je redis voilà simplement maintenant j'aurai un espace homogène donc x cg sur lambda et je m'intéresse donc à l'équilistribution donc l'équilistribution ça veut dire quoi ? ça veut dire que j'ai mon espace donc j'ai donné une mesure la situation que j'ai expliqué il y a 2 semaines mu c'est une probabilité sur g donc g c'est un groupe de lits lambda c'est un réseau et puis mu bon elle a des propriétés on va les introduire au fur et à mesure et puis maintenant je vais montrer une propriété d'équilistribution ce que je vais montrer c'est que j'ai une classification des mesures stationnaires et dans cette classification il apparaît des sous variétés fermées y de x qui sont des sous espaces homogènes et j'ai envie de dire qu'une mesure stationnaire c'est soit une mesure g invariante soit des mesures qui sont concentrées sur ces fermées beaucoup plus petites et donc une propriété c'est que quand je suis en partant d'un point qui n'est pas dans y il ne faut pas que ma chaîne de Markov ait trop passé de temps près de y c'est ça que je suis en train de dire c'est ça l'équilistribution je ne peux pas donner de masse aux autres aux fermées invariants et donc ça je le vois comme étudier le y qui les gammes amus invariants donc c'est étudier en fait la chaîne de Markov dans x moins y donc demander que la chaîne de Markov n'avait pas passé trop de temps près de y et donc demander qu'elle soit récurrente en un sens fort dans x moins y c'est où enlever y même si j'avais place compacte au début sur la vie grecque une fois que j'ai enlevé y ce que je veux c'est pas passer trop de temps près de l'infini donc je veux une forte propriété de récurrence donc pour ça je vais introduire un critère de récurrence que c'est une théorème disons ça s'appelle le critère de récurrence de Fuster c'est un critère abstrait pour les chaînes de Markov et le fait que ce critère pour étudier les marchés aléatoires sans espace homogène ça a été remarqué par Eskin et McMullen Eskin et Margulis sur ce sujet il y a un article il y a une dizaine d'années d'Eskine et Margulis, il montre une propriété de récurrence alors ce n'est pas tellement la récurrence près d'une sauveté qu'il intéresse mais typiquement ce qu'il intéresse c'est on a à l'espace SL2R sur SL2Z il prête une marchée aléatoire qui a des bonnes propriétés et ça il y a un cuspe c'est qu'une marchée aléatoire passe pas trop de temps près du cuspe donc faut pas passer trop de temps près du cuspe c'est l'analogue du terrain de Danie et Margulis sur les flots unipotants qui disent qu'une trajectoire unipotante ne va pas passer trop de temps près de l'incini et donc ils ont montré la même chose pour les marches aléatoires en utilisant ce critère et ensuite quand on s'intéresse à ce sujet avec Ibn-Benoit on s'est rendu compte que non seulement ce critère parait d'étudier ce qui passait dans les cuspes c'est-à-dire que ce critère est omniprésent dans ce sujet et c'est Eskin et Margulis qui l'ont introduit voilà alors ce critère qu'est-ce qu'il est ? il dit qu'on a un espace X qu'un espace localement compact et puis on a une chaîne de Markov là, P, une chaîne de Markov-Feller comme ce que j'ai défini la dernière fois donc c'est à chaque point de Vx j'associe une mesure de probabilité sur X et on a une donc on veut montrer cet espace localement compact donc typiquement c'est X-Y et on veut montrer que la chaîne a tendance à rester dans les compacts et donc le critère c'est si il existe, on suppose qu'il existe une fonction U qui va aller de Vx d'un R+, et qu'il y ait une fonction propre on peut la passer continue pour l'instant donc c'est une fonction propre ça veut dire que U, quand on se rapproche de l'endroit où il ne faut pas aller là, quand on va vers Y, typiquement quand on va vers le C, sur le Z, elle est envers l'infini complètement, donc ce qu'on envie c'est que U soit pas trop grande et on suppose qu'il existe un nombre A strictement plus petit que 1 un nombre C qu'une bande qui joue pas grand rôle mais qui existe tel que quand on prend la fonction PU PU PU de Vx si je pars d'un point j'intègre U sur toutes les images possibles du point au temps 1 et PU est majoré par AU plus C alors que ça dit quelque part le C dans cette équation, une équation ce qui nous intéresse c'est de dire que U peut pas être trop grand on regarde ce qui se passe quand U est très grand donc quand U est très grand, C il joue pas de rôle ça veut dire que quand U est grand si je fais un coup la marche aléatoire disons A c'est un demi en moyenne j'ai énormément diminué la valeur de U donc ça dit que beaucoup de points si je pars d'un endroit U est très grand je suis très très loin dans le cas je suis très très près de la souverailleté interdite beaucoup de gens vont revenir dans les... vont partir c'est ça qui existe une équation d'accord ? donc c'est complètement élémentaire que ça c'est un truc tout de suite des propriétés de réclerances fortes c'est à dire que quelque soit typiquement quelque soit X dans X et je regarde la limite supe la limite supe quand même t'envers la finie de la probabilité, parce que j'ai noté Omega X là ce que les probabilistes notent Px que au nème cran de la marche aléatoire U de XN soit plus grand qu'une constante M donc je voudrais dû dire quelque soit M strictement positif eh bien cette probabilité elle est plus petite donc je regarde les moments la probabilité que par temps d'un point au nème cran je sois très très près de l'endroit interdit d'accord ? et bien cette probabilité elle est plus petite que C pardon il y a le C qui apparaît là sur 1 moins A fois M voilà donc quand M est très grand bah on va pratiquement pas passer de temps près du Y là de toute façon vous allez voir ces trois lignes même pas, une demi ligne alors il y a un autre donc ça qui va nous donner l'équilistribution en loi c'est à dire qu'en loi à partant d'un point on passe peu de temps près des sous variétés interdites et je vous avais dans les énoncés j'ai aussi donné un énoncé presque sûr, c'est à dire quand on suit une trajectoire donc il faut que j'ai un énoncé sur les trajectoires de la chaîne de Markov alors à la mesure de Markov que j'ai noté Omega X la dernière fois ou que les probabilistes la notent Px c'est à dire je regarde la distribution des trajectoires issus de X et bien si je regarde la limite sup quand N tend vers l'infini de 1 sur N le nombre de choix entre le temps le premier temps et le temps N que U de XK est plus grand que M et bien ça c'est plus petit que la même chose c'est à dire que j'ai ma chaîne de Markov ici et alors j'y vais, je lance une trajectoire j'ai X puis j'ai X1 j'ai une trajectoire aléatoire maintenant le nombre de ces trajectoires aléatoires je mets une barre la M et je compte le nombre de fois où ma trajectoire aléatoire est entrée au-delà de la barre quand M est grand le nombre de fois, ce nom de moyenne fois le nombre de fois divisé par N il est petit voilà alors ça et bien ça va être extrêmement pratique critère je vais le démontrer alors j'ai pas démontré le deuxième parce que le deuxième c'est un peu plus de travail non ça, non, j'utilise pas propre en fait ce que je dis là c'est complètement formel si j'ai une fonction qui vérifie ça j'ai ça, d'accord et voilà, c'est vrai que j'aurais dû je te remercie pour cette remarque j'utilise pas propre en fait, c'est juste que ensuite j'ai très mal fait mon énoncé c'est-à-dire que ça, si la fonction est propre je suis en train de regarder le nombre de fois où je sors d'un compact d'accord, mais oui bien sûr ça c'est juste, paf, j'ai une fonction qui vérifie cette équation j'ai fait de propriété et je vais l'appliquer en prenant des fonctions propres pour éviter de partir à l'infini merci c'est pas très bien rédigé effectivement donc la démonstration alors celle-là, vous allez voir j'ai dit une demi ligne j'ai essayé de le faire donc je suis en train de regarder Omega X je vais créer un petit de l'ensemble une XN plus petit que M d'accord, donc j'ai une fonction et je regarde la mesure j'ai une mesure et je regarde la mesure l'ensemble des points où la fonction est petite donc ça c'est une égalité de Chebyshev qui me dit que c'est plus petit que 1 sur M l'intégrale de U de XN de Omega X, une égalité de Chebyshev d'accord, mais ça par définition intégré prendre la mesure de Markov et regarder la distribution au temps N des trajectoires c'est appliqué l'opérateur PN U de X j'ai pas y'arrivée à faire une demi ligne d'accord, ça c'est la définition de la mesure de Markov mais maintenant c'est immédiat que si vous y terrez ça vous avez que PN U c'est plus petit que A puissance N U plus A puissance N-1 plus bla bla bla plus 1 fois C j'y terre cette équation donc ça c'est plus petit on fait la somme de la série géométrique A puissance N U plus C sur 1-A donc ça cette quantité elle est plus petite que 1 sur M facteur de A puissance N U de X plus C sur 1-A passé à la limite quand elle est infinie et vous avez le résultat donc c'est pas facile en général de montrer qu'un phénomène est récurrent, intranscient etc ce critère est d'une puissance incroyable et c'est vraiment un coup de génie d'Eskin et Margulis cette remarque que ce critère s'appliquait parfaitement, c'est-à-dire je vais vous donner d'ici 10 minutes on va avoir construit dans ces situations-là on va avoir construit des fonctions U qui vérifient exactement ça ça c'est... je suis toujours parmi de cette affaire c'est c'est complètement remarquable parce que ce critère c'est qu'elle habite de faire des chaînes des mark-offs, des trucs il connait ça par cœur c'est super classique ça marche impec dans ce cas-là c'est vraiment génial alors maintenant il y a le critère un mot c'est-à-dire un mot sur cette propriété presque sûre je n'ai pas la démontré parce qu'il y a un peu de travail c'est une preuve complètement abstraite on joue avec cette équation je n'ai pas la démontré cette propriété c'est un petit peu de travail et l'idée c'est quoi ? l'idée c'est qu'en fait vous voyez ici non seulement on revient mais on revient très vite il y a une puissance de A qui apparaît et ce qui se passe c'est qu'en renforçant un petit peu le travail sur cette équation c'est facile de voir que dès que cette quantité c'est sur un moins AM qui apparaît partout c'est-à-dire que dès qu'on va avoir tendance à y aller dans cet endroit où on est plus petit que AM eh bien dès qu'elle est plus petite que AM vous avez l'ensemble donc ce que je suis en train de dire c'est que si vous posez XM l'endroit où elle est plus petite que AM les trajectoires de la chaîne de Markov il y en a qui vont visiter XM et en fait elles vont tout le visiter et le temps qu'elles vont mettre pour les atteindre c'est un temps aléatoire qui est une noix exponentielle d'accord ça, la distribution c'est un temps où la probabilité d'être grand tend exponentiellement vite vers zéro et alors du coup l'idée c'est que quand vous avez des distributions exponentielles vous avez des propriétés grandes déviations qui tombent gratuitement et donc en fait non seulement on monte ça mais on monte carrément avec ça ça tend vers ça avec un reste exponentiel il y a des techniques de grande déviation une fois qu'on a remarqué que c'est un peu disons ce que je veux dire c'est que quand vous avez une mesure de... bon bref je n'ai pas mes temps de là dessus essentiellement c'est joué avec le fait qu'on va très vite revenir là où la fonction est plus petite que AM et quand on fait des excursions elles sont en dehors de l'endroit où elle est plus petite que AM le temps des excursions la durée des excursions c'est des temps exponentielles et quand on a des temps exponentielles on a des bonnes propriétés d'écu distribution bon bref c'est pas très clair ce que je dis quand on a pas d'habitude enfin il faut encore travailler mais ça utilise juste formalisme il n'y a rien d'autre voilà une fois qu'on a ce critère une petite remarque j'ai dit qu'on allait construire des fonctions qui vérifient ça en fait on ne va jamais construire des fonctions qui vérifient ça on va vérifier des fonctions qui vérifient pour un certain cas pKu plus pQaU plus c il est bien clair que si on a une fonction qui vérifie ça si vous posez v qui est à puissance alors il faut que j'y aille doucement K moins 1 sur K plus xu plus à puissance K moins 2 sur K xpu plus bla bla bla plus pKu pK moins 1u si vous avez une fonction qui vérifie ça vous avez pKv qui est plus petit à puissance 1 sur K v plus c ou peut-être plus c'est prime bref si vous avez pour une certaine puissance de l'opérateur qui pardon ? pv ou pKv ? pv ça c'est juste un truc formel quand vous l'avez pour une puissance de l'opérateur vous avez pKv pour l'opérateur donc en général je ne vais pas construire des fonctions qui vérifient ça j'ai motorisé à remplacer le temps et peut-être qu'il faut un peu de temps pour avoir ça c'est pas très grave ça a servi on même voilà pour l'instant on était vraiment dans le pur abstrait et maintenant je vais commencer à appliquer ce critère alors j'ai pas l'appliqué j'ai commencé à la construction de fonctions donc sur les espaces homogènes quand j'ai j'ai sur lambda et puis puis je le dessine aussi c'est particulièrement malin quand vous avez j'ai sur lambda une sous-variété où je veux pas aller qui est une sous-variété invariante je vais construire une fonction U qui m'empêche d'y aller alors on va faire ça et on va utiliser toutes les constructions probabilistes à tout terme la positivité etc pour faire ça alors je vais commencer par le faire dans les espaces vectorielles donc donc j'ai reprendre maintenant mu ce sera une mesure sur GLV alors maintenant j'ai prendre sur SL parce que j'en ai marre de traîner le déterminant là il faut la positivité vraiment j'ai prendre mu sera une mesure sur SLV je vais supposer que gamma mu est fortement irréductible et puis je vous dis c'est une propriété d'expansion ça c'est vraiment cette propriété qui fait qu'on part des endroits, c'est une propriété d'expansion de la marché aléatoire donc il faut que le premier exposant de l'Yapunov soit positif donc je vais le supposer gamma mu non compact et là vous voyez dans les hypothèses régulièrement quand j'ai présenté le théorame il y a deux semaines j'ai toujours dit qu'il fallait prendre des groupes semi simples ce qui va me garantir que c'est fortement irréductible les contenus dans SL et que ou en tout cas que l'espace sera somme de composantes fortement irréductibles et modulaires parce que le groupe est semi simple et j'ai supposé qu'il n'y ait pas de facteur compact ce qui est exactement parce que je veux éviter des situations où j'ai des groupes compact donc on commence à voir apparaque les hypothèses du théorame que j'ai énoncé il y a deux semaines donc c'est une mesure sur SLV pour l'instant bientôt sera SLV sera le SL d'une componente irréductible dans l'action adjointe et alors moi je dis la chose suivante proposition je dis qu'il existe sous ces hypothèses il existe delta strictement positive enfin il existe delta mais en fait il existe delta 0 tel que qu'elle se soit ah pardon j'ai dit une bêtise pour l'instant j'ai rien dit donc voilà et puis je vais supposer donc je vais mettre proposition ici et je vais supposer maintenant il me faut des moments exponentiels ça c'est quand même des choses qui disent qu'il y a une vitesse exponentielle de départ c'est associé à une hypothèse de moments exponentiels sur la mesure mais j'ai supposé qu'il y a des moments exponentielles c'est à dire que pour un certain test strictement positif l'intégrale de la norme de g puissance t des budgets finis voilà et donc maintenant j'ai plus besoin de jouer avec le max de la norme de g la norme g-1 parce que je me suis mis sur le spécial linéaire là alors il existe un delta 0 tel que pour tout delta compris entre des 0 et delta 0 si u d'un vecteur v c'est 1 sur la norme de v puissance delta eh bien il existe a strictement plus petit que 1 tel que pu et plus petit que a u voilà il n'y a pas de c là parce que évidemment quand pu est plus petit que a u carrément u le long de la trajectoire est envers 0 hein pourquoi il est envers 0 ici ? parce que u c'est 1 sur la norme et donc comme ma mesure a la tendance à faire de l'expansion ce que je suis en train de dire c'est que les normes des vecteurs, la norme des bn-brv est envers l'infini cette chaîne de Markov en fait là l'espace qui joue un rôle c'est le compactifié par un point de v privé de 0 là c'est x l'espace x ici les v privé de 0 union un point à l'infini la chaîne de Markov elle a un comportement particulièrement stupide là dessus c'est que de toute façon tout le monde va à l'infini et dans les exemples sur les espaces homogènes on aura une équation du type pu plus petit que a u plus c parce que on veut pas que la chaîne de Markov elle s'écraser là où est nul c'est une chaîne de Markov qui va s'écuillir quand elle arrive très près là aux endroits où u est très grand et ensuite il faut qu'elle puisse faire ce qu'elle veut là où u est plus petite c'est à ça qui sert le c le c dit que là où u est petit on sait pas trop quoi par contre si on commence à s'aventurer là où u est grand alors là on a vraiment du mal à y aller c'est vraiment je suis toujours parmi moi de ce truc mais bon tellement c'est puissant donc dans ce cas là c'est pas ça dans ce cas là tout le monde va à l'infini point et du coup on a une équation si trivial que ça alors la technique c'est très standard pour encore une fois c'est des phénomènes de grande déviation ce qu'il apparaît c'est à dire alors quand on démonse ça c'est la positivité du premier exposant de Lyapunov bien ficellé alors comment on ficelle justement eh bien qu'est-ce que c'est que u pu sur u c'est que je veux montrer que c'est petit alors ça c'est l'intégrale de pardon de la norme de v puissance delta sur la norme de gv puissance delta des bugets donc vous allez me dire c'est vraiment qu'ils font bizarre d'écrire les choses mais maintenant je vais encore être plus bizarre parce que je vais dire que c'est l'intégrale de l'exponentiel de moins delta de la norme de gv sur la norme de v des bugets voilà et alors là je vois apparaître précisément pourquoi je l'écris comme ça parce que je veux voir apparaître la quantité dont j'ai montré que son intégrale avait tendance à tendre vers plus l'infini l'intégrale s'il n'y avait pas l'exponentiel là c'est ma quantité tout à l'heure d'accord donc j'intègre ce que je suis en train de faire c'est j'intègre une fonction j'intègre l'exponentiel d'une fonction intégrale négative d'accord donc quand vous faites une intégrale de l'exponentiel de moins t fois f d'ému où f elle est d'intégrale positive pour t petit, là vous avez une fonction de t d'accord la dérivée de cette fonction de t en t égale 0 c'est justement moins l'intégrale de f d'ému sous réserve que vous avez une bonne propriété d'intégralité vous pouvez dériver mais mes hypothèses de moments vont me servir à dériver donc si vous dérivez si l'intégrale de f est positive vous voyez que la dérivée de cette quantité en t égale 0 elle est strictement négative et pour t égale 0 la valeur c'est 1 c'est le fonction pour la valeur 1 donc vous avez une fonction en t égale 0 elle prend la valeur 1 donc pour t petit elle est strictement plus petite que 1 d'accord et donc c'est sale l'aime alors parce que j'ai triché il existe k c'est p k u voilà cette fonction là elle va devenir quand si je remplace la mesure par une puissance de convolution ce machin devient strictement positif cette intégrale elle va avoir une fonction de delta et je vais la dériver alors la seule difficulté c'est que moi je joue une estimation uniforme en v dans ce calcul là pour l'instant c'est à une fonction fixée donc je suis et je suis obligé de développer un petit peu enfin c'est ça la philosophie vous m'avez suivi ou j'ai été trop rapide je dis c'est juste c'est pour garantir à taïkon l'intégrale j'ai besoin de différencier une intégrale vous devez avoir une domination c'est garantie par cette propre t pour la petite t vous avez un t-notre et pour la petite t vous pouvez différencier vous pouvez différencier à 0 ok si vous savez que vous avez une domination sur l'intégrale sur l'exponential de f et la propre t que l'intégrale est positive cette fonction va prendre un valeur plus de 1 plus de 1 ou plus de 1 ok c'est le spirit de l'éman le problème c'est que ici il y a une fonction familiale qui dépend de la vie donc je dois faire toutes ces computations uniformes mais ce n'est pas ce n'est pas technique c'est cette idée qui est très classique si vous regardez la démonstration de la large deviation c'est exactement la démonstration de la large deviation pour que ce soit plus rare c'est si dur et classique si vous regardez la démonstration de la large deviation de la large deviation de la large computation c'est si dur et classique une probabilité donc qu'est ce que je disais ah oui je vais juste dire bon alors je dis rapidement ce que je vais dire c'est quand j'ai exponentiel de x je peux toujours dire que c'est plus petit que 1 plus x plus valeur absolue de x carré exponentielle de valeur absolue de x cette majoration est complètement immédiate vous essayez juste le développement ça se trouve pas tout optimal vous écrivez juste le développement en série de la fonction exponentielle et ça vous donne tout de suite cette propriété donc maintenant vous en déduisez que si je regarde pu de v sur u de v c'est plus petit que 1 delta de log de norme de g v sur norme de g plus un machin qu'un grand taux de delta carré et le fel que c'est un grand taux c'est précisément ma propriété d'exponentielle d'accord qui me dit que c'est ça qui marche un grand taux qui dépend pas de v et puis le truc maintenant c'est que si vous remplacez pku alors là vous avez un grand taux qui dépend de k d'accord mais là vous voyez apparaître la mesure puissance kf et j'ai précisément le théorème de Fürstenberg et Kesten me garantit que je peux trouver un k uniforme en v tel que cette intégrale devient négative c'est-à-dire que c'est ça je sais que le comportement de ça c'est que uniformement en v s'attend c'est équivalent un moins k fois l'exposant lia punoff et j'ai dit que l'exposant lia punoff était strictement positif donc du coup cette quantité à partir d'un certain moment elle devient strictement négative je prends delta suffisamment petit pour que ce terme là l'emporte son suivant delta carré j'ai terminé d'accord voilà il faut calcul magnifique ce calcul magnifique eh bien on l'a fait une fois et maintenant on va l'utiliser tout le temps et en fait dans les hypothèses j'ai supposé que la mu était fortement irréductible et non compact mais j'aurais pu faire une hypothèse là j'ai fait le cas où il n'y avait qu'une composante irréductible mais exactement la même propriété fonctionne si j'ai une somme directe de composantes fortement irréductibles si l'espace n'est pas une composante fortement irréductible mais une somme ça marche aussi donc le résultat c'est encore vrai sous les hypothèses suivantes qui sont celles que je vais toujours utiliser en vérité que gamin mu si je prends son adhérent de Zariski c'est semisimple connex c'est pour garantir la fortirréductibilité sans facteur compact et dans mon espace v il n'y a pas de vecteur invariant parce qu'on pourra avoir quelque part le facteur trivial qui apparaît donc quand vous prenez un groupe semisimple sans facteur compact eh bien qui agit sur un espace vectoriel l'espace est somme directe de une somme de composantes fortement irréductibles dans lesquelles il n'y a pas d'invariant avec les invariants et dans chacune des composantes fortement irréductibles où il n'y a pas d'invariant vous avez l'expansion parce qu'il n'y a pas de facteur compact au lieu d'avoir une composante interductive il faut en avoir plusieurs alors maintenant je reviens à la situation espace homogène et mon but c'est d'arriver à construire des fonctions qui me permettent d'éviter des sous variétés invariantes ça va pour ce que j'ai dit là non c'est juste le fait que si on a une composante on peut en avoir deux, ça ne change pas grand-chose au fait qu'on a de l'expansion donc maintenant je vous rappelle la situation g c'est un groupe de lits lambda c'est un réseau et j'ai posé y c'est agit sur lambda et donc ces hypothèses du théorème de classification je vais leur donner une probabilité sur g je vais supposer qu'elle est ad semisimple et sans facteur compact ce que j'attends par là c'est quand je prends ad de gamme amus donc ça c'est un sous espace du groupe linéaire de l'algebra de lits et je vais supposer que son adhérence de Zariski est semisimple sans facteur compact de façon à précisément pouvoir appliquer ce type de propriété pour l'action adjoint dans l'algebra de lits dans toute la suite c'est ça que je vais prendre et voilà ça c'est les données et il y a une hypothèse de moments donc pour l'instant le théorème de classification que j'ai donné a besoin vraiment que les mesures soient support compact il y a une difficulté on va la rencontrer plus tard mais dans les arguments que je développe aujourd'hui il n'y a pas besoin donc c'est pas qu'on pense que c'est faux d'ailleurs quand les mesures n'ont pas de support compact c'est qu'on sait pas le faire on pense que c'est vrai parce qu'on l'a réalisé la classification des biostationnaires simplement nous notre technique il y a un moment d'utiliser support compact on sait pas comment faire autrement mais c'est pas aujourd'hui donc aujourd'hui je vais juste supposer une propriété de moments exponentiel c'est à dire il existe un thé strictement positif tel que l'intégral sur g de la norme de l'action adjoint de g à puissance t des budgets est fini et mon but pourquoi c'est parce que je veux pouvoir faire ma construction je veux pouvoir construire mes fonctions u donc j'ai ces propriétés alors vous voyez j'ai fait une hypothèse en plus quand j'ai étudié les marchés à toits linéaires c'est j'ai supposé qu'il n'y avait pas d'invariant les invariants c'est une vraie obstruction c'est à dire si j'ai un vecteur de norme non nulle qu'un invariant ben quand je fais la fonction 1 sur norme de v puis sans delta si v il est invariant j'aurais beau appliquer mon opérataire il va rien se passer parce qu'il est invariant donc ça bougera pas d'accord et de fait dans le travail que je raconte c'est court c'est un vrai problème c'est à dire qu'on a eu une difficulté à gérer les invariants parce que tous les propriétés d'expansion qu'on voulait etc était perturbés par le fait qu'il y avait des invariants donc j'ai fait une hypothèse supplémentaire j'ai supposé donc elle donc c'est une notation si vous regardez les papiers c'est toujours comme ça qu'on note elle c'est le centralisateur de gamme amus d'Angers et j'ai supposé que elle est discrète vous pourrez penser qu'elle est trivial parce que ce qui me dérange c'est les invariants dans l'algebra de lits donc c'est l'algebra de lits du centralisateur et donc je veux pas la voir mais j'ai supposé que le centralisateur est discrète voilà et puis j'ai un deuxième problème vous allez voir tout de suite pourquoi ça dans ça vous voyez là tout de suite que si on a des invariants dans l'algebra de lits on a un problème pour construire de l'expansion et j'ai une deuxième difficulté et ça vous allez voir dans une minute où ça intervient c'est j'ai aussi supposé que j'ai sur lambda et compact et puis normalement vous allez voir que c'est enfin je vous expliquerai peut-être à la fin comment on fait quand c'est pas compact et comment ça fait quand il y a des invariants et ça devient atroce de toute façon c'est la même idée c'est juste qu'on a obligé de travailler plus sur les mêmes idées il n'y a pas de c'est des difficultés techniques il n'y a pas de nouveaux concepts voilà alors et donc maintenant sous ces hypothèses donc j'ai indiqué les hypothèses propositions donc si j'ai y qui est un cul d'or x qui est un sous-espace homogène alors ici c'est compact donc c'est à dire que y s'écrit sx il est fermé et s c'est un sous-groupe de g voilà donc j'ai un sous-espace homogène je suppose que gamma mu y est inclus dans y alors sous l'hypothèse qu'il y a oublions les hypothèses techniques sur gamma mu etc mais peut-être principal c'est il n'y a pas de centralisateur j'ai sur lambda et compact alors c'est ce qu'on attendait c'est à dire alors il existe une fonction u qui va de x privé du y dans r plus qui est propre mais non propre ça sert là et il existe un strictement plus petit que un c'est strictement positif tel que pu et plus petit que au plus c donc c'est vraiment exactement ce que j'ai dit depuis le début c'est à dire on a un espace homogène on a un espace x on a une sous variété y interdite on peut pas s'approcher d'elle la marche scénératoire elle a tendance à fuir la sous variété donc la technique ça va juste être de prendre près de y de linéariser la situation comme on est dans un groupe de lits donc on sait qu'on a des belles linéarisations de l'action et d'appliquer la construction dès qu'il y a des espaces vectoriels donc plus précisément donc je vous rappelle le stabilisateur ici quand j'ai un point y dans y il y a une action g et localement l'espace ça ressemble à un petit ouvert de g d'accord ? dans ce petit ouvert de g qu'est-ce qu'on voit ? on voit la sous variété y dans l'espace tangent c'est l'algebra de l'is du groupe qui apparaît ici ok et puis comme l'espace y il y a un variant par gamme amus et bien cet algebra de l'is elle est invariante par l'action adjointe de gamme amus maintenant comme l'action adjointe de gamme amus on a des roses d'ariste qui est semis simple il y a un supplémentaire invariant ok ? ça c'est la propriété de semisimplicité donc je sais que je peux écrire que l'agent de l'ig s écrite comme la somme direct de t plus s ou s c'est l'agent de l'i de s et t c'est gamme amus invariant je peux y avoir des choix mais je m'en fiche et maintenant j'applique la construction du l'aim la construction de la fonction p à à l'espace vectoriel t qui est munie d'une action de gamme amus qui est une somme directe de composantes et il n'y a pas d'un variant donc je sais qu'il existe delta strictement positif et il existe k dit que si je pose u u de quel que soit et a strictement plus petit que 1 tel que pour tout vector v dans l'agent de l'ité quand je regarde l'intégrale de la norme de adj de v puis sans ce moins delta dmg c'est la construction qu'on a faite tout à l'heure alors maintenant qu'est-ce que j'ai envie de faire j'ai envie de prendre un point qui est près de y et j'ai envie de définir quand j'ai un point là près de y, x il va s'écrire exponentiel de v fois y où y est un point de y et v il appartient ma transversalité d'accord et j'ai envie de poser u de x égale la norme de v puis sans ce moins delta mais pour pouvoir faire ça il faut que j'ai un théorème de voisinage tubulaire sur y et c'est là que j'utilise la capacité c'est à dire que si mon espace n'était pas compact ma sous variété y elle pourra aller dans les cusps et dans les cusps quand c'est pas compact le rayon d'adjectivité est diminu donc le epsilon à partir duquel je veux bien voir la carte locale il dépendrait du point alors on peut s'en tirer mais c'est intordable c'est pénible j'en ai un mauvais souvenir voilà donc je le sais pas donc comme c'est compact j'ai une belle sous variété dans une variété compact j'interrompe le voisinage tubulaire c'est à dire qu'il existe epsilon strictement positif tel que l'application alors j'ai noté b epsilon t là c'est le nombre de cent zéro de rayons epsilon dans t qui va de b epsilon t y dans x et qui a un élément v a de l'élément v y à ceci exponentiel de v y et bien ça c'est un diffeuomorphisme sur son image sur un certain ouvert u epsilon qui est son image et je vais poser je vais pas m'embêter je vais poser u2x égal 1 sur norme de v puissance delta si x égal exponentiel v y si x appartient à u epsilon et puis je vais poser u2x alors si je veux que ce soit continu on s'en fiche un peu mais bon on va mettre 1 sur epsilon puissance c'est de delta sinon ça c'est même continu c'est à dire ici dans mon voisinage tubulaire ma fonction comme ça ressemble il est complètement déterminé par une transversale ici par une norme transversale je mets la distance transversale qui vient de cette décomposition de l'algebra de l'i et puis quand je suis en dehors de toute façon je m'en fous complètement ce qui se passe en dehors ce qui m'intéresse c'est juste de calculer ce qui se passe quand je suis près de y évidemment c'est à cause de cette rupture dans la formule qu'on va voir apparaître c'est à dire on va plus avoir pu plus pu plus petit que a eu mais pu plus petit que a eu plus c alors pourquoi ? alors dans cette preuve je vous ai dit cette proposition il suffit que la mesure est des moments exponentiels je vais pas m'embêter dans la preuve je vais supposer moments support compact sinon c'est pas très dur mais bon ça fait encore des complications donc je vais pas m'embêter je vais supposer le support de mu et compact voilà et puis je vous ai dit j'ai compris été là normalement oui alors j'ai mis un cap normalement c'est pour une puissance de convolution ici j'ai supposé k égale 1 pour simplifier voilà alors et k égale 1 alors du coup je vais noter d ce sera le maximum de la norme de g et la norme de g puissance moins 1 alors plutôt de l'action adjointe de g de l'action adjointe quand g est dans le support de mu parce que maintenant c'est plus un compact et je vais calculer pu j'ai ma fonction u et je calcule pu alors qu'est ce qui se passe alors il y avait l'ouvert u epsilon u epsilon c'était les gens qui étaient à distance transverse plus petite que epsilon de la variété y alors il y a aussi un ouvert u epsilon sur d donc si x appartient à u epsilon sur d ça veut dire que x s'écrit exponentiel v fois y et la norme de v maintenant elle est plus petite que epsilon sur d strictement on va mettre c'est pas très important et donc maintenant quand je prends g dans le support de mu et bien gx il s'écrit exponentiel de l'action adjointe de g appliqué à v que multiplie g y c'est ça l'application adjointe et maintenant la norme de l'action adjointe de g appliqué à v elle est plus petite que des fois epsilon sur d elle est calc à epsilon c'est fait exprès c'est à dire que je dis là j'ai ma petite bande je prends une bande beaucoup plus petite et quand je suis dans la bande beaucoup plus petite de toute façon l'image par n'importe quel élément du support de la mesure ne sort pas de la grosse bande pour calculer u c'est facile quand je calcule u de gx du coup eh bien c'est égal à 1 sur la norme de gv puissance delta et donc ma parole la propriété fondamentale la pu de x c'est plus petit que à fois u de x ça me traite un cas alors maintenant ça c'est le cas où u il appartient il est vraiment très très près j'ai effacé le dessin j'aurais pas dû on a notre espace x là on a y là la distance c'est epsilon et puis il y a beaucoup plus petit là c'est epsilon sur d maintenant je prends des points qui sont là dedans alors quand je prends des points qui sont là dedans bah je vais juste dire que pu est majoré alors qu'est-ce qui se passe parce que si x il appartient pas à u epsilon sur d eh bien gx maintenant eh bien si l'appartient si gx n'appartient pas à u epsilon eh bien je sais que que ce que je sais je sais plus si gx n'appartient pas à u epsilon u de gx c'est plus petit par définition c'est égal à 1 sur epsilon puissance delta donc c'est majoré mais si gx si il pourra arriver quand je prends un point là là dans la grande bande x je vais appliquer g je rentre dedans ça ça pourra arriver ailleurs mais quand je rentre dedans bah je peux pas rentrer trop près quand même parce que si j'étais rentrer trop près ça veut dire que x il serait déjà ce que je veux dire par là c'est que si u g maintenant si gx il appartient à u epsilon gx il s'écrit exponentiel de w xz d'accord avec w qui est de norme plus petit que epsilon et z qui appartient à y ah oui mais alors qu'est ce qui se passe c'est que x lui-même bah il s'écrit exponentiel de l'action adjointe de g appliqué à w que multiplie g-z et donc nécessairement comme on était parti de quelqu'un qui était pas trop près de y et bah on sait que la norme de l'action adjointe de g-1 appliqué à w elle est nécessairement plus grande que epsilon sur d puisque x sinon ça veut dire que x lui-même était trop près et on est parti de quelqu'un qui était pas trop près donc ça veut dire que la norme de w est plus grande que epsilon sur d et donc u gx est plus petit que des puissances de delta sur epsilon sans delta d'accord donc la conclusion c'est que si x appartient à u epsilon sur d quelque soit g dans le support de la mesure u gx est plus petit que quoi décarrer sur epsilon puissances delta donc pu est soit plus petit que a u soit plus petit qu'une constante c'est exactement ce qu'on voulait montrer ça va ou j'ai été trop ça veut dire si on est très si on est très très près et ben le comportement qu'on voit c'est le comportement de la marche aléatoire linéaire donc c'est standard dans toutes ces questions où on a des soit des flots unipotants soit ces phénomènes de marche aléatoire sur des espaces homogènes on veut montrer ce qui se passe quand on arrive près d'une variété singulière on n'a pas envie de passer trop de temps on linearise c'est vraiment là qu'on utilise la structure, groupes de lits, espaces homogènes etc c'est ben on a l'application exponentielle donc on sait qu'à des petites échelles ce qu'on voit c'est du comportement linéaire c'est ça que je suis en train de dire mais la trouvaille formidable d'Eskine et Margolis ben parce que évidemment à petite échelle on voit bien qu'on part mais comment contrôler les moments où on revient ça veut dire dans la théorie des flots unipotants ce qui se passe c'est quand on passe à un moment c'est exactement le même dessin vous arrivez par un flot mais ce flot il a une divergence lente ce que vous dites c'est que si vous passez un moment très près franchement il ne peut pas rentrer vous avez un flot vous arrivez par votre flot unipotant vous savez que vous rentrez dans une toute petite bande et alors là juste la linéarisation vous dites que si vous passez un tenté dans une toute petite bande vous passez mille fois t par exemple dans la bande un peu plus grosse juste parce que vous connaissez le comportement des flots ici c'est très différent le temps si vous regardez juste le comportement des marches aléatoires vous passez pas beaucoup plus de temps là-dedans vous n'en passez là-dedans c'est essentiellement le même temps parce que vous dilaté à vitesse exponentielle vous dilaté pas à vitesse polynomial donc il faut une autre technique c'est une technique d'un autre esprit parce que pour les flots unipotants c'est de toute façon comme vous partez très lentement si jamais vous êtes partis là vous partez à vitesse polynomial donc quand vous êtes passé là un petit peu de temps un peu plus loin là vous partez à vitesse exponentielle si vous passez à temps 1 là vous passez à temps 1 dans la grosse bande au plus vous allez sortir très très vite du coup c'est super compliqué parce que si vous essayez de le faire qualitativement ce raisonnement non pas avec cet objet global qui est la fonction rue mais avec juste le raisonnement que je viens de dire vous n'arrivez absolument pas à contrôler donc il y a quelque part il faut utiliser la propriété de Markov quand on est parti si on revient ou pas c'est indépendant ça dépend juste de l'endroit où on est arrivé et comment on l'utilise on l'utilise à travers cette fameuse formule plus petit qu'à u plus c il y a quelque chose hyper malin là-dedans qui est vraiment inventé par Eskin et Marculi c'est renversant, c'est-à-dire que cet objet global l'analyse locale a priori quand on regarde juste les trajectoires c'est insuffisant parce qu'on part trop vite alors que pour les flots unipotants tout marche parce qu'on part lentement, là on part très vite donc il faut un objet global et qu'il y a peu de chance qu'on revienne et ce qu'est un objet global c'est ça c'est peu u plus petit que u plus c c'est cette équation à croire, il est équation formidable voilà est-ce que vous me laissez encore un peu de temps pour vous... c'est pas le choix en fait non on continue un poil, on arrête on arrête non c'est ça ? faut arrêter ok donc la prochaine fois je... je tirerai, je montrerai précisément à partir de cette propriété les cuites distribution pourquoi la classification des mesures stationnaires ça implique les cuites distribution et puis je commencerai à rentrer dans le corps de la preuve de la classification voilà