 Je commence juste par une définition. Je pense que tout le monde ici a déjà vu ça. Si j'ai un graph, v l'ensemble de ses sommets, e l'ensemble de ses arrêtes, sa matrice d'adjacence, je l'appelle a, c'est la matrice où l'entrée ij possède un 1 si les sommets i et j sont reliés, et un 0 sinon. Si le graph n'est pas orienté, la matrice est symétrique, donc diagonalisable, et ses valeurs propres, je vais les appeler lambda 1, lambda n, ordonnée de manière décroissante. Je vais parler des valeurs propres du graph, pour parler des valeurs propres de ces matrices d'adjacence. Dans l'exposé, je vais vous faire en fait plus une histoire de la théorie des expenseurs et de ses liens avec les trop spectraux. L'objectif c'est de comprendre un peu ce qu'est la conjecture, aujourd'hui ça s'appelle le théorème, de Friedman. Historiquement, dans les années 50-60, c'est posé le problème suivant chercher des graphes qui étaient bien connectés, mais qui avaient peu d'arrêtes. Donc en termes de mathématiques appliquées, vous pouvez vous imaginer que par exemple vous êtes un constructeur d'autoroute, il y a des villes en France, et vous voulez construire des routes entre ces villes. Évidemment construire une route ça coûte très cher, donc vous voulez pas en construire beaucoup, et vous avez envie que votre réseau routier soit performant. Donc déjà il faut pouvoir aller de n'importe quelle ville, à n'importe quelle ville, il faut qu'il soit connexe. Puis ensuite il faut qu'il soit vraiment plus que connexe, il faut qu'il soit bien connecté. Si un jour il y a un problème sur l'une des autoroutes, admettons que la portion Paris-l'île est bloquée pour une raison ou une autre, il faut quand même pouvoir aller de Paris à l'île, peut-être en passant par un autre endroit. Si vous avez envie qu'il soit bien connecté au sens où le diamètre doit pas être trop grand, si vous voulez aller de Bordeaux à Toulouse, vous n'avez pas envie de passer par Brest, Lille, Marseille et Lyon. Et donc ça c'est un problème qui se pose dans plusieurs endroits des mathématiques appliquées, et l'objectif c'est de le traduire en termes vraiment de théorie des graphes, c'était le début de ce qu'on appelle les graphes expensaires. Alors là je vais juste donner une définition, ce sera la seule de tout l'exposer. Alors v c'est les sommets de mon graph, si je prends deux parties x et y des sommets, eux deux x y, ça va être l'ensemble des arrêtes qui ont une extrémité dans x, l'autre extrémité dans y, d'accord ? Et des ronds x, c'est simplement ce qu'on appelle le bord de la partie x, c'est l'ensemble des arrêtes qui ont une extrémité dans x et une extrémité qui n'est pas du tout dans x. C'est vraiment le bord d'une partie, c'est les arrêtes qui sortent de cette partie. Donc pour mesurer à quel point un graph est bien connecté, on a une quantité, on a plein de quantités, l'une des plus connues et les plus utiles, c'est ce qu'on appelle la constante isopérimétrique ou constante de Schieger, qui est définie de la manière suivante, je prends l'infimum sur toutes les parties des sommets du ratio entre la taille du bord et la taille de cette partie. Alors intuitivement, si la constante isopérimétrique est grande, ça veut dire que le graph est bien étendu. Par exemple, si la constante isopérimétrique est égale à, je sais pas, 2, ça voudrait dire que si je prends n'importe quelle partie, n'importe quel nombre de sommets, disons 5, il y aura au moins 10 arrêtes qui vont sortir de ces sommets. Donc mon graph, il sera plutôt bien connecté. Et réciproquement, si h de g est petite, ça veut dire que le graph n'est pas très bien connecté, il y a des phénomènes de goulot d'étranglement. Donc par exemple, ça c'est un graph avec 12 sommets. Vous voyez cette partie là en bas, si je l'appelle x, son bord il n'y a qu'un seul élément. Pourtant, elle a 5 éléments. Donc la taille du bord sur la taille de la partie, ça va être un cinquième. Donc la constante isopérimétrique sera inférieure à un cinquième. Ce graph, il n'est vraiment pas bien connecté. De toute façon, je peux le déconnecter, rien qu'en enlevant une arrête. Donc la traduction du problème initial, ça consiste à trouver des graphes avec une constante isopérimétrique grande, ils sont bien connectés. Et puis on a envie qu'ils aient pas beaucoup d'arrêtes. On appelle ça des graphes sparse ou des graphes diluées. Dans un graph, il y a le nombre maximal d'arrêtes. Si le graph n'est pas orienté, c'est n-n-2, c'est de l'ordre de n². Donc il y a un nombre d'arrêtes si le nombre d'arrêtes est plutôt similaire au nombre de sommets, donc d'ordre n. Il y a beaucoup de modèles de graphes sparse, mais l'un des modèles les plus utiles, c'est les graphes déréguliers. Alors un graphe est dérégulier si chaque sommet a exactement des voisins. Le nombre d'arrêtes dans un graphe dérégulier, c'est dn-2, c'est bien d'ordre n et pas d'ordre n². Donc ça, ça fournit un peu, historiquement, ça a été le modèle le plus utile pour commencer quelque part dans les graphes sparse. Généralement, c'est bien de commencer par les graphes déréguliers. Et en fait, la question qui s'est posée historiquement, la traduction mathématique, c'était vraiment ça. Donc le problème que j'ai posé tout à l'heure, c'est ce problème, c'est trouver des familles d'expenseurs. Une famille d'expenseurs, c'est une famille de graphes réguliers qui sont de plus en plus grands et pour lesquelles la constante d'expansion est pas petite. D'abord, elle tend pas vers 0, et puis en fait, elle est bornée assez loin de 0. Par exemple, si je prends c égale 2, j'aimerais avoir une famille de graphes déréguliers, donc sparse, dont la constante isopérimétrique est plus grande que 2. La question qui se pose, c'est comment construire ces gens-là. Ces familles d'expenseurs, est-ce que ça existe ? Est-ce que c'est facile à construire ? Si je vous donne une famille, est-ce que vous pouvez vérifier facilement que c'est une famille d'expenseurs ? En fait, ça, ce sont des questions qui sont très difficiles. Et d'ailleurs, l'une des raisons, c'est que ça, c'est une quantité qui est sûrement, ça vient de la théorie des graphes, mais c'est difficile à calculer, c'est comme le nombre chromatique. Ça se calcule vraiment pas facilement. Heureusement, il y a des liens avec le spectre des graphes. C'est le spectre d'un graphe dérégulier. En fait, on a des liens entre l'expansion et le spectre. Ces liens, je vais les exposer juste après. Alors, il y en a beaucoup. Il y a vraiment beaucoup de liens entre l'expansion et le spectre, mais l'un des liens les plus connus, c'est ce qu'on appelle l'illégalité de Chieger, qui relie la constante isopérimétrique, H, à cette quantité, dès moins l'âme d'A2. Alors, si un graphe est dérégulier, on voit très facilement que la plus grande valeur propre, c'est toujours D. Il suffit de prendre le vecteur prof, et donc ça, c'est égal à l'âme d'A1 et l'âme d'A2, c'est la deuxième plus grande valeur propre. Dès moins l'âme d'A2, c'est le trou spectral, c'est la distance entre les deux plus grandes valeurs propres. Donc la constante isopérimétrique, elle est coincée entre deux expressions qui dépendent du trou spectral. Donc, si dès moins l'âme d'A2 est grand, ça veut dire que la constante isopérimétrique est grande, donc mon graphe est un bon expenseur. Et puis si dès moins l'âme d'A2 est petite, le graphe a priori ne sera pas un bon expenseur. Donc, plutôt que de chercher des familles d'expenseur au sens de la constante isopérimétrique, on va plutôt chercher des graphes tels que l'âme d'A2 est petite de vendée. Si on réussit à trouver des graphes tels que dès moins l'âme d'A2 est suffisamment grande, c'est-à-dire l'âme d'A2 est petite, alors on aura des graphes avec une bonne constante d'expansion. Alors là, dans ces inégalités, on a juste... on a l'âme d'A2 en fait, mais une autre quantité qui intervient souvent, c'est non pas la deuxième plus grande valeur propre, mais la deuxième plus grande valeur propre en module. Donc, c'est ce que j'ai appelé l'âme d'A2. C'est soit l'âme d'A2, soit l'âme d'An, enfin, le module de l'âme d'A2 ou de l'âme d'An. Et donc la question qui se pose, c'est qu'est-ce qu'on peut dire, si on veut chercher des graphes déréguliers avec l'âme d'A2 aussi petite que possible, qu'est-ce qu'on peut dire sur l'âme d'A2 ? Est-ce qu'on connaît des choses ? Est-ce qu'on connaît des graphes déréguliers avec beaucoup de sommets, tels que l'âme d'A2 est vraiment petite de vendée ? La réponse, c'est... Ça a été une grande question de la théorie des expenseurs. Un début de réponse a été donné par la borne classique d'Alon Bopana, qui nous explique que en fait la deuxième plus grande valeur propre, elle peut pas... Enfin, elle est nécessairement plus grande que deux racines de D-1, moins un petit quelque chose qui tend vers zéro. Autrement dit, le truspectral, il peut pas être trop grand. Il va pas être plus grand que des moins deux racines de D-1 plus une beauté. Mais alors, si ma deuxième plus grande valeur prof peut pas être trop petite, est-ce que je peux quand même trouver des graphes déréguliers tels que la deuxième valeur propre atteint cette borne ? Autrement dit, est-ce que je peux trouver effectivement des graphes déréguliers tels que l'ANDA étoile est coincé entre deux racines de D-1, moins epsilon, donc moins cette chose-là, et deux racines de D-1 ? Bien, construire des familles de graphes avec cette propriété sur la deuxième valeur propre, en fait, ça serait tellement difficile qu'on aurait même donné un nom à ces graphes-là. Ce sont les graphes de Ramanujan. Et les graphes de Ramanujan sont les meilleurs expenseurs possibles. On peut pas trouver de meilleurs expenseurs. Et en fait, on n'a pas de construction explicite de ces graphes-là, hormis dans des cas particuliers, donc Philips, Silbertsky et Sarnak, puis Margulis, je ne sais pas dans quel ordre exactement, on construit des familles de graphes de Ramanujan pour D égale. Alors, je crois que le cas le plus général, c'est P puissance k plus 1, ou P est un nombre premier. Mais le cas le plus général, je pense qu'on n'a absolument rien de plus que P puissance k plus 1, peut-être dans le cas d'égale 3 aussi. Donc en fait, il est très difficile de construire des graphes de Ramanujan. Heureusement, il y a un petit miracle, le probabilisme qui arrive, c'est qu'en fait, si on prend un graph au hasard, on s'est rendu compte qu'il était quasiment Ramanujan. Alors ça, ça a été vraiment quelque chose d'assez important. Voici le formalisme, il est tout simple. Je prends l'ensemble, alors ce que j'ai appelé un N dégraphe, oui, c'est un graph à N sommet que j'en prends un au hasard. Ça revient à mener l'ensemble GND de la mesure uniforme. Alors lambda étoile, ça devient une variable aléatoire. Et bien, en fait, il a été démontré que, pour tout epsilon fixé, lambda étoile, avec grande probabilité, est plus petite que 2 racines de démoins 1 plus epsilon lorsque la taille est envers l'infini. Alors ça, c'est quelque chose qui est vraiment très important. Alors ça, c'est quelque chose qui est vraiment c'est le théorème de Friedman. Pendant longtemps, ça s'est appelé la conjecture de la conjecture d'Alan Friedman. Ça a été conjecturé en 1986. Il y a plusieurs personnes qui avaient remarqué ça peut-être un tout petit peu avant. Mais curieusement, ça s'est révélé extrêmement difficile à démontrer. Alors ce qui est curieux, c'est que la borne d'Alan Bopana, qui nous dit que lambda étoile est plus grand que 2 racines de démoins 1, elle est assez facile. Et la démonstration de l'autre inégalité s'est révélé beaucoup plus difficile. Elle a fallu attendre 20 ans quand même pour avoir une première démonstration qui était vraiment très technique. Et récemment, une deuxième démonstration qui paraît généralisable à d'autres modèles de graphes. Alors, on n'a pas fini avec lambda étoile là, puisque il y a encore beaucoup de conjecture sur ça. Notamment, il y a des choses assez intéressantes. Les simulations numériques montrent que dans Novikov en 2002 a fait plein de simulations. Et a priori, les fluctuations de lambda étoile autour de 2 racines de démoins 1 ressemblent quand même très très fortement à des lois de la famille de Tracy Whidham, une autre instance du phénomène d'universalité dans les matrices aléatoires. Donc voilà, ceci nous explique qu'au fond, si on veut construire d'excellents expenseurs, on a juste à prendre un très grand graphe dérégulier, au hasard. Il ne sera pas forcément ramenoujane, lambda étoile ne sera pas inférieur à 2 racines de démoins 1, mais lambda étoile sera quand même très très près de 2 racines de démoins 1 ce qui fera du graphe un excellent expenseur. Bon, la question naturelle qui se pose, maintenant, c'est, est-ce qu'on peut faire pareil avec d'autres familles de graphe ? Est-ce qu'on peut calculer des transpectros parce que le transpectro est quand même relié à l'expansion dans beaucoup d'autres modèles de graphe ? Est-ce qu'on peut calculer des transpectros dans d'autres familles ? Bon, là, il y a beaucoup de problèmes. D'abord, si le graphe n'est pas orienté, la matrice n'est pas symétrique, ces valeurs propres deviennent vraiment beaucoup plus difficiles à étudier. De manière générale, la plus grande valeur proche de non plus, il y a vraiment peu de choses qui sont connues à ce niveau-là. Donc, une première idée pour commencer, ce serait de renormaliser la matrice d'adjacence, de plus regarder la matrice d'adjacence, mais de regarder la matrice de transition. Donc, on n'étudiera plus la adjacence, mais vraiment la chaîne de Markov définie sur le graphe. Et, alors là, je vous donne juste un petit rappel que vous avez tout vu. Donc, si P est une matrice de transition, ces valeurs propres, bon, elles sont plus réelles, elles sont complexes, donc je les ordonne par module. Il y a un théorème de convergence qui nous dit que, d'abord, sous les hypothèses nécessaires, la loi invariante existe, les itérés de la matrice de transition convergent vers la loi invariante, et en fait, la vitesse de convergence est donnée par la deuxième valeur propre. Donc ça, si la matrice est diagonalisable, par exemple, si la chaîne est réversible, ça se voit facilement, mais c'est aussi vrai dans le cas général. Donc ça, ça nous donnera une heuristique pour en faire conjecturer des deuxièmes valeurs propres. Donc nous, on s'intéressait à la généralisation du modèle des graves déréguliers. Donc dérégulier, c'est non orienté avec une suite de degrés fixés, constante. Nous, on a fait un modèle de graves sparse orienté avec une suite de degrés quelconques. Donc le modèle, c'est le suivant. Le sommet 1, je vais lui mettre d'1 moins arrête en 30, d'1 plus arrête sortante. Puis le sommet i, je vais lui mettre d'i moins arrête en 30 et d'i plus arrête sortante. Donc là, on a spécifié les degrés en toute généralité. Alors évidemment il faut qu'il y ait des graves qui ont bien cette suite de degrés. Il faut des conditions, ça c'est par exemple une condition nécessaire, pas forcément suffisante. Et on a étudié la matrice de transition de la marche aléatoire simple sur ce grave. Alors il se trouve que, sous des hypothèses très simples sur les déi plus, la probabilité invariante existe. Elle est unique. Et il y a une quantité qui a apparu cette quantité s'appelle row. Elle dépend juste de la suite graphique, d'i moins sur d'i plus. Et en 2015 Bordonov, Caputo et Salès ont montré que la chaîne de Markov converge entre guillemets, c'est-à-dire que si on fixe t et qu'on fait tant de la taille de la matrice vers l'infini, bien la vitesse de convergence de la loi de la chaîne par rapport à sa mesure invariante, sa vitesse est donnée par row puissance t. Ça nous donne une bonne heuristique. On a conjecturé que la deuxième valeur propre de la matrice de transition c'était ce row. C'est ce que j'ai fait cette année. L'article ne va vraiment pas du tout tarder à arriver en ligne. Donc ça, c'est vraiment une jolie généralisation de juste une inégalité dans le théorien de Dallon Friedman. Ça, c'est l'inégalité d'Dallon Friedman. Et paradoxalement, le côté facile, qui était le côté Dallon Bopana, la Borde inférieure, on ne l'a pas du tout. Et les matrices qu'on étudie sont pas symétriques et donc c'est beaucoup plus difficile d'avoir des inégalités dans l'autre sens. Alors là, je vous ai mis en dernier une petite simulation. Donc ça, c'est le spectre de la matrice de transition sur un graphe où j'ai mis 500 sommets avec 4 degrés sortants et 4 degrés entrants et 5 degrés sortants et 500 sommets avec 5 degrés entrants et 4 degrés sortants. Alors là, vous voyez, ça, c'est la valeur propre de Péron. C'est le 1, la valeur propre de la matrice de transition. Et puis en rouge, c'est le cercle de centre zéro et des rayons rô. Donc là, bon, manifestement, ça marche bien. Alors, ce qu'on a montré, c'est que rô, mu2, la deuxième valeur propre est inférieure à rô plus epsilon. En fait, dans toutes les simulations, on voit qu'a priori, mu2 sera vraiment égal, asymptotiquement, vraiment très très poroche de rô. Ça, ce sera un travail pour le venir. Voilà. Est-ce qu'il y a des questions ? Oui. Merci. Est-ce que tu as une explication pour l'appellation Graf de Ramanujan ? Alors oui. Oui et non. C'est parce que la construction de ces Graf, elle utilise une machinerie énorme de théorie des nombres. Notamment les premières constructions de Margulis, pour démontrer que le Graf est bien extrêmement, c'est utilisé des conjectures à l'époque et c'est absolument pas quel sont ces conjectures. Ça vient vraiment du fait que les démonstrations utilisent des grosses outils de théorie des groupes et de théorie des nombres. J'ai une question. Combien de pages va faire ton article ? Un peu moins de 40. D'accord. Donc c'est bien sûr une allusion au nombre de pages d'articles de Tyrann Friedman. Donc tu peux dire un peu plus comment on a réussi aujourd'hui à... La démonstration initiale était purement combinatoire. Elle était vraiment... Je l'ai pas lu en entier d'ailleurs. Ça consistait vraiment à faire une méthode de la trace sélective, c'est-à-dire ne sélectionner que certains motifs dans le Graf. C'était quelque chose d'extrêmement technique et la démonstration de Bordona en 2015 réutilisait un tout petit peu l'idée de la trace sélective. En gros ça consiste à dire que dans un Graf comme ça il y a très peu de cycles, il n'y a pas beaucoup de cycles et donc qui t'a regardé des itérées d'une matrice, vous avez la somme des cycles en fait, la somme des marches fermées d'une certaine longueur. Vous pouvez enlever de ces marches fermées les marches qui ont trop de cycles. Ça c'est l'idée de base. Et puis ensuite il faut se ramener à une méthode de la trace classique. Alors s'il y a plus de questions donc on remercie encore une fois pour cette exposé. On remercie Simon pour cette exposé.