 Et là on ne voit pas. Ok, donc... Bienvenue back. Donc, je vais commencer avec la première application de toutes les techniques qu'on voit, qui sont appelées de trouver un nidale dans un stack. Et si vous voulez être plus profond, c'est la version plantée d'un modèle d'énergie. Je croyais. Oui, ça ne marche pas. Oui, donc vous avez été complémenté. Le modèle est le suivant. Pourquoi vous risquez L ? Non, c'est n. Vecteur X c'est livré en R. 2 à l'N. Ok, donc, ce que vous voulez mélanger avec cette dimension 2 à l'N c'est un espace typique où vous avez plus ou moins un nidale. Vous avez deux choix, vous avez deux. Le set possible, la cardinale de la possibilité est 2 à l'N. Ok. Comme d'habitude, le bruit va être gauchan. Il n'y a pas de covariance. Et maintenant, le niveau X c'est une victoire base pour un X. Ok. C'est la partie qui est plantée, en fait. C'est uniforme sur le set 1 à l'N. Le modèle d'énergie à l'N correspond à ça. Je suis en train d'ajouter un signal. J'en profite pour obtenir le résultat non-très. Vous êtes observé basiquement si vous avez seulement celui-là c'est l'ID non-variable. Et la seule modification que vous faites est seulement dans un ordinateur. Vous vous ajoutez une vector qui est l'Ordinateur de l'Ordinateur. Maintenant, la question. Vous faites l'inférence. Vous pouvez récover ce que vous avez planté dans le modèle. Vous pouvez récover l'index dans lequel vous vous ajoutez le signal. Il y a quelque chose qui n'était pas clair mais je n'ai pas fait une assumption sur le component X. Vous pouvez prendre une structure très compliquée entre le component X et tout. Je n'ai jamais utilisé ça. La partie importante est que le component X soit un structure très compliquée. Ok? Donc si vous avez donné ce problème vous ne pourriez probablement pas faire ce que je vais faire ici mais c'est pour vous que nous serons utilisés pour le modèle. Vous pouvez réprimer. Vous devez réprimer pour cette partie. Pour ce modèle. Vous voulez une poste pour ne pas voir ce que vous avez observé. Je suis en base optimal. Je sais que l'Omda n'est pas uniforme. Je vois pourquoi. C'est un point. Je suis en base pour réprimer. Je suis en base pour réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. Vous devez réprimer. 1, 2, le final de cette formule avec le même, ici. Donc, OK, ce que je vous ai dit, c'est que si vous pouvez composer les frères énergies, vous pouvez faire tout. Donc, la frère énergie est juste une logique. Je ne suis pas sûr. OK, pour la bonne basse, c'est assez facile. Dans cette, ici, vous avez une complication, parce que vous avez pris l'expectation d'une logique. OK, vous avez un peu de termes, mais en fait, il y a un terme qui sera beaucoup plus grand que l'autre, l'un correspondant à l'autre signal. Donc, vous garderez seulement ce terme dans la somme pour obtenir une bonne basse. Et vous recevrez l'expectation de une logique, une somme, 2 à la fin. Et donc, maintenant, c'est un variable de la variabilité Gaussian. Vous savez comment concuter cela. C'est exactement ce que l'on a élevé par 2, minus la logique 2. Maintenant, vous pouvez, pour l'un de l'autre, vous utilisez une équality de Jensen. Et au final, ce que vous trouverez est... OK, je vais élevé le résultat directement, pour ne pas être surpris si vous savez un petit peu. C'est un model de RAM. Converse 0, si l'on est moins de 2,2, à cette valeur d'autre, c'est plus ou moins. Oui, parce qu'il y a l'un de l'autre, minus l'un de l'autre. Je prends seulement le sigma equal à sigma 0. Donc, c'est pourquoi j'ai un plus grand. Donc, c'est une ligue de RAM qui est consistante avec celle-ci, parce que dans cette régime, celle-ci est négative, mais la somme n'est pas négative. Donc, c'est 0, quand l'on est plus petit. Et cette valeur, quand l'on est plus grand, c'est la même chose. Donc, maintenant, vous pouvez appliquer la haine MMSI-TORM, qui est... Donc, c'est pour N, la fonction de Flamda. Et c'est ce que nous avons vu ce matin. Donc, ce qui veut dire que si vous utilisez ça pour la MMSI, ça va aller au 1 de Flamda plus petit et au 0 de Flamda plus grand. Alors, qu'est-ce qui veut dire qu'il y a une valeur de 1 ? Mais qu'est-ce qui veut dire qu'il y a une valeur de 0 ? C'est probablement plus facile. Oui, et l'une est juste, qu'est-ce que j'ai regardé ? Ok. Donc, avec cet argument, vous ne savez pas ce qui s'est passé à l'alimentation, exactement, parce que j'en prends la limiterie entre N, quand Flamda est uniquement égale d'un tour de 2. Je ne sais pas ce qui est limité. Je ne peux pas l'utiliser ici, parce que ce n'est pas différent. Mais c'est de la mesure 0 ou de la mesure 0. Oui, oui, je ne suis pas covering ce cas. C'est tout à fait ce que je dis. C'est un limiterie pour l'énergie 3. C'est vrai pour n'importe quel N. Ok, j'ai prouvé le bas bonnet, je n'ai pas prouvé le bas bonnet. Pour le bas bonnet, vous appliquez le Jensen, l'inéquité. Et vous vous trouvez que c'est 0 ou cette quantité, quand Flamda est plus grande. Oui, j'ai trompé cette partie. Et bien sûr, again, cette théorie peut être un petit peu overkillée en ce cas, parce que si vous mettez un grand nombre de personnes dans la rue et demandez pour ce problème, oui, c'est le plus grand, votre estimateur. En fait, vous pouvez montrer que c'est le maximum de l'estimateur. C'est juste le maximum de la haute haute haute. Et maintenant, vous devez savoir que pour ce qui est l'équilibre de cette quantité, si vous avez seulement le bruit, ce qui est le maximum de la haute haute haute, et que vous avez 2 power n de elles, c'est 2 log 2 times n square root. Ok, donc vous voyez directement que c'est la scale de la haute haute. C'est pourquoi j'ai pris la haute haute haute à la haute haute à la haute haute. Donc, quand l'Omda est plus grande que ceci, vous pouvez le reconstruire. Et d'ailleurs, c'est séparé par le maximum de l'estimateur. Mais ce que vous voyez ici, c'est que en utilisant les outils que nous avons montrés ce matin et le dernier, nous ne sommes pas analysés à tout aucun algorithme particulier. Donc, c'est-à-dire que cette analyse va travailler tant que vous pouvez conclure l'explicitité du maximum de l'estimateur. Mais pour plus de choses compliquées, c'est très difficile à faire. Et la haute haute n est pas liée à un algorithme particulier. Donc, ce n'est pas ce que nous voulons faire. Donc, nous allons regarder le modèle. Je suis intéressé avec un petit plus. Donc, c'est le modèle de Spite Lickner qui est le modèle suivant. Maintenant, le XIR, IID, avec le P0. Je pense que c'est le second moment. C'est equal à 1, je dirais. Ok, donc, c'est le modèle. Donc, peut-être que je suis sûr que vous l'avez vu dans ce cours. Dans la forme de matrix, vous avez une matrix Y, vous avez une vector X, vous avez une vector X transpose plus Z, ce qui est un matrix Vignard. Donc, c'est pourquoi c'est appelé, vous avez une Spite avec un matrix Vignard. Donc, ici, vous voyez que je n'observe que les entretenants triangles de l'opportunité. Mais, si vous voulez observer tous les entretenants, vous pourrez juste risquer le bruit. Donc, ici, vous avez une vector X, et maintenant, ce sont deux matrices de dimension A par A, en symétrie. Ce n'est qu'un autre, si vous voulez connecter ces deux courses à la première course de semi-supervised learning. Le modèle n'était pas exactement comme ça. C'était relativement à la Spite Wishart, donc c'est une version non-symétrique de cette, où vous avez Y. Donc, vous vous souvenez, j'ai eu une vector U sur le label V. Et j'ai pris le produit. Donc, en ce cas, vous n'avez pas une matrix symétrique. Vous pouvez faire l'analyse pour ce modèle 2. C'est un peu plus compliqué. Donc, pour le reste de cette course, je vais beaucoup concentrer sur ce modèle. Vous vous rassurez que c'est le modèle de Mark Potter, que vous avez vu. Donc, oui, c'est symétrique, mais ici, je n'en sais pas parce que je suis seulement observé. C'est pourquoi je l'ai écrit avec indices. Je suis seulement observé à la partie étrangère de la matrix. Alors que tout est idéal. Je n'ai pas besoin de risques. OK, donc, il y a... Maintenant, je veux appliquer la théorie que je vous montre. En fait, il y a un problème réel pour cette particularité. Parce que tout ce que j'ai dit, la mesure de la performance est un peu faible en ce cas. En tant que vous portez un priori que c'est symétrique, si pas. Donc, clairement, dans ce modèle, vous ne pouvez pas estimer X. Vous pouvez estimer X seulement jusqu'à un signe. OK, le problème est vraiment symétrique, si P5 n'est pas symétrique. Donc, si vous avez donné le X, minus X ira aussi travailler. OK. Donc, vous pouvez seulement trouver X jusqu'à un signe. Donc, again, P n'est pas symétrique, ce qui signifie ce que ce compte sera. Donc, c'est 0. OK. Parce que je veux dire que si j'ai X minus X, donc, la table est moins utilisée. Je dois arrêter de travailler sur ce problème et aller au boulot et... le sain. OK. Donc, ce qui signifie que vous ne vous avez pas fait encore. Et donc, vous devez trouver une autre mesure de performance. Donc, cette partie de la discussion est basée sur un travail joint avec Léo Moulin. Je ne me souviens pas le titre, mais l'inferance avec les matresses symétriques. Il a fait cette table dans un autre papier. Et ce que j'ai essayé dans ce cours c'est de vous donner des arguments qui ne sont pas dans le papier. Donc, dans le papier, nous avons directement introduit la mesure de performance que nous devons travailler avec. Et ce n'est pas expliqué pourquoi nous avons pris cette chose ou un autre. Donc, ce que je vais dire ici est ce que la mesure naturelle de performance est dans ce cadre. Donc, en fait, depuis ce matin, je me dis que si tout le monde est en train de travailler sur le boulot, vous pouvez aller un petit peu sur le boulot. Vous pouvez aller un petit peu vers le set général, ce qui est celui-là. Donc, vous avez une matrice symétrique plus de bruit. Je ne défend pas ce que la bruit est. Ok. Donc, je vais faire une autre assumption que ce n'est pas vraiment vrai ici. C'est la norme de ma vector X, c'est 1. C'est presque vrai. C'est seulement dans la limites quand n'est-ce que l'infinité. Ok, donc, c'est considéré que, bien, pour exemple, c'est de l'université. Je n'ai pas besoin de préciser quelle est la solution exacte de cela. Donc, depuis qu'on n'est pas capable de déterminer X, seulement à un signe, il y a une mesure naturelle de performance qui s'appelle la similité cosine. Physiquement, ce que vous voulez obtenir est la direction de X, non si c'est plus ou moins 1. Et ceci est encadré avec la consensualité. Donc, depuis que j'ai déjà utilisé le bracket pour la mesure de la gip, j'ai besoin d'une autre notation pour l'interprodiction de l'Euclidean. Donc, j'utilise cette parenthesis notation. J'espère que ce sera clair. L'interprodiction de l'Euclidean. Et donc, la similité cosine est ce que vous avez deux notions. La première, vous pouvez voir, c'est l'absolute valeur de votre estimateur avec le pro ou pour prendre la gip de la square. Ok, donc, maintenant, je n'ai pas de problème de signes anymore. Ici, je prends l'absolute valeur et ici, je prends la square. Ce sera en considération basiquement l'angle avec la direction correcte qui est donnée par mes estimateurs comparé à la direction correcte. Maintenant, ok, vous avez tous agréé que c'est plus significatif dans ma position à la mesure de la performance. J'espère que ça va bien. Le point de vue est que j'ai envie de rapprocher ce qu'il s'agit de l'AMMC de quelque sorte. Et c'est ce que je vais faire ici. Et c'est vrai dans cette partie très générale. Alors, l'idée est de considérer le n x n pour voir ça comme estimation de la matrice en soi, pas de la vector. Et essayer de connecter l'estimation de la matrice à l'estimation de la vector grâce à cette similarity. Alors, je vais considérer le n x n positif de la finite random de la matrice large M, ce qui est ce que vous espérez. Si maintenant vous regardez l'estimation de cette matrice, vous regardez le nombre de postes en soi de cette forme. Ok, donc c'est la finitation. Donc, maintenant je suis avec ça, je suis revenu à la standard MMC. C'est le meilleur base optimal estimateur. Donc, la MMC que j'ai réalisé de cette façon, ce qui est donc, vous agreez avec avec ça? Donc, ici, il y a un petit truc. Je veux dire, ce qu'est cette norme, maintenant je suis en train de dealer avec la matrice en soi de la vector. Donc, cette norme L2 c'est ce qu'on appelle dans la norme de la matrice, la norme de Frobidus. Ok, alors que vous soumisez le square de l'entrée. Donc, Ok, je suis réalisé donc, parfois il y a un F, mais je ne vais pas mettre le F dans mon cas. Ce square est simétrique. Ok. Donc, maintenant, je veux connecter cette matrice, ce qui est la chose que je vais pouvoir faire une computation pour grâce à la MMC de l'OM et tout. Pour cette matrice. Ok, comment ça s'étend? Donc, la première chose que vous pouvez faire est cette. Donc, effectivement, tout ce que je présente ici n'est pas écrit dans le papier parce qu'on commence directement avec cette MMC en faisant la computation avec ça. Mais ce n'est pas présenté dans ce cas, en tout cas, un minus. Donc, c'est la trace de la m² parce que je parle avec des matrices simétriques. Donc, l'un est venu de la facture que j'assume que je suis dans l'unit sphère et ensuite, vous faites ce que c'est une computation. Bien, ici, je n'ai pas de lambda parce que, je veux dire, je n'ai pas défendu ce que le son est, en fait. Donc, il n'y a pas il n'y a pas de paramètres de lambda. Donc, c'est pourquoi j'ai écrit la MMC comme ça comme une fonction de tous les paramètres. Donc, Ok. Qu'est-ce qui sera votre guest? Ok, si je vous donne cette M matrix, ce qui est difficile à computer, mais, on va dire que vous avez accès à ça. Qu'est-ce qui sera un bon estimateur maintenant pour le vector x? C'est la question que je m'ai demandé. En termes de la mesure de la performance, ce sera élevé par cette consigne simérité. Donc, j'ai une matrixe pourquoi pas? Oui, c'est ce que vous espérez, parce que si vous voulez récover, je veux dire, c'est la perception de l'élevé. Vous pourriez pouvoir récover quelque chose si cet élevé est grand enough. Donc, c'est ce que vous avez vu. Et en ce cas, en regardant la largeur, le vector x associé à la largeur de la largeur, ça pourrait être un bon estimateur mais ce n'est pas donné à priori. Donc, c'est ce que nous ferons maintenant pour montrer que cette situation est correcte. Ok. Alors, la première chose que vous pouvez faire est que vous pouvez essayer de compter la consigne simérité pour aucun estimateur. On va connecter à m, où on va prendre cette version qui est un peu plus facile. Donc, je prends pardon, un estimateur xa ce n'est peut-être pas le meilleur. En compétitivité, c'est le square de la consigne. On est assumé que c'est une norme 1. Donc, ce sont tous les vectors. Donc, j'ai juste ajouté le bracket. Je suis allé faire ça. Parce que c'est juste une expectation conditionale. C'est grand. Maintenant, vous savez ce que je vais faire. Je vais utiliser le Théorème Nishimori pour faire ce grand X. Par votre répliqueur. OK. Donc, ce n'est pas une fonction visuelle. Ce n'est pas ce n'est pas le cas. Ce sont les deux. Donc, ce sont les transports ici. Ce sont les fonctions visuelles de Y. Donc, je prends la expectation d'un Y. Donc, je peux les mettre au-delà le bracket. Dans le bracket, je vais avoir le bracket de X, X transport. Ce qui est exactement la définition de N. OK. Donc, ce que vous avez est juste détenu. C'est si vous en utilisez le meilleur possible. Ce n'est toujours plus que le grand X de M. Si vous en utilisez votre estimateur comme l'aigone de la valeur de l'aigone vous en achetez. Donc, vous avez ce qu'il y a comme ça. La square. Et, encore, je ne vais pas le dire, mais le optimal estimateur pour cette métrique est une unité convecteur de M. OK. Et maintenant, je veux discuter un petit peu un résultat margénial. Donc, ça ressemble à que nous sommes dans la bonne direction comme ça. Donc, ce que j'ai fait ici, vous voyez, j'ai très je n'ai presque pas d'assumption. La seule assumption j'ai utilisé bien, c'est le fait que c'est en norme 1 mais c'est seulement ici, mais ce n'est pas vraiment crucial. Donc, mais ce qu'on sera intéressé dans est la limite quand l'envers de l'infinité dans ma situation, il n'y a pas, je veux dire, il n'y a pas un petit n, c'est juste un problème fixé. Ce que je veux montrer est la propriété asymptotique. Donc, que, asymptotiquement, cette métrique sera n'en plus de la fin, ou ce sera en plus de la fin, donc vous voulez regarder la seconde vector de la fin de la fin de la fin de la fin. Donc vous voulez prendre la limite. Toutes les quantités sont bien définies dans la limite et vous voulez avoir un résultat pour la quantité limitée. Donc, maintenant, je considère un second problème d'inferance avec une index n et je veux les indexes de problème de 10 à 15. Et je vais faire Je vais faire la même assumption que j'ai fait dans mes propres arguments pour le semi-supervised learning. Je vais être un peu plus précis ici, mais j'espère que vous pourrez comprendre mieux ce que j'ai fait dans le système. Jn est une distribution postale de x qui devrait être indexée par n, mais je vais retirer cette dépendance en n, donc l'assumption que je fais est qu'il existe une queue entre 0 et 1, comme si tu prends deux copies x1, x2, i, i, d according to gn, c'est correct, mais je pense que c'est correct. Tout est dépendant de n maintenant, mais je vais retirer la dépendance en n dans ma notation, mais c'est dépendant de n, et ça convertira dans une queue scolaire. Et puis je vais dire quelque chose que j'espère est correct, mais je pense que... Donc, si vous ne faites que cette assumption, je ne fais pas un modèle particulier ou quelque chose, c'est l'assumption que j'ai fait. Et vous êtes considéré maintenant comme un modèle associé à ceci, donc vous voulez estimer la matrice x transpose plus des noises, ce n'est pas l'assumption, c'est le seul qui est fait ici, si vous voulez. Alors vous pouvez montrer que la trace de m² de distribution à q² lambda max de m, encore une fois, ce n'est pas l'assumption, c'est l'assumption de m, de distribution à q. Si vous... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...