 Je vous remercie beaucoup et merci de l'organiser pour présenter ce travail. Alors, je m'appelle Tepoze d'information ou d'information off. Et le travail que je vais présenter vient de deux papiers. Je parle souvent de celui-ci avec un biologiste de neuroscience qui est dans Marseille, Nau, Pierre Baudot et un autre papeur qui est dans l'entropie. Un journal d'entropie, donc c'est dans 3 accesses. Et celui-ci, l'année dernière, avec une autre personne de neuroscience qui est Anne Bertolles. Et aussi, il y a un autre papeur qui n'est pas de moi, dans 2 accesses, qui est sur Akai et qui est un étudiant qui fait cette stasis avec moi, Nau, qui est un Pablo Vigno. Et je vais parler d'une partie de cette stasis. En fait, le travail Tepoze, qui vient dans ce travail différent, n'est pas exactement le même statut, parce que ici, le travail est fait sans connaissance de Tepoze, surtout. Et à un moment, j'ai trouvé que c'était vraiment une implementation de la théorie de Tepoze, et surtout l'aspect homologique. Donc, je vais le présenter bientôt, de ce point de vue de la catégorie et de Tepoze. Et dans celui-là, il parle pratiquement de la nature d'entropie. Donc, ce n'est pas seulement le journal, mais aussi le sujet. Avec Pierre Bordeaux, on essaie d'understand si on peut définir des formes différentes, dans le point de vue traditionnel, formes, comme nous sommes, de l'information. Il y a une espèce de topologie de l'information, et il s'apprête que il a beaucoup de facettes. Et c'est seulement l'une des facettes, et d'autres facettes que je ne parlerai pas aujourd'hui, avec d'autres étudiants. Et peut-être, ce matin, on m'a mentionné sur plus de machine-learning, et surtout de la propagation de la théorie, d'understands pour la seté homologique aussi. Mais ce n'est pas la même homologie, elles sont relatives, mais ce n'est pas la même. Et ici, c'est différent, parce qu'ici, il faut comprendre qu'il y a un nouveau genre de géométrie pour la motion, en fait, pour les mouvements volontaires, et surtout des humains, où on travaille avec Alain Bertot et d'autres personnes, mais en général pour les animaux. Et la théorie, c'est que nous faisons beaucoup de mouvements, mais chacun a besoin d'une sorte de géométrie pour être organisé. Et cette géométrie, qui est personnelle, est, en un sens, sans point. C'est une géométrie normale en point, dans le monde physique, mais la géométrie que nous utilisons pour préparer la motion n'a probablement pas de point. Donc ici, c'était plus conscient, que le topos soit pertinent à ce point. Et dans ce paper, un tableau fait plusieurs choses, mais en particulier, ça fait qu'il y a des firmes, toutes les vérifications, que tout est naturel du point de vue du topos. Et il fait aussi une extension originale de la première théorie que je vais mentionner. Donc ce paper n'est probablement plus facile à lire que celui-ci. Je vous présenterai aussi un autre aspect. Et peut-être que je commence. Donc, en même sens, nous sommes arrivés au topos, dans un très concrétant set, dans la catégorie des chiffres, sur des objets. Mais vous verrez que ça correspond exactement à ce que Grottenlick, ou Grottenlick et Verdié m'ont spécialement dit, que tout ce qui a un genre de localité, pour exemple, est important pour le topos, que le topos soit prêt à commencer par un chiffre, que le télésisme est un chiffre, c'est l'équivalent de la compréhension de la localité. Et donc je commence avec ce qu'on appelle la catégorie de l'information. Et je vous présente une présentation qui est dans le désir de François Pablo, qui a été créé pour répondre à une question de Gromov, que l'on a discuté aussi, il y a quelques mois, et parce que beaucoup de personnes, des 5 ans plus tard, ont essayé de comprendre la probabilité dans une façon différente, pour peut-être faire une proposition concrète de Kormogorov, qui est la première information, et puis la probabilité. Et spécialement, il y a Thaou et Gromov qui contribuent à ce point de vue, et je le fais indépendamment de cela, en commençant avec le fait que, généralement, quand vous avez un cours de probabilité, vous avez une probabilité, une probabilité civale, et des variables randomes qui viennent à mesurer la probabilité. Mais dans ce point de vue, vous avez vraiment encore plus d'importance à la variable, considérant le mesurement ou tout ce que vous pouvez mesurer ou estimer. Et puis, la probabilité, dans un sens, d'un statut secondaire avec respect à cela. Et pour Gromov, parce qu'il a été présenté dans ce set-là, dans le premier papier, il n'est pas une bonne idée de commencer avec un set, qui est un set omega, qui représente tout le possible knowledge. Et puis, vous regardez la probabilité comme fonctionnement sur un subset de ce omega, mais c'est mieux de commencer avec ce qui s'occupe vraiment, et que l'on mesure ou connaît quelque chose ou expérimente quelque chose. Et c'est possible de faire ça dans notre set-là. Dans ce sens, c'était aussi implicitement fait en partie, parce qu'on traite pas seulement une information classique, mais aussi une information quantité. Et dans la information quantité, vous n'avez pas un omega, mais vous avez un espace élevé. Et même dans ce sens, ce espace élevé n'est pas vraiment les choses fondamentales, c'est pratiquement, les deux sont pratiquement à organiser, mais c'est mieux de comprendre comment ils s'émergent. Et donc, vous commencez avec une catégorie, ou c'est une petite catégorie, et je vais donc, c'est à l'opposite de groupoïdes. J'ai des objets, et quand j'ai deux objets, j'ai dit qu'il y a à peu près une arrore, d'un objet à l'autre. Donc, il ne pourrait pas être une arrore, mais si il y a une arrore, il y a seulement une. Si il y a une, seulement une. Donc, c'est le premier axiom. Et nous avons besoin d'une chose qui est un objet final, qui, dans les deux conditions que je représente, représente la certainité, que c'est la plus ordinaire de l'arrore, sans probabilité dans le set classique. Mais vous le verrez, dans le set quantum, les choses sont un peu différentes. Et il y a ce objet final. Et quand vous avez, et vous avez l'action, qui est la plus importante, c'est le produit conditionnel. Et je vais commenter ce qu'on doit faire avec l'information. Le produit conditionnel signifie que si vous avez quelques arrores, qui sont pour le z, pour le x et le y, comme dans cet état, il existe un produit ici. Et ce produit est comme un produit catégorieux. Et c'est unique. Et ça fait le diagramme qui commette. Et c'est le premier axiom pour notre catégorie de l'information. Ce que ça veut dire, c'est que chaque x représente quelques mesures, ou quelque chose qui fait une discrimination sur le système. Le système, je ne sais pas ce que c'est, mais je inspecte le système. Qu'est-ce que c'est dans cette table. Et donc, j'ai utilisé ma main pour prendre quelque chose. Et il me donne une information, qui est dans un certain espace. Je vais l'expliquer. Mais cela signifie que celui-ci a moins d'informations. C'est celui-ci, c'est le corsoir. C'est celui-ci. Mais ici, c'est quelque chose de musulmane. Et ici, je fais un refinement. Donc celui-ci, on peut le voir, c'est un refinement de l'information. Par exemple, je vais l'enlever. C'est le premier axiom. Je vois cet objet, mais non, je adapte ma vision pour essayer de lire ce que c'est ici. Au premier, je vois que quelque chose est à lire, mais je ne sais pas ce que c'est écrit. Maintenant, je regarde et j'ai fait quelque chose de écrit. Et ce sera la topologie naturelle. Donc, vous pouvez, dans cette catégorie, prendre en fait ce qui s'appelle la topologie distraite. Bien sûr, à ce moment-là, on pourrait avoir une théorie plus refinementée, plus tard. Et c'est cette topologie, dans le sens de Grotendick. Et c'est le plus simple, dans le sens que ça signifie que si vous avez un objet ici, le set de cibles ou refinement, comme je le dis pour cet objet, c'est tout le sub-catégorie qui est venu à cet objet. C'est vraiment la notion de refinement, qui est équivalente à ce qu'il s'appelle cibles. Donc ici, vous pouvez mettre la restriction avec ce que vous parlez juste avant, mais le plus curieux est celui-là. Pour cette topologie, pour cette particularité, chaque cible sur le set, qui est ici, sur le côté, chaque cible est un cible. Donc, il n'y a pas de considération technique sur ça. Et ce qui signifie cette action, c'est que généralement, ce n'est pas possible pour prolonger les mesures mettes par deux variables. Donc c'est très usual, pas seulement en quantité, mais aussi dans l'observation classique. Par exemple, vos appareils visuels, envoyez l'information dans votre cerveau, et vous avez un autre type de celles pour ressentir l'embauchement ou pour ressentir la fréquence haute. Vous ne pouvez pas bords, vous readez très careful, et vous avez de bonnes informations sur comment quelque chose s'étend. Donc, vous ne pouvez pas. Mais si cette information ici peut être refinée, mais une observation, alors il y a un minimal joint, qui s'appelle la joint operation. Maintenant, c'est un point essentiel, mais ce n'est pas seulement. Pour une bonne théorie, vous avez des exemples qui ont plus. Et ces exemples sont des armes, si j'en prends, par exemple, un set omega, et je regarde ici un subset de partitions omega, c'est-à-dire qu'il y a un élément très intéressant, un algebre, qui est associé à un set, qui est le partition de cet état. Et si vous n'avez pas de partitions, vous avez toujours, donc, un partition est vraiment comparable à l'observation. Donc vous avez une priorité de l'un à l'autre, et chaque opération est un moyen de couper cet état en partie. Et si j'en prends une partition comme ça, et une autre partition comme ça, vous voyez qu'elle s'occupe, c'est la partition y, et c'est la partition x, et ici vous voyez la partition xy. Et les armes, dans ce sens, sont les normes. C'est exactement le refinement, ce subcovernement, que je disais que si cette partition est plus fine que cette, que je viens de partitionner, et maintenant je commence à partitionner plus, la même partition. Et dans cette catégorie, donc ici vous avez une catégorie particulière, je vais supposer pour simplifier que l'amégaise est finie, ici aussi je vais faire une simplification comme ça. En fait, ce n'est pas essentiel, parce qu'il y a, pour exemple, pas dans ce papier, mais dans un nouveau papier avec Juan Pablo, un étudiant des familles gauches, où ici vous avez un paramètre continuous, et puis les armes ne sont plus finies, et vous pouvez externer cela dans une situation non-finie. Mais ici, le problème est, dans ce sens, vous avez toujours une représentation. Et vous pouvez, ou pas, ça dépend, et ici vous devez être un peu plus précis, et donc vous faites plus de précision sur l'action, et vous supposez que, en fait, chaque variable est un set finit, correspond à un set finit, c'est-à-dire, ici je fais juste après, parce que c'est un objectif de la catégorie, mais maintenant je suis plus concret, quand je fais la mesure, j'ai quelques points. Et ce que je suppose est ici, chaque fois, c'est une subjection, c'est une de l'action, et l'autre action est, c'est une, l'action 2 est que si vous portez le espace qui correspond à le produit X, Y, quand il existe, est automatiquement invédé par les deux projections, ici, dans le produit de X et Y. En fait, tout ça élimine une situation très pathologique. Il semble un peu abstraite aussi, et c'est vrai que, en fait, si vous ne faites que ça, vous avez beaucoup d'exotiques exemples, montrant que ça ne confirme pas ce qui est vraiment l'observation de l'existence. Donc, les actions que j'ai ajoutées sont plus naturelles. Oui, EX est exactement le set de résultats possibles de l'observation. Donc, en papier, il y a une confusion, Pablo marche seulement avec un set. Donc, X, Y sont sets, mais j'ai préféré dire X, Y, Z sont l'observation de l'existence, comme des quantités observables et des variables. Par exemple, dans le cas de quantum, ici, le set final sera la collection de l'espace vector, c'est un flac, un flac orthogonal à l'espace vector, mais j'ai mentionné ici comme X, parce que, en fait, ce flac orthogonal vient de l'organisation de l'observation réelle. C'est un ordinateur auto-adjoint, un ordinateur self-adjoint, qui s'appelle X, ce qui est ce qu'il fait, c'est généralement l'observation de l'existence. Donc, ici, il sera plus comme le spectre de l'observation. En quantité de mécanique, ça pourrait être comptable ou pas ? Pas seulement, vous pouvez faire un espace finite quantité de mécanique. Par exemple, dans la information quantité, qui est appliquée, tout est finite, presque. Mais vous avez raison, ici aussi, l'expansion de l'émotion pour Gaussian, vous pouvez aussi dans la situation non-compacte pour les mécaniques quantitées. Et troisième, ce qui est plus important, c'est que vous avez un depth finite, et pour la compétition que je représente après, c'est très important. Il y a le fait que ce n'est pas possible d'aller à l'infinité, c'est-à-dire, si j'attaque sur X1 et je regarde l'arrore, qui vient de l'infinité, il y a un point de finite. Il pourrait être seulement un point de finite local, mais il ne peut pas être un point de finite de précision. Donc, c'est ici qu'il y a une hypothèse finite. Et si ceci pourrait décrire, ce set d'arrores est suffisant pour décrire le limiter dans la catégorie S, comme cette catégorie, comme ceci. Et pour chaque X, dans un set X, il y a un point dans le limiter projectif qui correspond. C'est une séquence maximale qui va à ce point. Donc, c'est l'action. Et sous l'action, vous avez une théorème, ça, en ce sens, dans la catégorie S, est équivalent à une subcategorie, comme on dit, S1, qui est inclus dans le produit de ce limiter. C'est-à-dire, vous pouvez le prendre comme Omega. Vous pensez que Omega a ce set. Même si, donc ce n'est pas vrai. Et même si, chaque fois que vous avez deux objets, comme ça, ils ne peuvent pas être mesurés, donc deux observables, comme ça, ils ne peuvent pas être mesurés. C'est-à-dire, l'embêtement naturel, qui est donné par ici, de cet objet dans le limiter. Le limiter est un subset du produit de chaque objet X, du set X. Donc, vous avez ce compatible, c'est-à-dire un expériment compatible, tout possible expériment compatible. Et chaque subset est embêté dans ce set, et c'est un rôtil, et vous devez avoir différents embêtements pour différents objets. Le fait que ce n'est pas joint implique que ce soit différent, parce que cette catégorie a cette propriété pour être importante. C'est un X, un X, un Y. Et donc le produit de X avec le set existe. Et il n'y a pas X, si il n'y a pas X, Y, il pourrait être que ça donne le même. Et ce que ça dit le CRM, en même temps, c'est pas seulement positif dans une restriction, il dit que ce n'est pas une observation qui permet d'en dire que X est equal à Y. Mais le fait que le rôtil X est equal à le rôtil Y est une sorte de relation équivalente à la limiter. Ce sont deux types de observations qui donnent la même information. Donc, en même temps, vous n'en perdez rien pour imposer l'équité dans la compréhension de cette catégorie. Et puis, dans la compréhension de ce que dit le CRM, c'est que si vous avez le saxophone, vous êtes dans le cas de partition. Donc, c'est une théorème de représentabilité de cette sorte de catégorie d'information. Donc, cette catégorie d'information est la base. Mais maintenant, il s'agit d'une probabilité ou quelque chose d'autre. Et la probabilité, c'est des modèles de probabilité. Vous voulez modèler votre connaissance avec les probabilités. Et donc, vous associer avec tous les objectifs, X dans la catégorie, deux axes, qui sont embêtés. J'ai appelé ça Delta X, comme un simplex, qui est dans, j'ai toujours dit que c'est le final de la pièce. Donc, c'est seulement le simplex made on the set X, c'est le sigma, of Px equal one. Et chaque Px est nulle ou positive. C'est la notion de probabilité. Et ici, vous pouvez prendre presque aucun subset. Mais le meilleur est de obtenir un complexe simplex. Nous travaillons principalement dans cette pièce, de la théorie simplex. Mais ça pourrait être plus général, plus non-linear. Vous voyez que cette axiom de joint, c'est un remarque. Si je regarde et cet état de partition, c'est exactement que vous avez une structure simplex. Parce que le X, Y dit que si vous avez deux fesses, en plus large, vous avez le joint de ces deux fesses, aussi dans le set. Donc, vous avez un complexe simplex. Et ce qu'ils font, c'est une formule co-variant de l'or, de l'es, deux sets. Et c'est l'axiom. Vous avez besoin d'avoir une formule co-variant. C'est-à-dire, si j'ai un arrore ici, j'ai un arrore naturel, ce qui est, donc c'est la projection de l'X. Et c'est appelé le push forward. Ou en probabilité, c'est nommé la margina. C'est que chaque fois que vous avez une variable qui est moins informative, strictement, vous avez une marginalisation de la probabilité. Donc, vous demandez exactement que la probabilité soit en train de chercher. Donc, c'est la première importante coopération de la probabilité, sur la probabilité, pour prendre la marginaisation. Et vous voyez que ce set-là, ici, pour considérer que la variable a un genre de localisation, et que l'autopologie a un refinement, est parfaitement compatible avec la margina. Mais il y a une seconde coopération qui est centrale pour l'information, qui est la condition. Donc, où est-il la condition ? Et je vous présente un moment un genre de manière naturelle pour faire la condition. Mais c'est plus facile aussi dans la théorie mathématique. Donc, je commence avec cette simplification. La condition ici va faire que la fonction, je prends non, Fx, je vois, c'est la fonction c'est réelle, par exemple, mais la fonction est en cette sub-set de probabilité. Et c'est cette fonction, et bien sûr, c'est une forme contre-variant. Là, vous avez plus de structure ici, et vous avez une structure naturelle de modules, et c'est naturellement un module dans l'autopose. Envers une structure ring dans le sens de l'autopose. La ring, ce qui est, je vous appelle cette ring Ex, et qui vient exactement de cette structure. Si je prends X, maintenant, je regarde chaque variable qui commence de X. Donc, j'ai E, une sub-catégorie. Et dans cette sub-catégorie, j'ai toujours un produit, tous les produits sont défis. Et donc, j'ai une ring ici. Donc, cette place, le site, je dis, n'est pas seulement le site, mais c'est aussi le site ringé. Il y a un chiffre naturel, dans les rangs. Donc, vous faites une compétition, qui, dans le cas de la partition, qui dit que, localement, vous pouvez multiplier ou refaire la partition. Et maintenant, c'est un module, c'est ce que c'est le lemma. Et ça, c'est une expression quand vous regardez dans l'un de l'un de l'autre. C'est une expression de Fubini. Ce qui dit que si j'ai maintenant deux variables, j'ai, pour exemple, X, Y, en, je dis, par un nom de langage, il y a quelque part, ici. Et j'ai, j'ai, ah, donc, j'ai, j'ai oublié de définir la, la action, d'abord. Qu'est-ce que c'est la action ? C'est important. J'ai, j'ai une fonction F, maintenant, sur la probabilité, qui change quelle probabilité il tient, pour la vraie, la vraie numéro. Et je peux faire le conditionnement par, pour la suivante. Donc, je prends n'importe X, Y, pour vous. Donc, ce qui est en AX, et je define Y, F, ici, de P, et c'est égal à Sigma, par toutes les possibles, euh, euh, value euh, of, of several Y, I take the probability of Y, and now, I take the function F, but evaluated to the probability condition by the value. And this formula, in fact was used by Shannon, in the study of information. Okay. And we, this is, this is in the sense the main formula you will consider. And, this is the kind of integral of the function F, which is very non linear, but you will see in the example, okay, on the fiber, okay, and you take the mean with this probability. So, in Juan Pablo, Vigno, so, you will see, they will, this will give, starting from that, Shannon theory. Okay. But, Juan Pablo Vigno will observe that if you take an exponent alpha, okay, and this alpha being any number strictly positive, okay. And if alpha is not one, in fact, you will get all the Salis theory, c'est-à-dire l'alternative, or to the usual limit, your aim of Shannon, you have this Salis theory, which is interpreted as a non extensive statistical equilibrium theory. And, which has also many application, for example, in biology now. And if you do that, so you have another possibility, that I use, and the lemma says that for both, in this case, you, you have eq said if you, if you reapply yes, y to zf, you have the same thing as if you apply directly the joint variable to f, so you have really a mod. So that's, that's not very difficult to, to verify, but it's not totally a triviality that you, you really use something of the probability to do that. And this is a structure given by which is, which takes the conditioning into account. So now, I have a module in the, in the topos. And, I come to the homology because it was the first observation before the invention of topos that in such categories you have what is meant a new objective and I will explain all of that, but because if I have time, perhaps I come to this, to this point, but you have a natural theory for every what is called left exact frontal, you have derivative frontal, which allows you to form topological invariant of this module. And so you define here I take this one. I will take hn of the trivial module. That is a trivial module is the module which every in every point x you only have the number. And I take the homology in this topos from this trivial module to the module which is f here fq which represent the probability. And in sense that is copied to on group theory. In group what is named the homology of a group is exactly made like that. You have a canonical module as I said to the group and now you take the home from air to this module and you take the derivative from top. This is the x from top exactly. Here homology is really the x n of the frontal home. Or x is the derivative from top of home. Exactly. This is a this is the definition we take now. And now I will concretely are made this this homology. That's the problem. Or perhaps what are what are this kind of of things. So it's almost impossible to use the definition with injectives that gottendic there. But by chance here you are we have a canonical in this case. Okay. This is the this it exists canonical projective resolution of air s which is a generalisation of which name the bar complex. And which allow to compute this this homology. So what are what are made how are made the element here. They are made by caution thing what is called co-cycle. Of dimension n. And an element in a co-cycle I recall f is given by family of function if x here of elements and probability of probability. So concretely what what you are here is a family of function indexed by each observable of which is guided by n and here x1 xn all belongs to a x and p is a priori a probability in qx. So you have all of them. And this co-cycle must be defined co-cycle this is caution and here you have co-cycle in cn which are given by an operator that is a kernel or a certain operator going from cn to cn plus 1. And perhaps I this this is very standard for example you can go to McLean books to to see all of that. It's very similar to what happens in group theory or even in algebra theory. It is a kind of generalization of a set of algebra and what is important is where the topos comes. Like it comes in this formula. I put before I understood that it was topos. I put by hand because if I don't do that I think totally absurd things even by using the good operator here you don't think something which correspond to information. To go something corresponding to information you must have this formula if you have x going to y you have fx of and if you take all the xi in ay you are less precise in the same sense and you can put this cycle then it is equal to the fy of x1 xn and here you can take yes marginal okay this is and this is a locality property that when you look at function of probability indexed by all the variables so and you want to interpret them as measuring some information and this is the fundamental property that is the fact that this function as function of the probability are localized in fact on the product on this variable they don't really depend of x they only depend of x1, xn and that's the fact that you compute the homology in the topos setting if you compute usual homology without being in the topos that is looking only at funtors on the seed homology is also funtors and you you don't have this property and so now what are the does your computation of homology by this projective resolution can it be understood as some type of chess homology or not see it is not really like chess homology homology is more for for objects that is for her yeah so you know that's you have really something that's the problem for funtoriality for example because here this module blocks the funtoriality yeah you will always work with something like isomorphism or not so far so i can no i don't believe it it can be defined by chess but oh so you probably there is other kind of what is i will tell you now theorem which is super silently difficult because in fact when you look at the equation you you get for cosine or the location you get a set of what are named because probability you see depends on continues even if you take only two states you have the probability which are given by point in an interval or at least we need three so you are too young girl and that I don't so you have here something continuous which appart et and what you get is a set of functional equation and this functional equation are very very many simple to look at them at the polylogarit in general polylogarit multiple polylogarit but they are not they they they are in fact the result say they are related but we don't know for example if it's all true for every end for the moment we have only a competition from for one and I take an example of course cycle so I don't want operator deep but it is not not difficult to imagine what is done an example of course cycle are given by the S alpha and there is a formula for S1 which is a Shannon entropy and it's fine of a variable x and probability so it is a one there will be co-cycle in z1 and so we know co-cycle in every dimension that's the problem is in on general they are also bound by it that is your you get because the homology I forget to say extend is equal to this canal divided by the image for the same operator but coming from C this is a definition of the chronology and this one will not be co-core bondary that is equal co bondary and which is given by the usual formula that is minus sigma of p of x and here you take the log you can take in bus 2 but you can take every basis here over x in x that is this one and the thalys 1 for alpha if and of 1 which is given by 1 over 1 minus alpha so it is a normalization sigma of p of x alpha minus 1 that is the thalys on top of probability and what they satisfy is this this equation is of f alpha of a joint which is equal to s alpha of x plus x point s alpha of y this is the action of condition and this is this was the starting it shows information the question it was even first by Shannon and in fact it is known by specialist of thalys theories that are also true for the thalys entropy so it tells you that how you depart from the independence of these two variable and here I can say that the cobandari operator is only the difference of that at the first level so you have generalization of that when you look and so the theorem is that in if I look in the complexe you look at the s you have I say sub complexe of some abla and the dimension of h1 in fact is equal to the number of connected components here for that I need an hypothesis that is each time I have two variables x and y which have a joint for in looking is x and y I have sufficiently many probability that is in fact this comology could be infinite dimensional that if but it is infinite dimensional every time the variable in sense are too far that is you you don't have probability able to make them together that if you if you look at the joint probability here I look at the joint probability p of x y here and it could be that for the joint probability I have not in the space q x y sufficiently many probability to generate at least a two dimensional parameter of probability and that's a necessary condition for having finite comology but what is important is that the generators are the s alpha fact if the only class interesting is the class of of the entropy that the entropy is such an interest of this approach in some sense every other characterization of entropy but it was the teremoin of Shannon this is the fact teremoin of Shannon but the fact that this formula characterize the entropy but to prove it or even to justify it you have to look at the collection of an infinite number of variables and here what is the advantage of that is that doing this toposwear you can look only in one category and you show that the only environment is the entropy without comparing different categories d'avis existe hypothesis et c'est racheter alpha equal 1 racheter alpha equal 1 oui pour pour tout alpha strictly possible en fait au 1er coma on est prudent pour alpha equal 1 et et pour alpha equal 1 c'est pas trop difficile pour de une question sur l'une seule fonction, qui est connue par l'information théorique de l'équation de Swerbeck, qui était connue par toute la solution de la solution de l'aéroportie. Pour Alpha, ce n'était pas connu. Et en fait, nous venons... C'est dans le papier de Juan Pablo. Nous venons d'une très amusante fonctionnelle. En fait, c'est une question fonctionnelle pour dire que vous avez l'équalité entre les deux de la fonction F. Parce que toutes ces fonctions F, a priori, peuvent être différentes. Le problème est de tenter de les identifier, comme dans l'équation Abel, par exemple, qui est connue par la collection. Et cette équation fait... pour être connu, une intervention très surprise de SL2Z. Et donc, il n'y a pas de temps pour le montrer précisément, mais le prof est différent. Pour Alpha, l'équalité, et pour Alpha, l'un différent de l'autre. Parce que c'est ça. Et donc, dans le sens, vous avez ici... le théorème, qui... fait l'opposé que, dans le sens, la comologie de tous ces types d'objets pourrait être interprétée comme une quantité d'information. Le problème est maintenant de composer H2, H3, etc. Et donc, les questions sont vraiment difficiles à résoudre. Mais... elles pourraient être. Peut-être qu'il n'y a que la comologie de l'une à l'autre, qui est non-zero, mais nous ne savons pas pour montrer ça. Alors, maintenant, combien de temps il y a ? 10 minutes. Donc, je vais seulement dire quelques remarques sur l'extension de ça. Tout d'abord, dans la situation de quantité, donc, dans la première situation, dans la situation de quantité, l'entropie, qui a été connu, est connu pour le phénomène. Donc, je dis que dans la situation de quantité, vous pouvez aussi commencer avec ce final de set. Donc, d'exemple, il y a un final de set d'objets. Donc, l'avantage de la définition que j'ai, qui n'utilise pas Omega, est que je peux appliquer dans cette situation. Mais, qu'est-ce que la probabilité ? La probabilité est que, maintenant, si je prends x, il correspond, je dis, à un phénomène de l'autogonal subspace, dans l'autogonal subspace. Et la probabilité ici est donné par les matrices positives de Hermitian. Qu'est-ce que c'est que l'autogonal subspace ? Je veux dire que... Oui, c'est vrai. C'est juste un phénomène. Oui. Et... Oui, c'est seulement... Parce que vous avez cette restriction de la joie. Vous pouvez prendre le produit seulement quand vous avez l'autogonalité. Mais c'est pour le produit. Ce n'est pas pour l'individu. Et la probabilité, ici, est donnée par ce genre de formule. Donc, c'est... C'est un phénomène x. C'est un phénomène variable. Et je prends l'autogonal... Donc, je prends la matrice Ro. Je définis la probabilité Rox a des probabilités ordinaires sur le espace. P, P, Py. Et ici, je prends une matrice Hermitian Roy. C'est un opérateur de positive Hermitian. C'est le genre de objectif que nous sommes. Et l'entropie, sur la main. L'entropie est donnée par le trac, le S, le Ro. Le trac de l'opérateur Ro, Ro. C'est... C'est un global. Nous pouvons aussi localiser le trac. Et ce que vous avez, si vous localisez le trac, en fait, c'est la relation qui est ici. Donc, je prends ce trac pour chaque pièce. Et je trouve que la commanderie, c'est la proposition, la commanderie de l'entropie localisée par le trac, c'est l'entropie normale. En fait, ce qui se passe par la probabilité ordinaire, que vous voyez ici. Tout le temps, vous avez une probabilité ordinaire associée à la probabilité contente. Et si vous regardez ce trac, c'est l'entropie, c'est encore un co-cycle dans la comologie. Mais en fait, c'est un commanderie. Donc, c'est quelque chose comme un trac de la transgression d'une classe universelle qui est donnée par l'entropie. Et par le cas de Quentin, vous killsz cette classe. La proposition de l'entropie de l'entropie et de l'entropie de Shannon ou de l'entropie de Thalys n'est pas la même chose de ce point de vue de la comologie. C'est pourquoi j'ai voulu l'insérer. Vous avez aussi le fait que le coulbac, le coulbac est la fonction. Il pourrait aussi générer la distance et c'est donné par cette expression sigma Pi logPi entre deux probabilités il peut aussi être localisé et vous pouvez généraliser la comologie à un module qui fait plusieurs probabilités qui viennent et en fait, ces probabilités quand vous avez plusieurs probabilités d'une seconde gradation d'une seconde gradation chaque sens est connu avec la première dans la formulae de la direction donc c'est aussi un recyclable et il n'est aussi non-zero dans la comologie mais la comologie n'est pas la même chose c'est pour plusieurs probabilités vous êtes aussi localisé c'est aussi dans H1 voilà, il existe aussi pour une extension pour les cellules et peut-être j'ai dit un H1 avant d'arriver pour parce que il y a un autre moyen pour qui est développé dans le papier pour mettre les conditions et le plus naturel de tout ça c'est pour l'arrivée c'est pour l'observation donc je vais juste vous remarquer parce que je n'ai pas le temps de développer ce point parce que c'est pas c'est un topos mais c'est un topos et où vous vous réplacez le ring par ce qu'il s'appelle monad mais aussi dans les catégories parce que ce qui se passe si vous avez une observation ça vous donne des valeurs de la mesure mais ce que vous faites maintenant dépendant de la valeur de cette mesure vous mettez un autre variable qui vous donne un autre variable et ainsi vraiment quand vous observez quelque chose vous faites cette sorte d'observation et vous pouvez faire ce que j'ai fait maintenant pour l'arrivée ordinaire vous pouvez faire pour l'arrivée de la variable et ça donne maintenant la probabilité qui arrive plus naturellement dans cet état elle acte sur ce que j'appelle un monad et ici la probabilité permet de donner une probabilité qui arrive sur la haine parce que ici vous voyez si j'ai une probabilité je peux considérer directement la condition de la première mesure sans votre fonction comme la première donc vous avez un homologie et vous regardez maintenant dans l'H0 et vous avez la fonction dans le C0 en fait ce que j'ai fait ici c'est seulement le type d'un iceberg c'est la fonction la première partie d'une plus grande homologie et si vous regardez la relation qui est satisfaite d'entropie c'est très intéressant, c'était connu par Fadeyeff c'est que quand vous êtes en fait dans le terme de condition vous pouvez mettre une famille de variables donc c'est plus général que la relation de Shannon et cette plus générale relation correspond à le fait que l'entropie est aussi consacrée dans cette ville où vous repliez l'algebra donc je finis avec le mouvement les idées ici en même temps vous avez une structure d'observation qui est faite par cette catégorie et qui vient à ce point qui est le point final mais quand vous préparez le mouvement ici à ce point quelque chose comme la catégorie de set et vous avez une géométrie et l'idée est une géométrie que par exemple j'ai un groupe de déplacement un groupe de déplacement et la géométrie est donnée par le groupe qui est la rotation d'au bout quand vous faites ça vous avez une géométrie de clé vous pouvez aussi faire des galilets que vous avez une mécanique ordinaire c'est le mouvement qui est exécuté et maintenant avec un alberto vous avez cette idée que ici vous pouvez avoir toute la partie du corps ou dans la préparation et cette préparation est délocalisée ou localisée mais en partie c'est très simple si je prends seulement un arreau pour exemple ici je vais prendre l'exemple du mouvement d'un objet mais maintenant je prends celui-ci et quand je fais ça j'ai mon corps et mon arreau et le fait c'est vous êtes le conjecteur c'est ça il y a plusieurs candidats vous pouvez définir ce qu'on appelle le posteur pour obtenir cet objet et il sera dans le même état par un groupe ou un groupe pseudo avec un un set de groupes définir le espace de pocteur c'est quelque chose comme celui-ci le posteur va être dans un espace plus large que l'espace utile parce qu'à moins je dois displacer l'objet donc le groupe est plus large en ce sens vous avez cette c'est la même catégorie qui est seulement une variable et ici vous avez ce diagramme d'objet et si vous regardez par exemple en temps c'est observé dans la préparation du mouvement ici vous n'avez pas un temps unique c'est-à-dire vous avez une relation dans le temps différent de la position mais vous avez aussi des indépendants donc la possibilité d'améliorer la géométrie ordinaire en regardant ce topos de la géométrie en ce sens, le temps de préparation pourrait devenir multidimensional par exemple c'est un avantage et juste la conclusion vous parlez de l'objet classif et dans ce cas de cette catégorie c'est le premier cas non trivial où vous avez deux possibilités c'est-à-dire que vous êtes fast, true ou vous ne savez pas et le fait que vous ne savez pas correspond exactement à ce qui s'appelle la redundancy c'est le fait que vous avez des éléments de ce groupe GA et qui dit que certaines postures sont équivalentes seulement avec respect à l'effectif mais elles ne sont pas équivalentes comme des postures je veux juste dire ça parce que c'est la première intervention pour moi de votre objectif classif parce que ici je ne vois pas l'objectif classif merci beaucoup quand vous avez dit quel formula vous m'avez dit qu'est-ce que c'était le formula ? oui je vous montre ce formula suppose vous avez cette situation donc 1 variable x et un set de variables et vous voyez la variable x xy et ici je mets la variable xy donc différents variables et quand je regarde l'entropie correspondant à la variable composite la variable qui donne comme résultat parce que c'est une partition donc vous partitionez le set et puis je partitione donc x partition et puis je partitione chaque subset mais en utilisant différents partitions et donc je prends une nouvelle partition qui est appelée mu x xy xn et je regarde l'entropie d'une certaine mesure c'est l'entropie pour la variable x et la probabilité plus sigma px xy et ici vous pouvez mettre l'entropie de la variable xy pour la condition x xy c'est la même relation comme la relation chandon qui dit que vous n'avez pas en général d'additivité, seulement les variables sont indépendantes et donc ici, en lieu de seulement un variable je regarde les variables m mais encore la relation est vraie vous avez mentionné qu'il y avait une connexion possible ou d'un genre il y a il est connu que l'entropie est ce qu'il s'appelle différentiel d'hélogarie si vous commencez pour l'hélogarie et vous le metz dans un de plus en plus et vous avez l'entropie et la question functionnelle pourrait être dérangée de la question fonctionnelle de l'hélogarie et donc il y a spécialement dans le set quantum une relation entre cette fonction et une fonction que l'on voit dans le work de Goncharov et donc le conjecteur vous avez quelque chose qui est lié à l'hélogarie différentiel pour l'hélogarie mais nous avons une discussion avec des spécialistes, pour exemple Gans qui est un spécialiste et il fait des tests pour montrer que parce que nous regardons les suivants pour l'H2 et H3 ce n'est pas l'hélogarie dans l'hélogarie vous avez l'hélogarie et ce n'est pas différent de l'hélogarie mais il y a une possibilité que c'est lié à l'hélogarie L1111 on n'a pas expliqué parce que la question ressemble mais il pourrait être formé avec tous les les mêmes ce n'est pas si facile et à ce moment il n'y a pas de temps et les étudiants sont effrayés par cette question et je ne sais pas donc peut-être une autre question donc votre présentation c'est très bon c'est un autre moyen de revisiter l'information qui a été construite pour Shannon c'est-à-dire le formula qui donne la façon dont Olivia vous a dit que ça donne un point de vue d'une autre discipline mais comment peut-il faire en comparaison à Shannon par le point de vue que vous avez je pense que l'exemple c'est ce problème de tracé oui c'est différent en fait ces deux problèmes sont en même sens duales l'exemple ici que vous faites pour tracé qu'est-ce que peut-il faire plus en termes de tracé pour les techniques classiques que l'on a en termes de tracé en fait c'est un problème d'insolver pour définir ce poste parce que les gens dans les robotiques parce qu'on travaille aussi avec Jean-Paul Lomo et ils utilisent un espace de paramètres et on regarde la relation entre le contrôle de tous les paramètres et l'effet mais il y a encore un espace et cette proposition c'est de comprendre le matériel pour poursuivre ce que l'on appelle une géométrie dans cette préparation et c'est un tout problème c'est le premier qui commence à travailler dans les russes des gens qui commencent avec Bernstein le téléphone était involved dans ce type de problèmes pour essayer d'avoir l'universal d'une dimension finale de comprendre ce que l'on contrôle essentiellement pour faire une motion il y a un structure et ce que l'on contrôle c'est encore un problème il y a Fettmann qui fait une hypothèse que l'on contrôle la threshold de la moteur mais il faut travailler dans un grand espace et ce problème est le structure de cet espace probablement il y a une relation entre les deux situations parce que ici c'est naturel sur tous ces paramètres pour mettre la probabilité et dire que ce que l'on contrôle c'est le processus ou la probabilité et ça pourrait être fait par ce qu'il s'appelle la localisation c'est pas seulement l'entropie mais aussi quelque chose qui utilise l'énergie qui pourrait être une priorité si vous faites des machines mais ici en ce cas ça pourrait être des choses physiques ce espace c'est que ce espace n'est pas seulement en géométrie la description du espace il s'occupe de l'énergie de la relation il certainement mélange de l'information et de l'énergie pour comprendre comment ça marche vraiment ces groupes actent sur quelque chose qui est un état internel et ces états internaux sont le support de la dynamique et cette dynamique utilise l'énergie de l'information et certainement aussi la quantité physique pas seulement l'information c'est-à-dire qu'est-ce qu'il s'agit d'une comologie qui est invariant de l'énergie et d'autres choses ? c'est une bonne question en fait un autre étudiant qui est Olivier Petre a développé la comologie T.O.V. pour comprendre la propagation de la compagnie et la propagation de la compagnie est équivalente pour le management de la liberté d'énergie et la liberté d'énergie appareillée dans cette théorie mais je ne sais pas la relation entre celle-ci et celle-ci qui est présente il pourrait être relative mais je ne sais pas mais il y a encore un genre de comologie pour cette quantité et la structure de T.O.V. en ce cas bien sûr, parce que c'est la comologie naturelle il y a des T.O.V. mais rien que je présente