 Très bien. Donc je voudrais remercier d'abord les ordinateurs Jocelyn et George pour l'invitation à cette conférence et l'occasion de venir dans cet endroit prestigieux. Donc aujourd'hui je vais présenter en fait un peu une synthèse de travaux en collaboration avec plusieurs auteurs. Donc en fait on s'intéresse à revisiter en fait un problème classique en mathématiques. Donc en fait on veut revisiter un sujet classique en mathapie à savoir le contrôle classique qui a beaucoup d'applications évidemment en économie, finance, biologie. Et en fait on se représentait en fait d'en développer une nouvelle approche pour aborder ces problèmes de contrôle classique. Et l'objectif est principalement d'arriver à donner une nouvelle représentation probabiliste des équations en fait d'Amilton-Jacoille-Bellman, donc qui sont les équations du contrôle classique, avec en vue essentiellement des méthodes numériques pour la résolution de ces équations. Alors pour introduire le sujet, je vais partir de l'équation suivante, donc une équation semi-inaire, donc elle est linéaire en le terme du second tort dont ici delta c'est de la placien, et la non-unilarité porte seulement sur le terme de la déivée première à travers la fonction G, donc la fonction parabolique avec condition terminale petit H. Et l'exemple typique auquel on pense c'est le cas où la fonction petit G est une fonction amiltonienne, c'est-à-dire une fonction de cette forme, c'est-à-dire une transformée, c'est-à-dire une transformée de la finchale légende d'une certaine fonction petit F. Alors dans ce cas, il est bien connu que l'équation semi-inaire est en fait l'équation de la programmation dynamique, l'équation d'Amilton-Jacoille-Bellman pour le problème de contrôle classique suivant. Donc c'est un problème où l'état du système X est contrôlé par le contrôle alpha, donc alpha c'est un processus continu, ou ce qui est important ici c'est que le brunien, le bruit est fixé, donc je suppose qu'on ne peut pas toucher au bruit à l'invariance du brunien, et ce qu'on peut contrôler uniquement c'est le terme de tendance. On peut diriger le drift, la tendance de l'état du système, et l'objectif c'est de maximiser sur tous les contrôles sur le drift, qu'il y a une certaine fonctionnelle qui dépend de la valeur terminale de l'état et d'un gain courant qui dépend de l'état et du contrôle. Dans ce cas-là on sait que cette fonction V va satisfaire cette équation. Alors en principe on peut dire qu'une telle fonction V est une représentation probabiliste de cette équation, mais elle n'est pas très utile en pratique, puisqu'elle fait intervenir le processus X qui n'est pas un processus simulable à cause du contrôle. Bien entendu, il n'est pas possible de simuler pour toutes les valeurs du contrôle alpha, ce processus et donc on ne peut pas utiliser pour calculer la fonction V à partir de sa définition en tant que problème de contrôle scastique. Alors néanmoins on a une représentation probabiliste de cette équation cellulinaire. En termes, grâce à la théorie des équations étrograde, donc introduite par Pardoupin, qui s'exprime à travers cet objet, donc on a Lebronien qui gouverne l'état du système, donc qui va représenter la composante forward. On se donne alors la condition terminale, HWDT, le générateur, et une solution de cette équation étrograde consiste en la détermination d'un couple de processus Y adapté Z, donc adapté par Pardouponien, qui soit solution pour toutes les dates avant la date amalgrantée de cette équation. Et donc le résultat donc majeur de Pardoupin, Pardouepin, c'est de l'is en fait la solution d'une telle équation étrograde en fait à la solution de l'EDP cellulinaire à travers cette relation, donc Y de thé, c'est V de thé, W de thé. Et quand V est régulier, Z c'est essentiellement le gradient de V. Donc cette formule... C'est le même fait que la valeur ? Oui, tout à fait. Donc W c'était Lebronien qui gouverne l'état et V c'est ce V là en fait. Donc cette formule de représentation peut vraiment être comprise comme une formule de Feynman-Cac généralisée puisque vous voyez que si vous prenez l'espérance conditionnelle de cette relation, donc ce terme va s'enlever, ok, donc vous voulez avoir irrété il y a l'espérance conditionnelle de cette partie et dans le cas où G dépend pas de Z, c'est-à-dire dans le cas de Dépélinière, on retrouve la formule Z de Feynman-Cac. Et donc là, c'est une généralisation au cas des Dépélinière. Et ce qui est intéressant dans cette formule, c'est qu'elle ne fait intervenir que Lebronien qui, lui, est parfaitement simulable au contraire de la formule du controscristique. Et donc à partir de cette représentation, donc ça a inspiré une littérature importante sur la discrétisation et la simulation de telles équations, ok, à partir de simulation Montécarlo du Lebronien et donc qui conduit donc à un schéma probabiliste pour la résolution de l'EDP Séminaire Petit V. Ok, et donc si on revient au cas du contrôle, donc lorsque G est la mitognie à social fonction F, donc le point-clé, ce qui se passe dans cette représentation c'est que le terme de contrôle alpha, ok, il a disparu, en fait, dans cette représentation. En fait, il a disparu grâce, en fait, au théorème de Gersenhof, qui a permis d'éliminer le drift et de le mettre, en fait, dans la fonction petit G. Ok, et donc ça veut dire que si on regarde les lois de probabilité du processus contrôlé X alpha soupé, en fait, elles sont toutes équivalentes via le théorème de Gersenhof. Donc c'est ça, en fait, qui fait marcher les choses et qui fait qu'on est capable de, malgré le fait qu'au départ, on part d'un processus de problème contrôlé, on élimine le drift à travers ce champ de probat, on l'injecte dans le G et on discrétise et on simule cette équation. Alors la question naturelle qui se pose alors, c'est maintenant, si au lieu de mettre le contrôle sur le terme de tendance, ok, on met le contrôle, ok, sur, devant le brognin, c'est-à-dire maintenant, on n'a aucune idée de ce qu'elle, aucune idée de ce qu'elle, la variance devant le bruit de notre système, ok, mais donc on a un contrôle alpha juste devant le terme du brognin, ok, donc ça, en finance, c'est lié à ce qu'on appelle tous les modèles à volatilité incertaine, donc qui sont très développés actuellement, ok, donc je reprends le modèle comme tout à l'heure, sauf que ici maintenant alpha est le contrôle lié dans le drift, non, il est juste devant le brognin, ok. Donc si maintenant on regarde l'équation du contrôle associé, ok, donc j'ai éliminé le temps A, j'ai rajouté un problème de contrôle, sur la valeur terminale de cette process contrôlée, eh bien on voit que la fonction V va satisfaire, cette fois-ci, une équation qui va être non-linière, ok, en le terme du second ordre, ok. Donc à travers cette fonction grand G, ok, qui a cette tête-là, alors évidemment, quand l'ensemble des contrôles A est réduit dans le temps, ok, j'ai une identité, on retrouve le Dp linéaire qui est en fait le Dp de la chaleur, mais sinon, ok, dans ce cas-là, ok, l'équation qui est ici, on peut le voir comme ce qu'on appelle une grand G, une grande G, une grande chaleur, au sens où le grand G, ok, il est juste devant le terme de dérivée seconde, ok. Donc ça c'est lié à ce qu'on appelle la théorie des espérances non-linières ou des G espérances non-linières. Et par rapport au cas du contrôle sur le drift, cette fois-ci, si on regarde la loi, en fait, du process contrôlé, B alpha qui est là, cette fois-ci, ok, contrairement au cas où on avait le contrôle sur le drift, et on pouvait appliquer le terme de gasneur pour éliminer le brunien, cette fois-ci, toutes les lois à P alpha vont être des familles de probabilité qui sont singulières, ok. Donc on n'aura plus une mesure qui va dominer tous les autres. Donc là, on va entrer dans des... Il a sorti des considérations techniques beaucoup plus difficiles dès lors qu'on travaille plus sur des mesures de probabilité équivalentes. Alors, donc... Donc, les questions auxquelles donc on se pose, alors dans ce cas-là, c'est bon, est-ce que néanmoins, on peut arriver à donner une représentation probabiliste, ok, donc c'est-à-dire une formule de Feynman-Cac pour de tels EDP non-linéaires, donc associés à ces... les équations d'Amitan Jacobi du contrôle scastique, où on a du contrôle, donc, sur le terme de tendance, mais aussi sur le terme de volatilité, ok. Et à partir de ça, est-ce que ça peut permettre de produire un schéma numérique pour de tels équations complètement non-linéaires, ok. Donc ça, c'est dans le cadre marcoviens, et puis, si on veut aller au-delà du cadre marcoviens, on regarde des choses des systèmes plus complexes, ok. Est-ce qu'on peut traiter au cas de non-marcoviens, c'est-à-dire lorsque l'état du système peut dépendre non seulement de sa date amnête, mais aussi de tout son chemin passé. Alors, en fait ces questions, donc on intéressait pas mal de personnes, donc il y a eu des progrès importants ces dernières années, ok. Donc notamment, ce qu'on appelle la théorie des G-expectations, donc le grand G, en fait, exactement le grand G que j'avais introduit tout à l'heure, qui sont liés aussi à la théorie des, ce qu'on appelle des équations barcoires de second temps, où en fait, on reprend le cadre que j'avais décrit tout à l'heure, et on travaille, ok, dans le cadre de mesures singulières, ok, donc non dominées. Donc ça, c'est des choses assez profondes, assez techniques qui utilisent le travail, avec de l'analyse quasi-sûre, donc c'est les travaux de pains, honneur, tous les angles, Denis, Martinie, etc. Et donc ici, ce que je voudrais proposer, c'est une approche, donc une autre approche totalement différente, basée sur, ce qu'on appelle une méthode de randomisation du contrôle, donc je vais expliquer dans un instant, mais donc en quelques mots, les caractéristiques principales de cette approche, sont quand même, elles vont permettre de pouvoir travailler de façon très générale, sans aucune hypothèse d'électricité sur le coefficient de diffusion, donc en particulier, ça inclut le cas des terministes d'ailleurs. Le point important, c'est que on travaille sous une mesure de probabilité, donc on va éviter en fait tout ce qui analyse quasi-sûre, tout ce qui est mesure singulière, et peut-être le point le plus important, c'est que ça va permettre, de conduire en fait à un schéma réellement implémentable pour la résolution de ces équations complètement noénaires. Alors, voilà en fait l'équation générale qu'on va considérer, donc une équation complètement linéaire, donc j'appelle ça l'équation d'AGB généralisée, donc c'est une équation parabolique du second torse, donc vous avez un paramètre petit A, qui intervient ici, donc devant le terme du premier ordre, ok, aussi ici, devant le terme du second torse, ok, et puis, éventuellement, donc ici, ok, donc j'appelle... Le cas généralisé question d'AGB, c'est qu'en F, dépend que de X et de A, ok, donc là on permet également une dépendance, ok, en la fonction V et son gradient, ok, on met les hypothèses assez standard, ok, bon, à comparer de B, C, M, F aussi, toute la sorte que le problème est bien posé et on sait qu'il y a une unique solution, bon, sans viscosité, à une telle équation, ok, donc la question qu'on se pose c'est, est-ce qu'on peut en donner une représentation probabiliste, ok, de cette... de cette Dp. Alors, donc le cas où F, la fonction F qui apparaît dans l'équation du slide précédent et ne dépend que de X et de A, ça c'est le cas standard du contrôle strastique, c'est-à-dire que ça correspond en fait à l'équation du problème de contrôle suivant ou X, donc c'est l'état du système, avec des rives B et des termes de solution sigma où on peut à la fois contrôler alpha, donc le contrôle qui intervient à la fois dans le terme de drift et dans le terme de volatilité, ok, et on cherche à maximiser, ok, sur... sur tous les contrôles, donc on maximise l'état du système, ok, une fonctionnelle de gain dépend de l'état du système et de gain courant, ok, donc ça c'est l'équation, c'est le problème de contrôle strastique dans sa formation générale, ok, qui conduit à l'équation non linéaire que je vous ai présentée dans la slide précédente. Bien. Alors, donc l'approche, en quelques mots, l'idée de l'approche c'est quoi ? Donc ça va être de, en fait, de remplacer le process de contrôle alpha, qui n'est pas dans l'équation de diffusion creurée, par un processus d'état auxiliaire, donc exogène, qui va... qui va se balader dans... dans l'espace grandat, donc dans l'espace des contrôles. Donc, en quelque sorte, c'est comme si, en fait, on randomisait l'espace des contrôles. Et on va voir que, en procédant ainsi, on va pouvoir en donner une représentation de type Feynman-Cac, ok, c'est-à-dire, en fait, une représentation en termes d'une équation retrograde, au moyen d'un processus forward, qui va être complètement simulable une seule, une unique mesure de probabilité, ok. Deuxième aspect important, c'est, bon, il y a plusieurs façons de randomiser le contrôle, on va le randomiser, en fait, avec des sauts. Alors pourquoi des sauts ? Parce que, on va voir que ça conduit, en fait, c'est la rendition par des sauts, c'est ce qui va conduire, en fait, en pratique, un schéma qui va être implémentable. Et grâce à cette rebondation, on va pouvoir, en fait, bénéficier des méthodes de Monte Carlo pour résoudre ces problèmes, éventuellement en grande dimension. Donc grande dimension, ici, veut dire, à la fois, grande dimension dans l'espace d'État, X, mais éventuellement aussi grande dimension pour l'espace de contrôle grand 1. Alors, voilà, en fait, l'étape de randomisation du contrôle. Ok, donc, qu'est-ce qu'on fait ? Donc, on introduit, dans le problème initial, l'État, le système X est uniquement conduit par un bronniens. Là, on introduit, en fait, une mesure aléatoire, donc, indépendante de W, une mesure de poisson aléatoire. Ok, donc, déterminé par ces les temps de sauts T.I. Ok, et des marques, ok, zetaï. Ok, donc, les marques qui interviennent à chaque instant de saut. Avec, donc, l'hypothèse, c'est que, cette mesure de poisson a une intensité finie, l'âme d'ADA, qui va, qui va avoir, comme support, tout l'espace de contrôle grand 1. Ok, et, on lui associe à cette mesure de poisson le processus I2T. Donc, qu'est-ce que ça I2T ? I2T, c'est un processus purement à saut. Ok, qui va être constant par mon saut, et qui va être, qui va sauter aux instants de saut du poisson, et qui va être égal à la marque zetaï entre deux instants de saut. Ok, donc c'est le processus qui saute en TI et qui est constant par mon saut. Ok, et l'idée, c'est de, dans la dynamique du processus contrôlé, ok, je remplace alpha par I, simplement. Ok, donc, en fait, on a un nouveau processus, enfin, un nouveau processus, oui, un nouveau processus avec les mêmes coefficients, mais sauf que je remplace alpha par I dans les coefficients. Donc, il faut voir, donc maintenant X, donc ça, c'est facile, le processus X n'est plus un processus contrôlé. Ok, c'est un processus qui, ce qu'on appelle en fait un processus à changement de régime. Ok, donc les coefficients vont changer, en fait, aux instants de saut, du processus de saut. Ok, donc c'est un processus de changement de régime. Et maintenant, ce qui est marcoviens, c'est le couple XI. Donc XI, maintenant, est un processus marcoviens dans l'espace Rd-Croix-A. Ok, et donc là, on travaille dans une filtration élargie, donc la filtration engendrée par le bronien, mais maintenant, également engendrée par le processus de poisson. Ok, et le point important, donc on verra plus tard, mais c'est que le couple XI, lui, il est parfaitement simulable. Ok, ok. Donc, voilà. Et donc maintenant, voilà, donc voilà en fait, la représentation probabiliste de notre problème. Alors, donc maintenant, on travaille, donc le processus forward, ok, c'est le couple XI, donc qui est le processus de Markov sur le, ok, et on travaille dans la filtration engendrée par le bronien et la mesure de poisson. Donc XI étant donné, donc le processus forward, ok, je vais chercher une solution donc à ce problème, maintenant, j'ai le bronien et j'ai la mesure de poisson compensée, que j'appelle mutile. Et donc, donc pour l'instant, oublions cette contrainte, donc qu'est-ce que je fais ? Je cherche un couple YZU, ok, qui soit solution de cette équation. Ok, donc comme avant, j'ai le Y, j'ai le Z, mais maintenant, j'ai une composante supplémentaire qui est le U, et c'est au fait que j'ai introduit l'alière supplémentaire du bon bronien, donc j'ai une composante supplémentaire. Ok, donc je cherche à résoudre cette équation. Donc ça, en fait, on peut voir ça comme une extension de la théorie de part d'Aupagne, c'est la, ce qu'on appelle les équations retrogrades, avec SAU, puisqu'il y a la composante de SAU supplémentaire. Ok, et là, donc le point crucial, c'est que maintenant, parmi les solutions à ce problème, ok, j'impose, je cherche les solutions qui vérifient que l'intégrant qui apparaît ici, le U, ok, je lui impose d'être négatif. Ok, donc à cause de cette contrainte, ok, donc on doit relâcher en fait l'égalité là, donc on impose c'est pas régal, et a priori, il peut y avoir plusieurs solutions à ce problème. Donc, tu vois, moi, si F dépend pas de, F dépend qu'on y c'est Y, vous voyez que si Y est une solution, alors quand vous rajoutez Y n'importe quelle constante, ça va encore être une solution. Donc c'est pour ça qu'on impose une condition de minimalité parmi toutes les solutions, toutes les couples Y, qui vérifient cette relation. On va chercher celle qui est minimale au sens où la composante Y est plus petite qu'y, ok. Donc voilà, donc ça c'est ce que j'appelle une équation forward, forward c'est le couple X, Y, backward c'est le triplet Y, Z, Y, avec contrainte de saut poétif qui est cette contrainte sur le terme de saut. Ok. Donc ça c'est un objet probabiliste. Ok. Et voilà. Donc ça c'est, et là voilà le résultat, donc, le premier résultat important, déjà, le problème bien posé, donc il existe une solution minimale unique à l'équation retrograde grisadie. Et donc c'est là la formule des fêtes mancaques, c'est que la composante Y de cette solution minimale est égale à V de T de XT. Ok. Ou V est précisément la solution de l'équation d'AGB non-linear. Ok. Donc ça on peut voir ça comme une rebranche en fête mancaque d'AGB. Donc on lit en fait la solution d'AGB à la solution retrograde à travers le couple X le process de changement de régime. Alors, alors pourquoi en fait, pourquoi on a cette relation ? D'où vient en fait, comment on montre ça ? Bon, je vais pas faire la preuve, bien sûr, mais juste l'intuition, enfin, si on peut en avoir à ce niveau-là. Alors, je rappelle que le couple XI en fait est en fait marcovien. Donc, comme on regarde des équations backward marcoviennes, c'est pas trop difficile de voir que la solution de la backward irritée va être une certaine fonction déterministe de T et puis du couple marcovien XT XT. Donc ça, c'est essentiellement parce qu'on travaille dans un cas de marcovia. Alors, si il n'y avait pas de contrainte de saut, si on n'avait pas imposé que le U était négatif, alors, la fonction petit V qui serait là devrait satisfaire en fait une EDP seminière, comme ce qu'on avait dans le cas seminière, mais intégrodifférentiel à cause du terme de saut. Donc on aurait en fait une équation seminière intégrodifférentielle en TXA. Et en fait, grâce au fait qu'on est imposé la contrainte de saut négatif, ça, ça va impliquer que la fonction V va en fait, à posteriori, ne plus dépendre de l'argument petit A. Ici, donc en fait, on a uniquement une option de T de XT et, grâce à le fait que V ne dépend pas de A, c'est ça qui va permettre de passer d'une équation seminière intégrodifférentielle à une équation non linéaire sans terme intégrodifférentielle. Donc c'est ça, en fait, le point-clé. En fait, le point-clé, c'est vraiment ce troisième point, éliminer la dépendance de V en la composante A grâce à la composante de saut, la contrainte de saut. Alors, maintenant, comment exploiter cette relation pour en déduire un schéma numérique pour la résolution de HB. Donc autrement dit, comment discrétiser, simuler, en fait, le réseau de numériquement, cette équation est trop grande. Alors, première étape, c'est de simuler le processus XI, le processus de change de régime. Donc ça, c'est facile. Donc je rappelle que mu c'est une mesure de poisson, associée à une certaine tendance, c'est lambda DA. Donc, les temps inter-arrivés, donc, ils suivent une voie exponentielle, de paramètres lambda, qui est donc l'intégrale de lambda DA. Je rappelle qu'on a supposé que lambda est une mesure finie. Les marques, donc elles sont idées, puisqu'on a pris une mesure de poisson, et elles vont suivre une distribution, donc les lambda DA renormalisées. Alors qu'on sait simuler lambda DA, on est capable de simuler les marques, on sait simuler les temps, et donc, on sait simuler parfaitement le process purement à solidité. Ok ? Une fois qu'on simule parfaitement solidité, après, pour X, on lui applique un schéma de l'air classique. Ok ? Donc, on discrétise l'intervalle de temps et au grand T. Ok ? On patte temps delta TK, et puis on fait un schéma de l'air en discrétisant les incréments du manbronien. Ok ? Et donc, de cette façon, on simule complètement, enfin, pas parfaitement, on simule le couple XI. Bien, donc une fois qu'on a simulé le couple XI, maintenant, il faut simuler le Y. Ok ? Donc ça, c'est le schéma de discrétisation de Y. Donc ça, c'est un schéma classique qui est backward. Donc, on part de la condition terminale. Ok ? Donc ça, on a simulé X. Donc ça, c'est la condition terminale. Et puis, on revient en arrière de la façon suivante. Donc, on suppose qu'on a calculé Y bar à date TK plus 1. Donc, pour calculer à la date TK, ok ? On va d'abord commencer par prendre cette espérance conditionnelle. D'accord ? Alors, bon, dans le cas du contrôle, F dépend pas de Z. Donc, en fait, la troisième ligne qui est là est inutile. Mais là, je l'ai rajoutée. Dans le cas général, où F peut éventuellement dépendre de Z. Ok ? Mais bon, si vous placez dans le cas du contrôle, c'est tout à si standard. Vous pouvez oublier cette ligne. Donc, vous calculez Y bar. Ok ? Uniment, à partir de la valeur de la date TK plus 1, en prenant cette espérance conditionnelle. Et donc ça, en fait, cette première étape, c'est l'étape classique de discrétisation des équations vétrogrades s'il n'y avait pas de contrainte. Ok ? Et là, en fait, la contrainte de SAU négative, comment elle se traduit d'un point de vue numérique. Ok ? C'est exactement, en fait, la ligne qui est écrite ici. Ok ? Donc, on prend l'espérance conditionnelle de la valeur qui est au-dessus. Donc, l'espérance conditionnelle, c'est par rapport, je rappelle, à la filtration, en jourie à la fois, par le bronien et la mesure de SAU. Donc, on a calculé cette valeur-là d'Ateca. On reprend son espérance conditionnelle, sachant que la valeur du SAU est égale à Petita. Ok ? Et on maximise toutes les valeurs possibles de Petita. Ok ? Et ça, ça vous donne la valeur Irédebar-Tecca. Ok ? Et puis on revient ainsi de suite jusqu'à date 0. Alors, si on regarde à peu près en globalité ce schéma, ça ressemble à un schéma de type pro-amessoriennamique, c'est-à-dire, voilà, on part de la fin et puis à chaque étape on calcule des suprémomes d'espérance conditionnelle. Ici, la caractéristique, disons, nouvelle, c'est que les espérances conditionnelles, ici, sont prises par rapport à un processus non contrôlé, randomisé. Donc, en l'occurrence, le processus XI. Ok ? Et on prend ensuite le suprémome par rapport à la variable d'état auxiliaire petit i. Ok ? Donc c'est ça, disons, le schéma. Alors, en pratique, donc, quand on veut implémenter ce schéma, ok ? En pratique, bien sûr, ce qu'on a besoin, c'est de calculer les espérances conditionnelles qui apparaissent à chaque étape. Ok ? Et donc, pour calculer ces espérances conditionnelles, il y a plusieurs méthodes qui ont été développées dans les théâtures. Un méthode par quantification, calcul malavent, regression empirique. Et en fait, il apparaît que, dans notre cas, la bonne méthode, disons la méthode efficiente, à cause de cette opération où on prend le suprémome à chaque date, c'est, ce sont les méthodes de regression empirique. Ok ? Donc, les méthodes de regression empirique, qu'est-ce que ça signifie ? C'est en fait, l'idée est très simple. Donc, on part de la définition de ce qu'est une espérance conditionnelle. Donc, c'est la meilleure approximation L2, verbatoire, lorsque je projecte sur l'attribut pour lequel je prends l'espérance conditionnelle. Et, la réduction P consiste en fait à, on se donne une base de fonction. Ok ? Donc, si je veux calculer l'espérance conditionnelle d'ATK, donc je me donne une base de fonction. Ok ? En X et Y, c'est par rapport à l'attribut en général par X et Y, le couple d'État auxiliaire. Ok ? Et puis, l'argument mine en espérance, je le remplace par un argument mine sur des espérances empiriques. Donc, en pratique, c'est-à-dire que je simule un échantillon de mon process forward. Ok ? Et je fais une régression des moindres carrés de la variable dont je veux prendre l'espérance conditionnelle. Ok ? Donc, en fait, donc, ok ? Donc, ces méthodes récempe, évidemment, ont beaucoup d'analogies avec les méthodes d'éléments finis dans les méthodes déterministes. Ok ? Mais, ici, le point important, c'est que, voilà, on calcule, c'est, on calcule, donc, cet argument mine, donc, qui se ramène, en fait, à des méthodes de régression moindres carrés, ok ? En se basant le processus, le processus auxiliaire, régime, switching, X et Y. Alors, ensuite, comment on calcule, donc, ça, c'est pour calculer l'espérance conditionnelle. Après, dans le schéma, à un moment, on doit calculer le suprémum par rapport à la variable petit A. Donc, comment on calcule ça ? Tout simplement, donc, l'espérance conditionnelle, donc, l'espérance de la réission empirique, donc, c'est une certaine fonction de X bar TK et de A. Et ça, on calcule, comme fichapo de K, en fait, c'est une fonction qui a été projetée sur notre base de fonctions en X et A, dont l'argument, l'argument max là-dedans, ok, il va être déterminé, de façon complètement analytique, dès lors qu'on sait donner, en fait, les fonctions de base sur lesquelles on projette. Donc, ça, c'est aussi un aspect important de cette méthode. C'est que, contrairement au méthode du contrôle classique, ou en fait, pour calculer ce max, on doit parcourir tout l'ensemble des contrôles, ok, ici, dès lors qu'on se donne une base de fonctions, ok, le contrôle optimal, il peut être obtenu de façon analytique, dès lors qu'on sait donner le choix des bases de fonctions sur lesquelles on projette. Donc, ça, c'est un aspect aussi intéressant de cette méthode. Alors, maintenant, en pratique, ok, donc, on a le schéma un plémentaire suivant, le premier schéma, donc, on part d'un condition terminale, les espérances commerciales, on remplace par les espérances de la réission empirique, ok, et puis, voilà, donc ça, ça nous donne un premier algorithme dont on peut montrer essentiellement qu'il est qui va donner en fait, un biais supérieur, ok, essentiellement comme conséquence de l'égalité de Jensen. Un deuxième schéma possible, ok, dans le cas des problèmes de contrôle, c'est de prendre à chaque étape l'argument max dans les espérances qui apparaissent dans le schéma nuérique, ok, et à partir de cet argument max qui s'exprime comme une fonction feedback de l'état du système, ok, on simule un processus forward où on remplace ok, un chapeau cas dans la dynamite du système, ok, donc ça, ça nous donne un contrôle qui est un candidat pour le contrôle optimal et on calcule ensuite par Montécarlo ok, l'espérance empirique de ce processus d'état, donc ça, ça nous donne par contre, évidemment, si on prend une trajectoire particulière du contrôle, ça donne une borne inférieure pour notre vraie valeur. Donc, avec ces deux algorithmes, en fait, on a un intervalle de confiance de la vraie valeur de notre problème. Ok, alors, après, si on veut regarder l'erreur qu'on fait ainsi par ces méthodes, donc l'erreur quantique, elle va se décomposer comme d'habitude en deux parties. Donc, il y a une erreur qui est due à la discretisation en temps, donc c'est ce qu'on vient de faire. Et puis, l'erreur qui est due à l'approximation des espérances conventionnelles dans ces méthodes de récits empiriques. Donc, une erreur qui va dépendre du nombre de simulations et du choix des bases de fonctions qu'on a prises. Alors, dans ces exposés, j'ai essentiellement regardé l'erreur due à la discretisation en temps. L'erreur qui est due aux approximations d'espaces sociales a été analysée dans la thèse de Nicolas Angredet qui a sonnu il y a quelques semaines. Et en fait, l'erreur, voilà, donc là, c'est le résultat qui donne l'erreur qu'on fait par cette discretisation. Donc, je rappelle y tk c'est la vraie valeur de notre problème. Y bar pi tk, donc c'est la valeur donnée par le schéma numérique. Donc, je regarde l'erreur koalatique. En fait, je regarde l'erreur koalatique où je distingue les parties positives et parties négatives. Ok? Parce qu'en fait, les erreurs ne sont pas symétriques. Et donc, si on regarde l'erreur de la partie négative, ben, on peut au moins qu'elle est ok, bandée, qu'elle converge à une vitesse, enfin qu'elle est bandée, ok, à une vitesse pi, puissance, un demi. Par contre, si on regarde l'erreur d'une partie positive, ok, donc là, on a une vitesse qui est moins bonne, qui est de façon générale, qui est en un dixième dans le cas où f est une fonction qui est par connexie d'A, c'est-à-dire le cas du contrôle. Ok? Donc, autrement dit, ok, donc si on regarde la différence entre la fonction, valeur, la solution d'AGB, ok, et la solution du schéma numérique, ok, donc on a deux bornes qui sont non symétriques, donc pi, puissance, un demi d'un côté, ok, et pi, un dixième de l'autre ou un sixième dans le cas où on est dans le cas du contrôle, pourquoi on peut améliorer dans le cas où f dépend connexie d'A, parce que là, on peut exploiter le fait qu'on a une représentation du problème en termes de contrôle stochastique, et donc ça, ça permet d'améliorer un peu de vitesse. Donc on note qu'on a des bandes qui sont non symétriques, ce qu'on obtenait aussi déjà par les méthodes déterministes, et en fait, la preuve qu'on utilise ici combine à la fois des méthodes de discrétation retrograde avec des méthodes purement EDP qui sont dues à Kriloff et Bar-Jakobsen, ce qui fait qu'on retrouve des vitesses convergentes qui sont bon, qui ne sont pas étonnantes pour ceux qui connaissent ces méthodes dans le cadre déterministe. Alors, voilà, donc maintenant, ok, donc là, c'était le cadre de Marc-Auvien. Donc pour la dernière partie d'un SOSÉ, je vais voir comment en fait, on peut étendre ok, lorsque on veut aller au-delà du cadre non-Marcovien, donc c'est-à-dire considérer des des systèmes plus complexes ou l'état du système, le contrôle, le système X, ok, dans sa dynamique, ne dépend pas seulement de X, mais peut aussi dépendre de tout son passé, ok, donc autrement dit, maintenant on a un process de contrôle X, ok, qui est diffusion que j'appelle pass-dependent, ok, donc c'est-à-dire que les coefficients B et SIMA, ok, dépendent donc du contrôle à date petite-t, ok, mais à chaque date petite-t, ça peut dépendre de tout le passé du contrôle. Donc, cette notation entre parenthès, ça veut dire, ok, ça veut dire que ça dépend de tout le passé jusqu'à cette date, ok, donc bien sûr, c'est non-anticipatif, ok, et la même chose pour les fonctions dépendre de tout le passé de X, et pareil pour les fonctions de gain, petite-t, ça dépend du contrôle à date petite-t et de tout le passé de X à date petite-t, ok, donc ça, c'est le problème de contrôle, en fait, dans sa formulation générale non-marcovienne pass-dependent, ok, alors, pareil, on peut définir de la même manière qu'on avait définit les équations forward-backward non-marcoviens. On peut faire la même chose dans le cas de non-marcoviens, donc ça veut dire qu'on peut considérer le processus régime-switching XI, mais cette fois-ci pass-dependent. Donc, qu'est-ce qu'on fait ? Je remplace juste X, je remplace dans la dynamite de X, I, alpha par I, ok, donc là, j'appelle un régime-switching pass-dependent, ok, pareil, je définis de la même façon, ok, l'objet YZU, ok, solution de cette équation étrograde avec saut négatif, ok, mais cette fois-ci avec comme forward, donc, XI pass-dependent et avec comme coefficient, ok, des coefficients pass-dependent, ok, et donc, la question qu'on peut se poser, ok, c'est est-ce que on peut avoir, comme dans le cas marcoviens, le lien entre la valeur du problème de compte swastique, donc V0, ok, et est-ce que c'est égal, ok, à la solution de notre équation étrograde. Ça, on avait cette relation dans le cas marcoviens qu'on avait obtenu par des méthodes d'EDP, ok, donc, est-ce que cette relation est encore valable, ok, dans le cas pass-dependent non marcoviens, ok, donc est-ce qu'on a une version pass-dependent de l'équation d'AGB à travers cette relation. Alors, comment, si on veut, si on veut prouver cette approche, cette, cette relation, donc, il y aurait deux approches, enfin, il y aurait une première approche possible, disons, qui serait dans l'esprit du cas marcoviens, c'est d'utiliser des méthodes d'EDP pass-dependent, ok, donc ça serait de montrer que le petit v va satisfaire une équation d'AGB pass-dependent, ok, qui caractérise le problème de contrôle. Donc ça, c'est des choses qui sont actuellement étudiées, mais qui sont, à mon point de vue pas encore réellement mûres, ok, et qui seraient des méthodes vraiment analytiques. Ici, on propose une approche purement probabiliste, donc, ok, qui évite, en fait, le recours à ces EDP pass-dependent, ok, et dont l'intérêt est aussi qu'il va permettre de dériver l'équation d'AGB, en fait, sans le principe d'approvisionnamie, ok, qui en général est quelque chose d'assez difficile, surtout dans le cas non marcoviens, ok, et donc l'idée la suivante, on va considérer ce que l'appelle un problème de contrôle randomisé, ok, donc, qu'est-ce que ça veut dire, donc je travaille, donc là, je travaille sur le problème sur le process randomisé, donc le couple XI, qui est dans sur la filtration W et mu, ok, et l'idée en fait, c'est de contrôler les intensités de saut de mon processus purement saut. Donc, au départ, sous la probabilité initiale, j'ai un process de poisson, ok, et l'idée, en fait, c'est de contrôler en fait l'intensité de ce processus, de cette mesure de saut, ok, donc, en pratique, mathématiquement, comment ça se traduit, ok, donc ça se fait, en fait, via le terme de gaz en oeuvre pour les mesures de saut, ok, donc en fait, j'introduis l'ensemble des contrôles d'intensité, donc c'est l'ensemble des champs aléatoires nutés d'omega de A, ok, au cas j'associe des changements de probabilité, donc, ce qui est important à retenir, ok, c'est que sous ce changement de probabilité, qui sont des changements de probabilité équivalentes, donc, les pénus qui sont là, sont des mesures de probabilité équivalentes AP sur l'espace de probabilité omega avec la filtration W mu. Je ne change pas le brunien, donc W reste un brunien sous pénu, mais par contre, de ma mesure mu. Donc, sous cette mesure pénu, l'intensité, ok, est multipliée par nuté de A, ok, donc je change l'intensité de mes probabilités, je peux le faire sauter plus souvent si je veux, ou aller de où je veux. Ok, et donc, je regarde ce que j'appelle le problème randomisé, donc, X i, c'est mon processus initial, ok, je change le régime et je contrôle le problème ou je contrôle l'intensité sur la componente de saut. Donc, a priori, quand on fait ça, on se dit, on fait moins bien que le problème initial ou dans le problème initial, je permets au contrôle alpha de se balader partout. Ici, je me permets seulement de contrôler son intensité et seulement pour un processus à saut. Ok, et en fait, le résultat le résultat qu'on a, parmenant, le résultat qu'on a, c'est que même que V0 qu'à V0 étoiles. Autrement dire, dans le problème initial où on peut contrôler directement la ok, la dynamite de X avec un contrôle alpha qui est continue, ok, et bien en fait, il est égal au problème où on contrôle le niveau à l'intensité. D'accord, donc, on a un processus à saut, ok, on contrôle ça aussi, en fait, le fait de contrôler l'intensité, ça donne en fait la même chose ok. Donc ça, c'est pas évident à montrer, donc ça repose en fait sur la continuité de la fonctionnelle de gain par rapport au contrôle et en fait, sur un résultat donc qui est, je pense, son intérêt en soi qui est que on peut approcher n'importe quel processus continue alpha, n'importe quel processus de contrôle alpha, on peut toujours l'approcher en fait par un processus purement à saut, associé à une mesure aléatoire, qui, donc ça, ça, c'est, ça, on ne savait jamais, mais qui a un compensateur qui sera absolument continu par rapport à une mesure, une mesure d'intensité donnée, ok, donc ça, c'est ça en fait l'étape, l'étape-clé et après, on utilise un technique de changement de probabilité de mesure pour compléter ça. Ok, donc une fois qu'on a cette relation de ça, on habille une une relation de dualité, on montre que la solution du problème randomisé est égale à la solution de l'équation retrograde, donc autrement dit, on montre cette relation. En fait, ça, c'est vraiment un résultat de dualité. Donc, un résultat de dualité, comme par exemple un transport optimal, on on lit un problème de contrôle à un problème dual en place d'un super-inf donc ça, c'est vraiment un terrain de dualité. Ok. Donc, on a montré que v0 étoile égale grade 0 comme v0 égale v0 étoile donc on conclut que v0 égale grade 0. Ok. Donc, ainsi, on a montré le lien entre la solution du problème de contrôle original et la solution de retrograde de façon plus moins probabiliste et donc, en particulier, on voit que ça permet de dériver l'équation vérifiée par v0. Ok. À partir de l'équation vérifiée on peut le montrer directement sans profession dynamique. Ok. Alors, je vais conclure maintenant. Donc, qu'est-ce qu'on a fait ? Donc, on a donné en fait une représentation probabiliste des équations non linéaires, complètement non linéaires du contrôle scastique. Donc, l'idée, c'est de randomiser le contrôle, c'est-à-dire agrandir la varade d'état, la filtration. Donc, ça permet d'avoir une formule de fait de macaque non linéaire en termes d'une équation retrograde qui est formulée sous une seule mesure de probabilité. Et le fait d'avoir randomisé par les sauts, donc, en introduisant ces mesures de poissons, ça permet en fait d'arriver à un schéma numérique qui est approprié et implémentable. Cette approche de randomisation, en fait, s'étend au cadre non marcoviens, donc, lorsqu'on regarde des process contrôlées qui peuvent dépendre de leurs chemins passés. Donc, il est important de noter que, dans ce qu'on a fait, il n'y a aucune hypothèse, en fait, sur le coefficient de diffusion. Donc, c'est un peu déliré, parce qu'en fait, essentiellement, l'idée, c'est qu'on fait en probabilité, non pas sur le process auxiliaire. Donc, lui, il n'y a pas besoin pour ça, aucune hypothèse sur le schéma. OK. Donc, la preuve qu'on donne permet, dans le cas pas dépendant d'avoir, et même dans le cas marcoviens, d'avoir une méthode pour montrer AGB, en fait, sans la preuve dynamique qui sont des choses assez délicates. Alors, les extensions sont assez naturelles qu'on peut éventuellement regarder et qu'on regarde. C'est lorsque on regarde des étudiés des process de contrôle au lieu de diriger par un bronniens, c'est aussi dirigé par les process de la vie. Éventuellement, on inclure du contrôle sur la mesure de la vie. OK. On pourrait sert à des choses lorsque on fait tendre grandé vers l'infini. Donc, on aura un peu le comportement stationnaire des problèmes de contrôle. Donc, c'est un peu l'exécution ergotique. Et enfin, si on va aller au-delà du contrôle, donc, regarder par exemple des jeux différentiels et peut-être pourquoi pas des jeux achemoyens. Donc, on tombe sur les equations d'AGB Isaacs. OK. Merci d'avoir attention. Moi, j'ai deux questions. La première, c'est dans la première partie qu'on a exposé, tu as supposé qu'il y avait unicité d'une solution de viscosité dans les equations d'AGB. Et dans quelle mesure tu pourrais utiliser cette représentation et étudier les solutions directement de l'équation de l'AGB. Pas au niveau numérique, mais au niveau théorique. L'existence, éventuellement, la régularité des solutions ou des choses comme ça. Alors, donc, on a une distance unique de la solution de l'équation d'AGB. Et ce qu'on montre, c'est que la solution de l'équation d'AGB te donne une solution à AGB. Et on montre qu'en général, une solution de l'AGB, ça te donne juste une viscosité d'équation d'AGB. Et après, pour faire le lien avec l'équation du contrôle, c'est d'ailleurs d'utiliser l'unicité. On dit que cette solution est unique, donc elle est forcément égale à l'équation du contrôle. Et l'étude de la régularité des solutions, ça... Ouais, parce que disons, c'est de dire régularité C2, C1... Ou moins C1 et peut-être plus. Ça, je pense... Déjà, le problème, se poserait même dans le cas seminaire. C'est-à-dire, l'équation d'AGB, la solution de l'équation d'AGB te donne une solution régulière. On sait dériver le flow, éventuellement, de la... par rapport à la condition officielle. Dans ce cas-là, pourquoi pas ? Peut-être que c'est une méthode pour... Et j'ai juste une deuxième question. J'ai raté quelque chose. La mesure lambda sur Quentin, elle est donnée de manière... Oui, c'est toi qui te la donne. Mais après, c'est possible à... Alors, bonne question. Alors, la théorie te dit que quel que soit le lambda que tu donnes de façon... à l'origine, le résultat final ne dépend pas de lambda, puisque la solution ne dépend pas de lambda. En pratique, quand tu veux implémenter avec un lambda, il faut choisir un lambda qui est nitro grand, enfin, un intensité nitro petit. Il faut avoir assez de saut entre deux instants et pas trop parce qu'en fait, cette constante lambda, elle apparaît dans les constants des petites dans les heures de coinageant. Donc, voilà, il y a un mixte, un équilibre entre une intensité pas trop petite et pas trop grande non plus. Justement, en fait, j'ai à peu près la même question et je vais demander si c'est... pour le... le contrôle de l'erreur, ce n'aurait pas des résultats du type de ce qu'on a pour les méthodes des chantiers d'un âge préférentiel. Si tu avais la bonne, toi, si tu calais ce qui suit parfaitement la solution du problème de contrôle, est-ce que tu aurais pas une heure toute petite? Est-ce que tu n'as pas ce genre de résultats? C'est pas... c'est pas clair parce que le... enfin, en fait, c'est pas clair quel est le lien entre le contrôle optimal alpha et l'intensité. C'est pas clair quel est le lambda. Parce que, le lambda, lui, c'est une mesure disons qui est... qui est constante, quoi. C'est le lambda d'A. Lorsque le contrôle bien, lui, il dépend de X. C'est justement si tu connais un processus de poisson avec justement, tu vois, une intensité dans le plan tant... grandat qu'il soit juste un petit tube, qu'il soit pile poids, enfin... Oui, mais le contrôle bien, il dépend de X. Donc, où est-ce que tu fais intérêt à ton X dans ton lambda? Si le contrôle est constant, tu pourrais... le contrôle d'A il dépend de l'état du système et ça, tu peux pas le traduire directement sur ta mesure de poisson.