 Je vais parler de l'imagerie de quantité et de la fluctuation des quantités. C'est un sujet qui est observé ou mesuré du système de quantité. Mais cela nous aidera à faire un tour dans le noyau de quantité. C'est classique sur le noyau de quantité. Ce travail a été réalisé avec Michel Boheur, en partie avec deux étudiants. Il a été inspiré par des expériences qui ont été réalisées à l'Ecole Normale dans le groupe de Serge Arros et dans ces expériences, ils ont étudié le système de quantité qui s'est réalisé dans des photos, qui sont dans des cavities. Ils ont essayé de analyser le système de quantité en utilisant les atomes de matière. Si vous regardez l'un de ces papiers, qui a été publié il y a quelques années, il s'agit d'observer les drones de quantité pour ce système de photos dans les cavities. Le cavité est un peu de centimètre grand. Il est de très haute qualité, donc il s'électe une fréquence de l'électromagnétique. Il s'électe comme si vous avez un système de quantité avec des armes harmoniques. La fréquence de l'électromagnétique est indexée par le nombre de photos dans les cavities. C'est la dernière fois que j'ai changé le fil. Ce n'est pas aujourd'hui. Dans ces papiers, vous pouvez voir qu'ils mènent le nombre de photos dans les cavities. C'est une très haute température. Il n'y a parfois pas de photos, donc il n'y a pas de photos. La fréquence de l'électromagnétique s'électe par l'activation thermale. Ensuite, il y a un photon. Ensuite, il s'électe par l'activation thermale. On revient à l'électromagnétique thermale. Quand vous regardez ces photos, vous vous inquiétez de quelques choses. Vous avez appris que dans les mécaniques de quantité, quand vous observe un système, vous avez une action en bas. Ce n'est pas nécessaire pour observer exactement la fin de l'électromagnétique thermale. Vous êtes sûr que quand vous observez qu'il n'y a pas de photos, est-ce qu'il n'y a vraiment pas de photos dans la cavité, ou est-ce qu'il n'y a pas de photos? Vous vous inquiétez aussi de ce qu'est la dynamique de ces jambes. Même si vous dites que c'est généré par la fréquence thermale, dans les mécaniques de quantité, la fréquence thermale n'a pas de réalité, si vous observez-les. Il n'y a pas d'actualité, il n'y a pas d'actualité, il n'y a pas d'actualité, si vous observez-les. Qu'est-ce que la dynamique de ces jambes? C'est la question qu'on veut répondre. Alors, quand vous observez la cavité, sans détruire le système, qui est à l'intérieur, la cavité est en train d'utiliser un procédé indirect. Ils utilisent l'atome à l'intérieur de la cavité et ils observent l'atome. Ils font un procédé indirect. Ils ne misent directement la cavité. Le procédé indirect est à l'intérieur du système. Il y a la cavité qui se prépare dans un système donné par injecter un peu d'électrométrie. Puis ils préparent un peu de l'atome, l'atome de Riedberg, et ils montent l'atome de Riedberg à l'intérieur de la cavité. Puis ils font des mesures sur l'atome. Dans leur expérience, parce que la fréquence qui a été sélectée par la cavité et la structure de l'atome, il y a seulement deux niveaux de l'atome qui sont à l'intérieur du processus de l'interaction entre la cavité et l'atome. Ça veut dire que l'atome s'occupe d'un système de spin-all. Alors, si la spin-all s'occupe d'un système de spin-all, et selon le stade de la cavité, ils interagiront, et la cavité de l'atome de l'atome s'occupe d'un système de spin-all. Et ensuite, vous mesurez la spin-all après la cavité. Vous faites des mesures sur l'atome. Ça veut dire que chaque fois que vous faites des mesures sur l'atome, vous avez des informations sur le stade de la cavité. Il n'y a pas de partage, seulement de l'information. Mais, de cette façon, vous pouvez faire des mesures sur l'atome de l'atome sans les détruire. Parce que c'est assez difficile, généralement, de measure l'atome sans détruire. Si vous utilisez vos yeux pour measure l'atome, vous absorbez le photon et vous mettez le système. Donc, faire des mesures indirectes c'est une façon de faire des mesures sans détruire le système. Et c'est appelé non-démolition des mesures sur l'atome. Donc, le stade de l'atome après que l'atome entre l'atome et la cavité dépend de la interaction entre l'atome et la cavité. C'est une interaction électrométique mais il y a une description d'effectifs d'interaction pour l'atome pour l'interaction c'est que si il y a un photon entre la cavité l'atome d'un angle theta dépendant de la cavité. Donc, ça veut dire que si la cavité est dans un stade de nombre de photons il resterait dans un stade avec un nombre de photons mais le gyroscope à l'atome sera subject à des rotations. Et par mesurer l'angle de la rotation vous avez appris quelque chose sur le nombre de photons dans la cavité. Donc, c'est ce qu'ils utilisent pour observer cette jambe. Une autre observations qu'ils ont faites sur le papier c'est un plot que je veux expliquer parce que ce serait la base d'un étudiant. Donc, ce plot ici dans cette direction est la distribution de probability de nombre de photons dans la cavité. Assume que vous préparez la cavité l'atome dans des stades. Dans un stade avec un nombre de photons vous avez une distribution de probability pour mesurer la valeur de nombre de photons. Donc, ce serait la distribution de probability de nombre de photons dans la cavité. Et ici, il y a un temps. Et le temps est mesuré par le nombre de photons qui passent par la cavité. Donc, ça veut dire que dans un second, il y a un temps qui passent par la cavité. Donc, ici le nombre est le nombre de photons qui passent par la cavité. Donc, ils prépare la cavité dans des stades et ils ne savent pas qu'ils n'ont pas d'informations sur le stade de la cavité. Donc, ils commencent par un étudiant qui est la distribution de flat. Donc, la première function de probability de distribution de probability est la distribution de nombre de photons. Et vous arrêtez par 7 parce que l'expérience ne veut pas aller à l'infinité. Et puis, vous laissez l'atome passer par la cavité. Donc, il y a un atome qui passe par la cavité. Vous faites un measurement, vous avez des informations. Avec ces informations, vous pouvez adapter la distribution de probability fonction de nombre de photons dans la cavité. Et puis, vous passez par la cavité. Vous avez plus d'informations. Donc, vous updatesz de la distribution de fonction. Donc, chaque fois qu'un atome passe par la cavité, vous updatesz la fonction de probability de distribution. Et en utilisant les informations que vous avez obtenues par le measurement. Donc, vous voyez que dans ce process de updates, la fonction de probability de distribution change chaque fois parce que vous updatesz. Ça veut dire que, après le nombre d'atomes passant par la cavité, la fonction de probability de distribution est la valeur fixe. Donc, ici, avec presque la cavité 1, vous allez trouver 5 photons dans la cavité. Mais si vous faites l'expérience vous pouvez répéter le même expérience préparant la cavité de la même manière et laissez l'atome passer par la cavité et updatesz la fonction de distribution chaque fois qu'un atome passe par la cavité. Vous allez trouver une autre évolution pour la fonction de probability de distribution mais ça va encore se convertir à une valeur fixe. Mais le target, ici, qui est le nombre de photons sur lequel se convertira, va dépendre de la réalisation. Si vous trouverez 5, pour une autre réalisation, vous trouverez 7. Et si vous trouverez une autre réalisation, vous trouverez une autre valeur. Ça veut dire que ces updates sont randomes. Ils sont randomes parce que quand vous mesurez l'atome, vous avez des informations randomes parce qu'il dépend de l'outre de votre measurement sur l'atome. Et par les mécanismes quantes, la valeur du measurement est random. Mais ce que vous voyez, c'est cette évolution toujours convertir à une valeur fixe. Donc c'est le collapse de la fonction de la valeur. Quand vous faites un maximum de données, que si vous trouverez des valeurs, la fonction de la valeur collapse. La fonction de probability de distribution au lieu de la collapse, c'est piqué. Donc c'est le collapse de la fonction de la valeur dans le sens que la fonction de probability de distribution collapse. Maintenant, vous pourrez voir pourquoi vous avez une évolution de recherche, pourquoi effectivement la fonction de probability de distribution collapse chaque fois que vous updatez cette distribution. Vous pouvez aussi demander si cette fonction de probability de distribution est la première représentation de ce qui est dans la cavité. Ce que nous verrons, c'est que c'est seulement à la fin du processus que la première représentation. Chaque fois que c'est en-between, ce n'est pas une première représentation, parce que ça dépend de ce que vous avez commencé. Ok. Donc c'est ce que je veux expliquer, et puis utiliser ça pour apprendre un petit peu dans la cavité, vous avez quelques stats. Ces stats ont des fonctions de probability de distribution. Ah, vous avez 2 fonctions de probability de distribution, qui est la vraie. Mais vous ne le savez pas. Ce que vous estimatez, est-ce que ces 2 fonctions de distribution coincèrent? En général, non. Au moins, c'est la seule coincède à la fin du processus. Ah, c'est un petit peu modifié. Ok. Donc, c'est ce que je veux expliquer dans la première partie du talk. Et ça veut dire que, pour expliquer ce progessif collapse, et puis, la deuxième partie du talk, je vais utiliser cette notion pour décrire ce qu'il veut, pour mesurer un système continu de temps, des mécaniques quantes, et utiliser pour décrire la fluctuation thermique. Donc, je vais voir la première partie du talk, donc je vais discuter de nouveau ce qu'il collapse, et qu'est-ce que ça veut dire d'éliminer la fonction de distribution de propriétés? Donc, si on veut s'abstractir un peu, on a un système de quantes, et puis on a un progessif qui passe par le système, qui intervient par le système. Et pour les données que nous avons, chaque fois que nous faisons une série de mesures sur le progessif, nous avons des valeurs d'outils, qui sont les valeurs des résultats de vos mesures, et ces valeurs sont rendues parce qu'elles dépendent de l'outil de les mesures, qui sont rendues par des mécaniques quantes. Donc, la façon dont on update c'est qu'on commence avec des fonctions de propriétés de distribution, c'est un stade 0, qui est uniforme, je l'appelle la fonction de propriétés de distribution, c'est quelque chose que vous avez fait, donc vous l'étiez flat, c'est une fonction de propriétés de distribution. Ensuite, vous faites des mesures, alors vous avez un peu d'informations, et vous utilisez un peu d'informations pour updates cette distribution en utilisant des règles basées, c'est à dire que vous avez un model apriori pour la probabilité de condition de l'outil d'outils, et en utilisant un model apriori, vous pouvez trouver une nouvelle estimation pour la fonction de propriétés de distribution, condition de la valeur que vous avez pour les mesures d'outils. Donc, si vous avez un stade 0, celui-ci n'est pas fondant, c'est surement initial, qui est flat. Cette valeur de la mesure est rendue, donc vous avez une estimation de la fonction de propriétés de distribution de l'outil. Ok ? Donc, c'est ce que vous faites en pratique. Vous n'utilisez pas des mécaniques quantes. Vous commencez à utiliser juste la base avec un model apriori pour la probabilité de condition d'observer quelque chose sur la condition de l'outil de l'outil. Et puis, quand vous faites des expériments que vous répétiez en utilisant la fonction de propriétés de distribution, celui-ci que vous trouvez est estimé après la première fois. Et vous vous gardez beaucoup de temps, ok ? Donc, c'est purement classique. Et quand vous répétiez ce processus, la fonction de propriétés de distribution sera collapse. Ce collapse n'est pas en quantité, c'est juste classique. Donc, c'est ce que vous faites dans l'expériment. Et maintenant, ce que je veux expliquer c'est pourquoi dans cet expériment c'est une bonne représentation de ce que les mécanismes quantes vous expliquent du processus d'interaction plus de measurement du progrès. Donc, c'est ce que je disais que je vais décrire ce qui s'occupe dans un cycle. Et après, je vais vous expliquer ce qui s'occupe quand vous éteignez ces cycles. Donc, si vous le voyez, c'est le plus difficile slide, je pense. Pourquoi les mécanismes quantes sont basées sur les règles de base et ce qui s'occupe quand vous faites un cycle d'interaction plus de measurement de progrès. Donc, vous commencez avec votre système, qui est faite par un progrès sur le système. Donc, le progrès est appelé FI, vous préparez le progrès dans le state FI et le système est dans un state FI, qui est décomposé dans des bases qui sont appelées Alpha et dans l'expérience Alpha code pour le nombre de photons. Donc, ce n'est pas un état de fixation du nombre de photons. C'est une combinaison linéaire. Donc, ça veut dire que si nous faisons un measurement du nombre de photons, nous trouverons un outil avec des progrès dans la fonction d'interaction. C'est des mécaniques quantes. Donc, le système initial du progrès et du système progrès est juste un produit de temps de 5 temps. Maintenant, on laisse le progrès interagir avec le système pendant des temps et ce sont des opérateurs unitariaux qui sont appelés U. Et si vous vous souvenez dans l'expérience, cette interaction de fixation du nombre de photons à la cavité, la cavité reste dans le nombre de photons fixés. Donc, l'interaction de l'opérateur était exponentielle avec l'angle selon le nombre de photons. Donc, cela veut dire que cela préserve des états qui ont un nombre de photons fixés. Donc, c'est ce que nous assurons que ces unitariés et des opérateurs préservent les états de la cavité si ces états sont simplement un état alpha donc un état avec un nombre fixé de photons. Donc, nous faisons cette hypothèse parce que, en fait, ce que nous voulons measure est un observable. Donc, l'interaction de l'interaction de l'interaction de l'observable est un modèle d'apparatus de measurement. Donc, nous voulons mesurer des observables et ces observables ont des états agréables. Donc, nous voulons préserver ces états agréables qui sont supposés à mesurer. Parce que si nous voulons mesurer des observables et que nous collabons sur un état alpha et que nous mesurons encore, nous trouverons encore donc la paused probability et la préserve il y a des états agréables qui sont prés activate et ces états agréables sont Thrirens Donc, si vous utilisez ce modèle de l'interaction alors que le système et les probés interact également vous actons sur les thenaces des products tensor donc par la linéacaksınité il s oct Hari de l'action de l'eau sur le produit de 5 × alpha avec la même coïnficience c'est alpha et sur le produit de alpha × 5, l'interaction vit alpha et a un effet sur le state 5 de la pub, c'était ma rotation donc c'est le state du système après l'interaction et maintenant vous mesurez la pub vous mesurez un observable seulement sur la pub donc vous activez sur cette partie du système et vous collaberaz avec la measurement fondamentale donc vous collabiez avec le state du pub ici non sur le state alpha mais parce que le pub sur le state a été entagré cette projection fondamentale a été un effet petit sur le state de la cavité si je trouve que je trouve que j'ai l'aimé en outil du measurement fondamentale je collèverai avec le mode fondamentale et j'étudie tous ces études, donc ça modifie un petit peu l'état de la cavité. Ça change l'amplitude avec un élément métricien qui est l'élément métricien de l'interaction entre 5 et l'état de la cavité que vous trouverez par les mesures. Donc ça veut dire que l'état de la cavité a changé un petit peu, ce n'est pas complètement décliné parce que c'est seulement un measurement indirect, ça change un petit peu. Comme ça, ça implique une nouvelle fonction de distribution de priorité dans l'état de la cavité a changé un petit peu parce que maintenant, c'est donné que la distribution de priorité de l'amplitude de l'amplitude est la square de l'amplitude et la square de l'amplitude est un produit de square modulé. Donc la square modulé est la square de c, qui est q0, times the modulus square of this coefficient which I call Pi alpha, which is the conditional probability of finding i if the cavity was in a state alpha. So it means that the new probability distribution function is proportional to q0 times this conditional probability and this is Bayes' rule. So in other words, Bayes' rule, quantum mechanics implies Bayes' rule so it's a faithful implementation of quantum mechanics to use Bayes' rule to implement the probability distribution function. Sorry, Denis, where did the phi go? Phi is here. Yes, but in the end. Huh? In the end, the last formula because Pi, this conditional probability dependent, oh, that's phi here. So it's effectively the conditional probability. Imagine that c was one for one given value of alpha. So there was no sum here. There was only one term alpha. So the state after measurement will be just, there's no sum of alpha. Okay? And that will be the probability, and this coefficient will be the probability to find i for the measurement. Effective, the conditional probability of finding i given the state of the cavity. Z of i is the sum of Pi alpha for alpha. Phi? Z of i. Z of i is the normalization. But this is Bayes' rule. So quantum mechanics code for Bayes' rule so you can update the probability distribution function using Bayes' rule. And then, okay. And then the process of this system which is lead to the progressive collapse is just iterating this updating, which I want, as I said. So if you want to formulate a little bit differently, you say that since now it's classical, you forget about quantum mechanics and the data are the initial distribution, probability distribution function, q0, and your a priori conditional probability which depends on the interaction. So it's provided to find some measurement, output measurement given the state of the cavity. And then you update recursively the probability distribution function using Bayes' rule. And the updating are random because of the value at stage n. So finding some output, depon is arised with some probability Pn which is because of quantum mechanics. So that's now what I want to analyze and see what happens to this distribution probability when you iterate the process, when you increase the number of steps in this process. And the claim that we have is that first if you start with the peak distribution function initially, it's peaked, then it will remain peaked at every steps for every n. And this is by construction because I choose a model in which the interaction preserves the state of the cavity if this state was with a given number of photons. So but if initial is not peaked at large n, when n goes to infinity, it will become peaked. And since this number are random, it depends on the realisation of the output you got, it converts to a peak value which is random, and the convergence is almost sure in the probability space and in L1. So that's a collapse. By doing this random updating, the probability distribution function collapse. And then now you can ask what is the probability to collapse to a given target and the probability to collapse to a given target is given by the initial probability distribution function. So that's fundamental rules for measurement. You collapse to a given target according to the initial probability distribution function. But contrary to what we learn in books where the collapse is abrupt, when you do a measurement, it's a progressive collapse because you do indirect measurement at which it collapse. So if you look at the... if you collapse to some target which I call gamma, it means that qn of gamma will become 1 and qn of alpha, alpha different from gamma will go to 0 and it goes to 0 exponentially fast. And the rate of this decrease is some relative entropy associated to the probability distribution function. Ok, so this means that random updating is a... using Bayes rule is a good model for the quantum collapse. So I will just tell you a word how to prove it, but first I want to make a few comments that first what we learned from that when we have tried to understand what Saint-Garonche has done is that this model of iterated interaction on pro-measurement is some kind of mesoscopic measurement apart because it's mesoscopic because it becomes macroscopic only when a large number of atoms has gone through the cavity and so it's why the... why it's called transition from classical to quantum it's become classical only when you have macroscopic system interacting with the system when you have a large number of atoms going through the cavity this large number of atoms behave like a macroscopic system so then when you have a large number of atoms you are looking at the interaction of a macroscopic system with your tiny quantum system made out of the cavity. And then a few... I think two years after we worked on that six years after our experiment I read in a paper that you would collapse nothing more than the updating of that calculation device on the basis of additional experience which is exactly what what this experiment is doing we update our knowledge every time using the additional information we have on the system every time we measure the probe so ok and then we before describing how to prove that you may also wonder what happens if you don't record the data of your output so you let the probe through the system you measure them so they have an effect on the system but you don't record the data you forget to note everything so then what you can see that so it means that if you don't record the system it means that the collection of atoms behave like a reservoir and because you don't record the data you are tracing out the degrees of freedom of the reservoir and what you expect is de coherence because you have a tiny system in contact with the large reservoir and that's what you can check if you look at recursive iteration of the interaction plus promotionment as I described you will see that the density matrix of the diagonal element are conserved in mean but the half diagonal element decrease exponentially fast so if you don't in mean if you don't record the data and you trace over the degrees of freedom you converge to density matrix which is diagonal so you have de coherence ok so so I think analyzing this payment to understand better what it means to measure in quantum mechanics and that we use it to to discover what it means to measure continuously in time now because we can iterate this procedure of discrete interaction of interaction plus cycle as much as we want but before going to that I want to describe how to prove it so we had our distribution function which are random process to n is associated to the value qn for fixed alpha let's say it's a random process which is defined as some probability space with a filtration associated to the number of of photongoics to the cavity and the measure on this probability space is the one induced by quantum mechanics so you have filtered probability space and what you can check is that this qn are martingales and they are bounded martingales because they are between 0 and 1 and this is why they converge because there is a theorem which tell you that if you have a bounded martingales it converges much surely on nl1 so the fact that they are bounded martingales means that their mean condition the mean and the value at the step n condition on the value condition on the value up to step n minus 1 included is equal to the value of the variable at step n minus 1 so more or less in physical terms it means that qn in mean are conserved so that proves that they converge and then you look at the fixed point and assuming some non-degeneracy hypothesis it's necessarily a peak distribution function and then the fact that it converges exponentially fast with a rate coded by the entropy is linked to the fact that if it converges it becomes a peak value so that your state of the cavity is almost is close to a state with a fixed number of photons so it means that the output the output data which correspond to the measurement of the output probe are independent variable and identically distributed so the frequency of occurrence of some given value for the output is proportional to n with a coefficient which depends on the probability or the condition probability on the target state on using this fact you can prove that the qn converges exponentially fast so that prove this collapse actually it doesn't prove exactly it doesn't explain completely the experiment because what I have done is that I started when I did the discussion concerning the description of the quantum mechanical description of the interaction on the system I started with the state of the cavity which actually I don't know on his asset distribution q0 so this updating is an updating using q0 as a starting initial value but I don't know q0 so my proof doesn't work to explain the experiment but what you can prove is that actually if you do the same updating but with another q0 with the same realization of the output measurement you will converge to the same target with the same speed of convergence and that is independent of the initial value q0 so that way you can prove it and that's important to explain the experiment because initially you don't know the initial value of q0 you start with the q0 that you don't know which is not true one so it means that initially the q0 the distribution you started with has nothing to do with what is inside the cavity so it means that the qn that you compute using Bayes rule has nothing to do is not equal to the q0 the true one it's only at the end of the process that you have an equality between the two distribution functions the one you estimate or the one which represents what is inside the cavity ok, that's enough for the explaining the experiment but before using it to describe how to measure quantum on some fluctuation I want to spend a few two minutes to tell you why this kind of experiment fits in a larger framework linked to quantum noise if you have a process let's say for in some manifold you have a process of t to xt in some manifold so you start with an initial point at x0 and then you evolve it's a random process so it depends on some realisation with omega in some measurable space you have some random trajectory which depends on the realisation of the process for example you can think about a random work on z so you have the lattice position x0 and then you move by one step so you move many times so that's your work on z so what you see that when you look at such process for the random work all the information are on the random variable which are at step g is plus or minus 1 so in the random process all the information is in the noise ok plus or minus the what is not in the noise is only the initial position so all the information is in the noise so and this notion of noise is associated to a notion of an arrow of time which is a number of data of steps if you want and this arrow of time is associated to a notion of filtration in your probability space now if you want to look at the non-commutative setup for that what you have you have the meaningful m and actually to this meaningful you have the algebra of function on m which will be a way to take the position of the starting point so in the quantum case that's the algebra of function on m becomes the algebra of observable on your ill-beer space h of the system you have all the data plus minus 1 in the random work on function which test the value plus the value of this random variable plus minus 1 on you can test let's say the n first one that will be associated to the algebra of observable on the n first probe ok so that's setup of an interaction a system interacting with the series of probe it's just a non-commutative analog of the setup using discrete random processes so that's a quantum analog one and if you don't do any measurement what you get after n steps you get something a state which is the transfer product of the ill-beer space times the transfer product of the n first ill-beer space which will be the same thing as getting a function if you look at the n first observable of the n first times you will look at a function f at the initial position on the variable of the sign variable up to time n now ok so that's what you do if you don't do any measurement now in quantum mechanics if you do measurement on this observable you will get random variables so you will get numbers which are random and which will be the analog of epsilon one and so you are back to classical if you do measurement you are back to classical processes and this is called quantum trajectories in this framework you want to speak the speech here sometimes quantum work is on the lattice yes it is but you might want to say you have quantum version of that and you have quantum product so at every step you yeah by c2 yeah so I take hs will be one, I don't know your favorited space and then you protect the probe at spin half as I did in the experiment so every time you will add tensor product by c2 ok ok so it means that this experiment is a larger fitting is a notion of quantum noise and I think there is a nice there is a nice structure behind playing with the notion of quantum noise because it makes probability theory quantum mechanics and you can think about mixing them with field theory and nice social at least to play with so I don't have time I wanted to talk about the classical interpretation of quantum state so so there is many generalization in particular there is application since you get information on the system you can use this information to act back on the system so you can manipulate the system that's what people do in experiments what I want to use as an application is try to as I said try to use this framework to describe time continuous measurement in quantum mechanics and it's only when you do this time continuous measurement that you can reveal the quantum jumps so as I said they don't have any physical reality so as you all learn if you do a measurement continuously in time in quantum mechanics you fall all the dynamics so we what we when we said time continuous measurement we don't mean fundamental measurement continuously in time because this will freeze the dynamics so what we have in mind is that we have the system which evolve according to its dynamic either Hamiltonian if it's a zero temperature or some dissipative dynamic it's in contact with the reservoir so you have these dynamics on every tiny seconds you do an indirect measurement on the way described you have another system and you measure the other system so you do an indirect measurement and if the time step between this indirect measurement and the time this time step involved in the Hamiltonian or in the dissipative dynamics are very different so if the time step between each interaction each much much smaller than the typical time scale involved in the dynamic then you can use the time continuous description of the process and that's what is called by time continuous measurement of quantum systems so the way to describe it is that every time you do a measurement so you update the distribution function according to the rules that I described which can be summarized as conjugating the density matrix by some parameter f and normalizing it with the probability to find the output i, which is random so that's a random evolution because i are random and distributed with some probability which is just the normalization factor of these density matrices so that's the indirect measurement so you iterate on the random measurement on the evolution and that's defined for you a new stochastic processes acting on density matrices so in the time continuous formulation the density matrices that will be two terms in the evolution one associated to the Hamiltonian evolution if you are at zero temperature and one associated to the measurement the one I just described before this one is random ok and if you your probe are spin-alpha as Nikita said so they are described by a spin and the output you got every time you do a measurement is a series of spin plus minus minus plus so this is in one to one correspondence with random work so when you take continuous limit of them this will be coded in time continuous it's natural that the time continuous limit of the work will be associated to some Brownian motion so if you there is a clean way to do it but then the time continuous limit of this iteration of Benjamin is described by some evolution which is driven by some Brownian motion with the drift term on a noisy term with a diffusion constant which depends on the state so that's called a Belafkin equation which were known in the 80s so in particular we have seen that in the example of the cavity the the probability distribution function so the diagonal matrix element are martingale under this process so the drift term vanish if you look at the diagonal matrix element of the density matrices so if I have a 2 levels system with 2 levels 0 and 1 and if I want to measure the observable which is diagonal 0 and 1 the diagonal matrices element of rho in this basis let's say q which is a diagonal along 0 has to be a martingale so this term has to vanish if I look at the matrix element 0 0 so dq has to be proportional to dbt because it's a martingale and this one is quadratic and it has to vanish for q equal to 0 because that's if I am in a pure state of the observable I measure I have to stay in it and it has to vanish if q is 0 and q is 1 so it's proportional to these factors of the coefficient of proportionality the speed at which you collapse if you were evolving the system so that's just a time continuous limit of what I described before now you can see what happened to the evolution of your matrices when you do continuous measurement in time with amyctonion evolution or with dissipative evolution so if you do if you observe the system which evolves unitaryy so at zero temperature and you measure it continuously in time two things happen so if there was no measurement you know that the two level system oscillate it's the Rabi oscillation everybody you learned that at school so it means that if the time to really accomplish the measurement so the time to collapse it's much bigger than the times of the Rabi oscillation you have no time to do the measurement so you don't really much deform the Rabi oscillation you see oscillation so what is plotted here is the component of the state in the basis 01 of the density matrices so if the time scale of the collapse is much bigger than the time scale of the unitary evolution you have Rabi oscillation slightly random so they are exact because you do you act on the system a little bit because of the indirect measurement but in the opposite situation if you is the time scale time of the collapse it's much bigger much smaller than the time scale of the evolution you have the jump it means that the state you measure the system very quickly so it collapse so it has a tendency to collapse to 01 but since the collapse is not completely accomplished because it's never accomplished the time evolution has time to do something and sometimes you collapse back to the other value so you jump from 0 to 1 and this has been observed so that the jump is one of the process continuously in time the time scale between the two actually diverge with the times of the collapse because if the time the time to collapse was close to 0 it means that you really have time to collapse completely almost in such a way you will collapse the system will stay in the state against the state of the Hamiltonian and you will collapse so that's no effect but what I want to describe is what happens when the evolution is not unitary but when the system is in contact with the reservoir so again you have a system quantum system in contact with the reservoir at some temperature and you measure it indirectly continuously in time so if you prepare what you know is that if you prepare the system at the high energy state there will be a cascade and if the reservoir at temperature there will be a cascade of energy to add small energy so that's what you observe you will see the energy what is the energy as a function of time it starts with a very high value and then it collapse by jump and then when it reach almost 0 because the reservoir is at a very low temperature there is a few quantum jumps so the way to describe it is again the same thing as before you have some kind of evolution which is described it's a generalization of the unitary evolution it's called a quantum dynamical a completely positive map so it's a some kind of quantum dynamical map a quantum system preserving positivity and a bit more and that's what it's a good description of the evolution of a quantum system in contact with the reservoir so that the dissipative is not unitary because there is a sum if there was only one term in the sum it would be unitary if there is more than one term it's not unitary and then as you're to that you have the measurement every time step you measure it a bit indirectly the way described before so you couple the two process the dissipative evolution on the measurement and you iterate the process and you want to see what happens so what you see that again if the time of the collapse is very much smaller than sometimes needed to relax to the dynamical time to relax you will find jump and to describe them it's simpler to go to the continuum limit so it's the continuum limit you have some evolution of the density matrices which will relax to the Gibbs towards the Gibbs states if there was no measurement and then you have a random evolution which is linked to the measurement so again this one the random evolution associated to the measurement is driven by a Brownian motion which code for the output of the measurement and the relaxation term is linear to converge to Gibbs states so if there was no this term q which is component of the density matrix will converge to the Gibbs states but because of this drift term what you will observe is that you will observe the jump means that your density matrices will spend a lot of time at q close to 0 where the state will be close to 1 because q is 0 and then suddenly we jump to a value close to 1 with noisy contribution because of the random effect of the measurement and you jump from state 1 to state 0 to state 1 to state 0 on you can fully so these jumps are just induced by the measurement they are not in the dynamic there is no jumpy dynamic into the process everything is, if you look at the evolution of that it's not associated to Poisson process the jumps are generated by the dynamic it's more like a commerce process where you jump from one minima of a potential to another one and the jumps are induced by the noise but this noise is not put by hand it's just due to the effect of the measurement that you do on the system and then you so you can analyze it completely so that you can see for instance that contrary to what happened at 0 temperature when you look at the in effect the time scale between the jump from infinite when the time to collapse goes to 0 and they are proportional to the relaxation time this time the time span at close to the state 1 or close to the state 0 and the ratio are given by the Gibbs factor as it should by Yagodi city but also what you can so you can compute everything by the statistic of this jump but what you can check also is that the dynamic you can learn something by the dynamic of this jump so this jump are not like we learn in school they are for example there is a typical finite time to jump from 0 to 1 and this time is proportional to the collapse time so it goes to 0 it's very small but there is logarithmic correction and the fact that it's proportional to the collapse time means that the dynamics of this jump are depending on the way you observe the system so quantum jumps is what I said are not physical reality they depend on the way you observe ok so then you can learn more about them and what you ok what you can do now is try to to do what we are trying to do now is to go to more general situation in particular to out of equilibrium situation where you have two reservoirs so you have a transfer between the two reservoirs transfer of charge of energy and observe continuously in time this transfer and look at the statistic of that that's done experimentally where people observe the transport of charge in quantum dots so and you can freely describe this transfer ok thank you can one understand the temperature of the sitter's place on this slide yesterday's talk he said something to the fact that if you look at the two dense genetics evolved from initial state it's actually a pure state but if you do it's pro-grain it becomes a thermal state so it depends on the way you observe is it a logical angle I think it's not exactly analog because if I'm wrong correctly what polyacrophore describing that you are in a background which is dependent on time that's why you have this effect ok but he was looking at a unitary evolution he never observes a system he just says that if I want to observe something at some time then I will observe between t and t plus that it is or you have to have a right on that killer sometimes a respond which is described by density matrix which is not the same thing as here why you observe it continuously in time because it's quantum mechanics because you observe it continuously in time you have a back action on the system which is not coded into what polyacrophore was describing yesterday