 ¿Puedes cerrar la puerta, por favor? Sí, por favor. Creo que podemos empezar hoy el seminar STI. Hoy estoy honrado para presentar a Aaron Hernández desde la Universidad de Baroda, que es el primer lugar en la Universidad de Baroda para presentar a Aaron Hernández. Vamos a hablar de la digitalograficación de la imagen de macro y micro-samples. Esa es la obra que estamos haciendo en el lab. Esa es nuestra estación estudiante, Zubat Putadilla. Pero antes de empezar, quiero leer un poco sobre Aaron. Aaron recibió el Degrito de la Universidad de Baroda en 2003. Desde ese tiempo, hasta el 2008, trabajó como científica en la institución para la investigación plasmática en India. Se hizo un award post-doctora en la Universidad de Stuart en Alemania. También participó en el Degrito de la Universidad de Baroda en 2008. Estaba trabajando como profesor en el Degrito de la Universidad de Patel. Tiene más de 120 publicaciones, incluidas para revisar los journals, procedimientos de conferencia, invitar los páginos de conferencia y algunas patas. También fue guiado a cinco PSDS, para que se acabara y completara el proyecto de investigación en las áreas de holografía y microscópica. Aaron es un miembro de la Optica, la Optica de la Sociedad de América y el SPIE. Su investigación interesa incluye un 3D microscope para la imagen y la identificación. La Optica de la Optica de la Optica digital de la holografía y la Optica de la Instrumentación. Y con esto, Aaron, puedes comenzar la presentación. Gracias. Gracias, Umberto. Gracias por la invitación especial para presentar. En realidad, es muy similar a la que presenté el último año. Era una línea online. Pero pensé que haré una milion de microscópicos. Por supuesto, al final presentaré un poco de microscópicos porque es lo que estamos concentrando. Pero voy a comenzar con... De hecho, debería haber difusos y especuladores de objetos, sino que de microscópicos. Así que voy a comenzar principalmente con los objetos difusos porque es lo que supone también en el lab principalmente estudiando difusión a los samples de la face y que son tan cruzados por un difusor. Así que voy a presentar ese trabajo y al final voy a hablar un poco de la parte de microscópicos también. Entonces, estos son... Entonces, estos son algunos de los ejemplos en los que vamos a trabajar. Así que, como dije, voy a hablar sobre el microscópico digital y la transformación. Eso es lo que estamos haciendo aquí también. Y también vamos a trabajar en las diferencias de loco. Vamos a hacer un poco de los especuladores de los ejemplos, básicamente los ejemplos de loco y un poco de la proyección y el tomografía de los ejemplos. Un poco de eso. Estos son los ejemplos, pero voy a hablar sobre los primeros. Y si el tiempo permita los ejemplos de loco con los microscópicos, voy a mostrar algunos de los ejemplos. Entonces, todos los ejemplos van a ser los resultados. Así que voy a presentar las metas que hemos desarrollado y los resultados que obtenemos y las aplicaciones que hicimos en los ejemplos de loco. Entonces, básicamente la solución para la evaluación es la amplitud complexa. Básicamente, tiene un componente escolar, la valorización y la fase. Por supuesto, podemos hablar sobre las diferencias y no vamos a hablar sobre las diferencias. Entonces, cualquier mapa especial de la valorización o de la fase de la amplitud escolar es una imagen. Entonces, pero el problema con los ejemplos de loco es que solo podemos interpretar la amplitud escolar de la amplitud complexa. Entonces, básicamente la valorización y la información de la fase han terminado. Básicamente, vamos a interpretar la valorización de loco. Entonces, la fase y la valorización tienen que ser indirectamente mesuradas, no directamente mesuradas. Pero no voy a hablar sobre la valorización. Por supuesto, la valorización también puede ser sensible en muchos casos, pero voy a hablar sobre la fase. Entonces, básicamente, depende de la amplitud escolar o la distancia de la amplitud escolar. Entonces, esa es la amplitud escolar de la amplitud escolar. Entonces, esa es la fase. Y si veas la fase, tienes el denominador de la amplitud escolar. Y vamos a decir que la fase de la computadora es de 0 a 2 pi. Entonces, para la variación de 0 a 2 pi, básicamente de 0 a 2 pi el n a z debería variar de 0 a 2 pi. Entonces, la fase de kysa es de 0 a 2 pi. Entonces, a determinar del nivel de starring y el punto de mirada sobre todos los chão discurso del juego. Entonces, que se puede encontrar con el Z, el Z es la distancia de la proporción. Entonces, once you have Z, basically you are mapping the thickness profile of the sample and that or you are also mapping the thickness change of the sample. So, that thickness change might be, could be due to anything, could be due to the deformation of the sample, could be due to some external stimulus, that external stimulus could be heat, can be an electric field, could be a magnetic field, could be a chemical reaction, whatever it is. So, you indirectly should be able to measure, finding the phase change should be, could be able to measure these external forces that changes the change in your path length. So, that is the thing we apply in most of the cases. Ok. So, as I told your face, oh so if I am fast you can always tell me, so my students usually say that I am usually fast, so if I am fast you can tell me that I am fast, so I can go slow. I think I hope my speed is ok. Ok. The thing as I told, basically you cannot directly, what you can say, image your, ok, before that one of the things in fact I want to talk was basically like contrast, contrast is basically like the intensity difference between your foreground and your background. The issue is that, so you are able to see me because there is a probe that is your light beam that is scattered of you, of me and that is reaching the detector that is your eyes and your eyes can detect your intensity. And you are able to distinguish my features because there is a change in the intensity, the reflected light, there is a change in the intensity of the reflected light. So, if there is no change in the intensity of the reflected light, basically you will be seeing only the edges of my body. The edges basically scatters light, so it does not reach you, so it will become, it appears dark. So, that happens in the case of cells. So, white light is normally not absorbed. If it is not absorbed, only the edges scatter the light. If it scatters the light, the edges will appear darker. The bulk body appears will have the same intensity because it does not absorb light much. So, issue is that without chemical staining, you will not be able to see such objects. Whereas your face does not have such a problem because it depends only on the optical part length. If the optical part length changes, your face changes. If the face changes, that will lead to high contrast image. If you convert that intensity into high contrast images. So, that is the advantage of using face. It gives you the optical thickness profile. Plus, it can also give you the, it can give you high contrast images. But the issue is face is that it cannot directly be recorded. So, what you do is that you superpose two beams, light beams. So, of course, these two light beams are derived from the same source to preserve the current's condition. So, usually we use laser sources because it is highly temporal equivalent. So, we use laser sources. You superpose one of the beams you call as a reference wave front. Reference wave front is a plane wave front. You know the face. Assume that you know the face of that wave front. The object wave front is the wave front that interacts with the object. That is either reflected or it is going through the object. And then it reaches here. But let's say your detector plane here. So, that will lead to a interference point and something like this. If the object is not introduced in the path of the object, you call this as a carrier fringe. So, it carries information. But the information is not yet there in that interference pattern. So, what you do if you introduce the object, it gets modulated. Your interference fringe is the modulator. So, what you can do is that you can do a demodulation. Demodulation basically means you remove the carrier frequency and get the information regarding the object alone. So, that is basically done. In our case, we record these interference patterns or holograms on a digital array. So, you get a digital copy of the interference pattern. You do a, mostly in our cases, we do a Fourier transform. Whether it is for a Kirchhoff integral or a Wrangler spectral propagation integral. You use a Fourier transform. What you can say, you pull out the, what you can say, the carrier frequency and bring out the information due to the sample alone. So, I'll come to that a little bit later. So, this is your interference equation. When you superpose, this is your interference equation. These two terms are together. So, this is your, let's say you are incoherent, even if your source is important. So, this is like your incoherent addition. Plus, you have your, if you talk about your space, in terms of your special frequencies, you have your side bags. So, side bags basically contains your phase difference. The phase reference has got a 5O, that is, you call it as object phase and the reference phase 5R. So, the object, since you know about your reference, theoretically speaking, you should be able to extract your 5O. And if you extract your 5O, plug in that equation for phase, you are basically going to get your optical part change. If you know the refractive index, you are exactly going to get the thickness profile of the sample. That's a basic idea. So, holography is a method. In fact, so, this is, this is basically interference microscopy. Of course, what you are doing is that you can put a lens and make a, what you can say, magnified image at the sensor, superpose, get the interference pattern. So, you can say, it's a interference microscopy. It's nothing but an interferometric technique. What do you record? It's basically, you have, I'll just come to that, how else it is done, how it is done. So, it is a, so, Nobel Prize 1971. So, that is invented in 1940. Basically, holography means you record the whole field. Whole field, in this case, basically means the scanner amplitude, as well as the phase. That is your holography. So, the basic idea is something like this. If you think about a diffraction grid, so, diffraction grid is basically nothing but, of course, it can be a phase grating or an amplitude. Let's talk about amplitude grating. If there's a diffraction grating, so, it follows your diffraction equation. That is your E plus D, sine theta, I hope it's fine. So, if you have two plane waves, you have two plane waves, basically superfosing at an angle. So, you have your interference pattern. So, this is your E plus D. I call it as your E plus D. That is basically, that depends upon this angle of incidence between the two wings, so, that is becomes sine theta. So, I am going to get only the first counter, that is equal to lambda. Lambda is the wavelength. Now, if your angle is fixed between the two plane wave fronts, so, that means theta is fixed. So, if your angle is fixed, then your theta is fixed. So, it will lead to a particular E plus D. So, you remove one of the beams. Let's say that you are removing this beam and illuminating the grating with this beam. If there is only one direction in which can reflect the back, this direction, because it has to preserve this equation. Of course, you can have this thing in this direction. So, let's not talk about it now. So, basically your grating preserves the angle information or interference pattern preserves the angle information. Now, instead of this thing, if you have a point source, I am not going to draw that thing. If you have a point source, so, one of the beams is from the point source. So, that is a spherical wave front. So, what you have is a diffraction grating with variable E plus D. So, here the E plus D is less and here E plus D is, or the grating element, E plus D is for the grating element. Grating element is lower here and grating element is higher here. So, when you have a smaller grating element, you have a, if you look at the equation, you have a higher angle of diffraction. When you have a lower, a larger grating element, you will have a lower angle of diffraction. So, basically what happens is that the beam from this point and this point converge at the point object. So, basically now, if you record a hologram or an interference pattern that is an affirmative hologram and reilluminate it, remove the point source, reilluminate with the reference wave that is a plane wave, let's say. So, you will see a point source in space. So, now it has got the angular information plus the depth information. This is B. So, it is basically, so, when you reilluminate, you get your point source here, back here, exactly at where it exists. So, this we call as your virtual image and of course, where it can scatter in the forward direction also. So, that will also give you a real image. So, you will have two images when you look at a hologram, one you call as a virtual image and other you call as a real image. But when you are looking through the hologram, if you hit a point source, basically you have a lens here, right? So, one of the images is formed here, one of the images is formed here. So, if I am focusing on this image, this will become distorted and if I am focusing on this image, this will become distorted. So, when you are in a conventional hologram, if you look through a hologram, you should be able to see two images, one virtual and one real. So, but if you are focusing on virtual image, real image is de-focused if you are focusing on real image, your virtual image will be de-focused. Why I am talking about point sources is that any object as such, whether it is your face, whether it is the weather, whether it is the jet, it is nothing but a collection of point sources. So, each point on your object leads to one interference pattern. So, think of them as independent interference patterns that is recorded. So, each interference pattern will lead to a single point image. The collection of them is your object. So, that is how your holography works. Simply, if you look at the grating picture of a grating. Of course, mathematically, let's talk about it. So, this is why I have shown two point sources. You can extend it to n number of point sources. It is about exactly the same way. To your mathematical representation of your holography, you have your object and the press. So, I have already, so this is nothing but your, ultimately you will have, you look at this equation, you have your, this you call as your background term, plus your real image, due to your real image and virtual image and numerically, the reconstruction basically means multiplying this holograph by the reference wave itself. Again, you multiply with the reference wave. So, this is your reconstruction. Mathematically, this represents the reconstruction. You multiply the recorded holograph with the reference. So, of course, you should remember that your reference is not something like this. This is a complex amplitude distribution. So, you basically multiply with this term, you will arrive. So, basically, this one is the first term, is the background term. Second term, you look, is basically nothing but, except this term, is nothing but your object term itself. So, except this one, this is your object term with a distortion factor. This is a complex form due to your object term with a distortion factor. So, basically, you are reconstructing your object term and r square is nothing but a, this is nothing but a real number. So, that is an amplified, intensity amplified here, amplified virtual image. So, that is this term. So, illuminated, you have your anti-fragment reference beam, that is your this term and this one is this term and this one is this one. Your formation is interference and your reconstruction is diffraction. So, I will keep this thing. Okay, so, there are a few numerical methods by which your holograms can be reconstructed. In fact, all depends upon your scalar diffraction theory. So, there are mainly two approaches. One, there is your Franco-Kirchoff approach and the other one is your angular spectrum approach. The main difference between them is the Franco-Kirchoff approach you have basically assume a paraxial propagation. In angular spectrum approach, you don't assume a paraxial propagation. In Franco-Kirchoff integral, you are basically propagating space itself. Whereas in angular spectrum approach, you are propagating your frequency spectrum to wherever you want and then taking an inverse Fourier transform to convert that back into space. So, Franco-Kirchoff approach is mainly used for larger objects. So, basically your distance of propagation is very large compared to your size of the hologram. And for us, for example, we are recording on a digital array. The digital array is of the dimension of few millimeters to maybe like a centimeter or so. And the distance of propagation is in quantities like maybe like few tens of centimeters. So, that is much larger compared to the size of the hologram. So, basically, you can apply your paraxial approximation. That is also called as your frontal approximation. And you can reduce your whole diffraction integral into, ultimately, the whole numerical reconstruction into nothing but a frequency of another transform. So, it's nothing but a Fourier transform of your hologram multiplied by the reference and a spherical factor. So, that is your reconstruction. Now, if you look at this equation, there's a dgf. So, there's a dgf. So, if you look at this image, so that's d, it's nothing but the distance of propagation. So, once you record the hologram, and then when you numerically reconstruct it, if you change d, you are basically going to focus on two different planes. So, that is called as your numerical focus. So, once you record a hologram, after recording, you can focus on two different layers. So, basically, if you have an image from a volume, you can focus on two different layers of the volume. But only issue is that it also depends upon your coherence of your laser source. So, let's not get into that. Okay. So, once you have the once you have the complex amplitude, reconstruct complex amplitude. So, you can have the intensity. Intensity is nothing but absolute square of that complex amplitude. Phase is nothing but your time inverse of your imaginary part by real part. So, you'll get both your complex amplitude where t and complex can be converted with intensity or as well as phase. So, numerically, you are basically extracting as well as phase. So, now, let's go to that's a basic theoretical aspect. So, now, let's present some of the results we got. So, that might be interesting. I don't know, but I had to introduce some of the theoretical part because before showing the results to see what is numerical focusing you should know how it is done. Otherwise, you cannot appreciate how it is done. What it is. Okay. Okay. So, this is basically the hologram of a diffuse object. No represent anything that scatters in every direction, rough object. So, since the object is rough basically what happens is that the object wavefront has got random phase changes. If it has got random phase changes the interference pattern, that result will be random. So, if you look closely you're not here these are not interference things. This is the inside. So, this is this interference friend. So, you can see the interference friends. They are randomly oriented and it shouldn't be randomly oriented because your object is rough. Okay. So, this is the para la reflexión de modo, lo podemos hacer. Entonces, el laser, desde el mismo laser, básicamente, uno de los límites iluminados, el sample o el objeto, el otro acta como referencia. Entonces, por supuesto, sufríense en el hueco. Entonces, obtienes este espadrón de intercambio. Así que, básicamente, el espadrón de intercambio de un cuello. Es muy importante, no sé si el vídeo no funciona. Así que, lo que pasa es que este cuello fue quedado aproximadamente de 1.2 metros de el cuello de mi detector. Entonces, básicamente, para obtener la imagen perfecta, tienes que propagar de 1.2 metros. Entonces, cualquier distancia antes de 1.2 metros, será autofocus, cualquier distancia después de 1.2 metros, será autofocus. Entonces, básicamente, cuando propagas a 1.8 metros, en realidad, es lo que quiero mostrar. A 1.8 metros, tendrás la imagen perfecta de el cuello. Pero no funciona. Perdón. Perdón. Ok. Creo que esta cuestión con la función de este punto es básicamente, el número de la imagen, no te dará nada. Pero la cosa es que, ¿cómo puedes aplicar la holografía? Básicamente, es decir, para la mesura de deformación. La holografía convencional. Cuando las plagas fotográficas están utilizadas, lo que has hecho es que tienes un objeto, recordas la holografía del objeto. Tienes una versión deformada del objeto, recordas la holografía del objeto en la misma plagada fotográfica. Entonces, ahora tienes, digamos, dos diferencias de el mismo objeto. Cuando te eliminas con un objeto, es básicamente propagar en dos direcciones, el inicio del objeto y el final del objeto. Y, ya que te utilizas un objeto laser, los dos estarán coherentes. Y estos dos objetos serán, finalmente, interfieras y te dará un set-up de las franquillas interferentes. Estas son las franquillas holográficas. Ahora, las franquillas holográficas están directamente relacionadas a la deformación. Entonces, eso es básicamente, así que, básicamente, una luna es aplicada en un pollo. Una luna es aplicada. Entonces, antes de aplicar el pollo, es después de aplicar el pollo. Entonces, antes y después de aplicar el pollo, claro, la fase, si lo miras en la fase, es random. Y debe ser random. Es random porque, ok, lo he dicho, creo que es un poco, uno de los cosas. Ok, antes de esta cosa, aquí, en el vídeo, si lo miras, lo he dicho en tres palabras. Entonces, esta es la luna franquilla. Esta es la luna virtual, que es en fokus. Y esta es la luna real, que es en fokus. Siempre tendrás tres palabras. Y si lo miras en la fase, aquí, es random. Es random porque, el pollo es random. La franquilla es random. Entonces, vamos a tener una fase random. Pero cuando haces una fase de subvención, cuando haces una fase de subvención, la cosa es que estoy mirando el mismo objeto. La única cosa es que es un poco deformada. En este caso, entonces, la franquilla permanece. Entonces, cuando subvenece la fase de la primera fase, de la segunda fase, básicamente la franquilla permanece. Pero, de esta forma, una fase de subvención permanece. Entonces, entonces, esta es la fase de subvención de la segunda fase. Es siempre el punto 0 y el punto 2. Y la franquilla es siempre el punto 0 y el punto 2. Entonces, la fase de subvención de el punto 2 es el punto 0 y el punto 2. ¿Qué hacemos? Doende un algoritmo unirrápido de diferentes algoritmos. El algoritmo unirrápido y la actualiza en continuidad. Entonces, esta es la fase. Y así que es la forma deformada que se abriman en una dirección. como por la deformación de nivel nanométrico. Así que, si te mantienes el camino en el que hay un sonido, me da alrededor de 10 a 15 nanométricos como la resolución en el caso de los samples ricos. Así que, no sé si el video va a funcionar o no. Esto es lo que quiero mostrar con el ladrón de un candelíver. Entonces, si lo ladre el candelíver, en realidad, claro, puedes ver que es muy bueno. Es mucho tiempo. Así que, básicamente, ¿qué pasó? Así que, básicamente, el ladrón de un candelíver y el frecuencia de la frecuencia de la frecuencia. Y, básicamente, y luego te acuerdas de los holográneos como una función de la ladrón. Así que puedes ver. Entonces, esto es básicamente el ladrón de un candelíver. Por supuesto, puedes usarlo para encontrar las lindas pequeñas y los lindos pequeños. Por supuesto, no hicimos eso. Es solo para demostrar. La deformación de la deformación de nivel nanométrico es muy importante. Una de las cosas, en realidad, me gustaría decir, esta es sobre el mesuramiento de difusión, dos líquidos de binary difusión en cada uno. Así que, básicamente, tu distribución es una función de la función de la lindas, en este caso, la función de la lindas de la función de la lindas de la lindas y la función de la difusión que se basa en la segunda ley. Así que, en este caso, lo que ha sucedido es que, en vez de tu lindas de frecuencia de referencia, utilizaremos una referencia que es exactamente locada. Así que, este es mi objeto aquí. Exactamente locado en la lindas de la lindas. Entonces, esto, la lindas de frecuencia, una lindas expandida. Así que esto no es nada, pero el h2o y el a&a van a ser x2 y x5. Así que esto no es nada, pero expandida en la lindas de frecuencia de referencia. Si tu referencia, en vez de la referencia, esto es tu referencia de referencia, lo aplicas aquí, básicamente cancela esta lindas de frecuencia. Si cancela esta lindas de frecuencia de referencia, tu postura de reconstrucción no es nada, pero si te recordas la holograma, haz tu transferencia de frecuencia. Si lo veas aquí, entonces esto cancela la lindas de frecuencia, lo que queda no es nada, pero la lindas de frecuencia de frecuencia. Entonces, lo que haces es que, básicamente te recordas la holograma con el sector de soporte, el objeto se refiere a la referencia. Si te recordas la holograma, te regalas la transformación de la holograma y te regalas la reconstrucción, la fase y la amplitud. Ahora, esto es bueno para aplicaciones de real-time, porque solo necesitas computar una sola holograma. Antes, básicamente la holograma y te necesitas aplicar tu propagación, distancia, etcétera. Entonces, esto es solo una sola transformación de frecuencia que te regalas la fase y la amplitud. Y básicamente, te regalas la subvención de fase, la subvención de fase y la amplitud de fase. Y de la fase, puedes completar la subvención de la difusión. Y, por supuesto, también puedes monitorar el proceso de difusión. Para la misma cosa, esta es la loading mecánica. Así que, básicamente, esta es la key. Así que, básicamente, mecánicamente, es como un cantilever encendido en una de las unidades. Entonces, el loading. Entonces, la difusión es como, el máximo es como 2-3 micrómetros. Por qué estoy mostrando esto? Entonces, esta es la loading mecánica. Lo mismo puede ser hecho con, para el cantilever, para el terminal que está en una de las unidades. Así que, básicamente, hay una expansión terminal. Y esto es capturado, estamos capturando la expansión terminal. Y, debido a la expansión terminal, se deforma y esta deformación puede ser capturada con una escala de nanométrica de difusión. ¿Dónde usamos esto? Así que, por supuesto, esta es la distribución de temperatura. Entonces, esta es la distribución de temperatura. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. Es una placa. No es un defecto, es un defecto, es como si hay algo dentro de eso, es como una caída en la óptima, que es la flexión acrícola, se va a dar una caída dentro de eso, así que básicamente tienes un objeto uniforme y hay una unidad o una homogénea en entre. Entonces, aplicas un load termo, básicamente la difusión, la difusión en diferentes partes será diferente, y desde que tu face puede capturar, ok, una más cosa, así que como la difusión, la difusión en un, digamos, diálogo electrónico, tienes un tiempo, como bien como el tiempo de la distribución refractiva. Entonces, si tienes tiempo y el tiempo de la distribución refractiva, tu face del objeto se va a pasar a, el sample también va a cambiar con el tiempo, especialmente como bien con el tiempo. Entonces, eso es lo que es básicamente capturado. Entonces, la difusión es difusiva, así que sin defecto, parece algo como este, el método uniforme. Y, con el defecto, bizarro, se va a cambiar, el load termo aumenta. El load termo aumenta. Y lo que podemos hacer es que, por supuesto, podemos extractar la información de la face y sustituir la línea o la faces de la dose, y llevar los defectos a su vez, y, por supuesto, con el defecto también podemos hacer, presumiendo que es simetr走了, podemos ver que no pasa la inversión y obtener las respaldas locales en las expadiencias. Así que lo hicimos para... Esto es para un... Agua de roda en el aire Así que podemos encontrar... Estos cambios de refractividad La principal idea es que Si lo veas con esa roda blanca Entonces, hay un... Tienes... Cabeza de cobertura Así que la defusión de la cobertura Es diferente de eso en el aire Así que se puede ver Espero que sea visible La roda de cobertura es esa roda de cobertura La única problema es que... La roda de cobertura de cobertura Claro, la roda de cobertura no pasa por eso Así que pensamos que Puede ser... Basicamente imagino... Algo que está debajo... O debajo de esa roda de cobertura Así que lo hicimos... Se usamos un roda de cobertura Y luego tuvimos un pequeño... Cabeza de cobertura En el otro lado Y nos imaginamos La roda de cobertura Así que básicamente La roda de cobertura Claro, necesitamos... Idealmente hemos encontrado que Tienes que confiar en todo eso Pero hemos hecho algunos resultados Así que básicamente Imaginamos el aire Surroundando el objeto de la cobertura El impacto de la cobertura Así que básicamente debido a la diferencia En la defusión de la cobertura Para que se vea visible Si veas la roda de cobertura Entonces la roda de cobertura Sin ninguna roda de cobertura En la roda de cobertura Es básicamente con la roda de cobertura Se puede suscribirse La primera de la segunda Y obtener una posición aproximada De esa diferencia Aquí Con esa Dil 개�ida Es un objeto opuesto No es un objeto de translucencia Por lo tanto Esto es una de las cosas Por lo tanto Jubash es haciendo aquí Ahora lo que was por la década Es básicamente Como dije Si habías un objeto de roda de cobertura Y terminas detrás Así que vamos a resultar En una articulación de therapists Temporamente envolviendo el kuvio Así que, de la manera en la que podemos extractar múltiples features, y con esos features, podemos traer un algoritmo de maquillón. Y de ese modelo, podemos identificar la química de los samples, así que eso es lo básico. Así que estos son básicamente para cinco diferentes químicas. Así que esto es, de nuevo, actualmente, de 2.5 a 12.5. Entonces, lo mezclamos, así que el protocolo permanece lo mismo para comer todos los samples. Y estas son las especies de la distribución moderno de la pantalla temporal. Y por esto podemos extractar múltiples features, como su máximo, el número de reglas de cal Shame y la parámutana del 15 que se ha realizado. Y para el baile de la múltipla química, lo mezclamos con el guión de la química y está inspirada con los parámetros. Y el modelo de la estimates de generación y de maquillón. Y hemos encontrado que el error es de aproximadamente 200 micrófonos. Así que hemos utilizado 2.5 milímetros de incertidumbre, así que estamos obteniendo alrededor de 200 micrófonos en el mesurón. Y hemos also testado con el segundo set, así que nos dieron aproximadamente un error de 0.5 milímetros. Así que todavía estamos trabajando con el barco. Espero que antes de morir, debería estar terminado. Así que este es el resultado, en realidad, que he puesto antes de venir aquí. En realidad, en vez de acertar con un... lo que puede decir, acertar rodas y acertar plataformas, podrías también usar un laser beam para acertar el sample. Entonces, el set ha sido algo como esto. No tengo tiempo para hacer algo. Así que esto es mi incertidumbre. El incertidumbre es acertar el sample. Entonces, hay una absorción aquí. Entonces, lo que puedes decir. No voy a decir... ¿Qué es el efecto de la lenta de caramel? ¿Qué es el efecto de la lenta de caramel? No, no, no. ¿Qué es el efecto de la lenta de caramel? Sí, el efecto de la lenta de caramel. Entonces, básicamente, lo que pasa es que hay un cambio en la... que absorbe la luz. Es decir, se arruina, se arruina las cambias de la refractiva. Si las cambias de la refractiva... Entonces, lo que puedes hacer es que estén en esta lenta. Entonces, primero, se arruinará esta lenta, esta lenta, etc. Entonces, si se vean... por el máximo de la lenta, puedes ver las dos lentes. Por supuesto, estoy todavía trabajando en qué son las features para destacar, para identificar las lentes. Así que eso va a llevarse un poco de tiempo. De todas formas, estábamos trabajando con esos experimentos. Entonces, estamos obteniendo algunas buenas resuelves aquí. Ok, así que me voy a... Entonces, esto es para aquí... pero hay algunos aspectos. Entonces, voy a hablar un poco sobre el microscópico. Si hay un borde, yo lo puedo detectar. O yo lo puedo detectar. 15 minutos. Entonces, en realidad, esto es una de las áreas en la que trabajamos muy... lo que podemos decir. Hacemos mucho trabajo. Finalmente, el objetivo es tener un microscópico tan pequeño que puede ser llevado al campo para testar diferentes decisiones. Entonces, ¿cuántos decisiones podemos hacer? No lo sabemos ahora, pero obtenemos algunas buenas resuelves en la malaria, la talicinia, y la circunstancia en el proceso de clasificación. Igual al set-up, lo describimos. La única cosa es que, por supuesto, esto puede ser con y sin lenzos. Entonces, voy a mostrar el uno sin lenzos. Entonces, podemos tener una imagen sin lenzos. Entonces, por lo tanto, lo que he mostrado es sin lenzos. No hay lenzas importantes. Pero en este caso, estamos introduciendo una lenz. Entonces, tienes un objeto microobjeto. Tienes una imagen magnífica. Y aquí te mantienes digital. Y tu referencia, la intensidad, el espacio. Objeto, intensidad y la fase. La superposición. Y tienes tus fringes. Y, por supuesto, tienes los fringes de carrera. Tienes un modulator. Tienes una modulación. Hemos hablado de cómo te mantienes un modulator. Por supuesto, hay un poco diferente de aquí. Estoy mucho interesado en esto, porque no solo en India, sino en todo el mundo. Especialmente, eso puede ser lo que manifesta en las rojas. Por supuesto, en la malaria, los paracetales van a las rojas. La ciclosalanemia, los cambios de la densidad y los cambios de la forma no pueden cambiar tu crescencia. Y también la densidad de las rojas cambia a lo normal. Porque la flexibilidad se despliega, así que no puede ser libre. Así que, básicamente, la flexibilidad de tu cuerpo puede ir y llevar oxígeno. Así que eso es muy importante para la salud de una persona. Para ver si estas condiciones existen en ellos o no. La primera es la enfermedad de la malaria y la segunda es la condición hereditaria. Normalmente, la clasificación o la identificación es por la química para tratar el sample. Por ejemplo, en el caso de la malaria, los paracetales, la química, los paracetales, no tienen nada, los paracetales son rojas. No tienen nucleos. Y estos gímicos solo tienen RNA o DNA. No necesitas un núcleo para eso. Pero el paracetado de la malaria tiene RNA o DNA. Y eso es solo los paracetales. Y eso cambia. Cuando veas el microscópico, los paracetales van a aparecer en un diferente color, es decir, oscuro. Y, en general, el microscópico basically se ve en el microscópico y se identifica en diferentes cambios de color y se identifica en el nivel de la malaria. Es un caso normal que es seguido para la detectación de la malaria. En el microscópico normal. Y, por supuesto, puedes tener el paracetado de los paracetales pero, por supuesto, los paracetales son suficientes. Y, al final, necesitas la técnica. No necesitas eso. Ahora puedes hacer un paracetado de la malaria y hacer eso, creo que es un issue diferente. Pero es aún más duro y se mantiene en el nivel de la malaria. Así que pensamos que puede tener un microscópico que puede extrasar estos paracetales y usarlo para classificar la disease. Se identifica en el microscópico, y se identifica en el microscópico. Por supuesto, es un microscópico de interferencia. Así que, básicamente, debes tener dos paracetales. ¿Qué es tu referencia? ¿Qué es tu referencia? Que no es modulado o el otro va por el objeto? No sé si puedes ver los paracetales. Así que, estos son los paracetales sobre los que tienes los paracetales. Los paracetales se modulan porque hay un cambio. Y, por supuesto, lo que hacemos es hacer una estructura y poner los paracetales. Y, por supuesto, es como un microscópico potable. Por supuesto, no es potable. Voy a ver el potable al final. Pero, esta configuración te da las mejores imágenes. Porque tu referencia es enternamente viajando a una dirección diferente y no tiene ninguna reforma objetiva. Pero el problema es que es aún barco que necesitas varios paracetales. Y, básicamente, es muy difícil de llevar. Por supuesto, es costoso. Entonces, la única diferencia aquí es que de los paracetales es que utilizamos un espectáculo angular en el interior. Entonces, en el espectáculo angular, si tu imagen está en la lenta, tu distancia de propagación es 0. Entonces, toda la reconstrucción no hace nada, pero la analización de los paracetales. El paracetales, basicamente, es una transformación de paracetales, poner el filtro, llevarlo al centro, negar la frecuencia de carrera, hacer una transformación de paracetales. Es matemática. Entonces, lo que hacemos es que tenemos dos holográneas, uno con la piel en el campo y uno con la piel. Entonces, hay una creación de petición entre las exposiciones. Y tú haces una transcurción de petición. Entonces, lo que es la fase debido a la desfocación, o las operaciones, la mayoría de ellas se calcularán y se trae sólo la información de la fase de petición. Y de la información de petición, si se sabe la creación de petición, puedes convertirlo en información de petición, así que es básicamente un profundo 3D profundo, o no, el profundo 3D profundo Puedes tener un gran número de features de teléfonos que podrían ser extractadas. Así que, básicamente, voy a hacer tres categorías. Una es de un único hologramo que me llamó como parámetro físico, que puedes llamar a cualquier otro. El segundo me llamó como parámetro mecánico, porque es de una serie de teléfonos de tiempo, así que te dará el profundo profundo del teléfono. Y el último que me llamó como parámetro optical, no es de una serie de tiempo, es de iluminación del teléfono en diferentes ángeles. Así que eso es de la fotografía del teléfono. Así que, inicialmente, tendríamos que hacer una escena de emperonix, para que todo este sea. Y también intentamos incluir una microfluida en este teléfono, que trabajó muy bien. Voy a hacer eso. Voy a hacer esto, porque es básicamente el teléfono compacto. La única cuestión de este teléfono es que tienes dos teléfonos separados para que el teléfono se consigue. Entonces, lo que podemos hacer es que, en vez de usar dos teléfonos de teléfonos y todos esos teléfonos que están en componentes, podemos usar un paletero. Entonces, el paletero de teléfonos tiene reflexiones de la frontera y de los espacios. Así que, tienes dos teléfonos directamente de un solo paletero. Entonces, estas dos interactúan aquí. Y si el peso de el paletero es larga, así que, de todas formas, lo que tienes es lo que se llama un paletero de teléfonos. Tu tendrás un objeto sobre su imagen. Pero si aumentas el peso, estas dos se separan de fuera y luego quedará a holográneas. Entonces, lo que tienes es lo que es mas importante. Ahora podemos mesurar la fluctuación de teléfonos de teléfonos. Es una profe de teléfonos de teléfonos de teléfonos y como una auxilia de teléfonos de blanquitos de blanquitos de blanquitos de blanquitos. Y es básicamente porque, hemos tomado el blanquitos de blanquitos de blanquitos de blanquitos de blanquitos de blanquitos de blanquitos de blanquitos, y ya que tenemos una concentración también como un gradiente termal, por eso este es el álbum. Entonces, la amplitud de la auxilia es de un poco de nanómetros a un poco de tantos nanómetros. Entonces, normalmente, el set de mags under may be like 3, 4, 5 nanometers. This one we can get subnanometer, may be like almost like 0.5 nanometer over a period of 2 minutes, we get. So basically this is ideal to measure this location property. And this is a guy I lost on my cell that is concentrating at, it's not shown. Anyway, so this is the stability I am talking about. Ok, so then we thought that can we have it, can we put that into a very compact device. So this is the device, it's a handheld device, almost may be like 7 centimetres, 9 x 7 x 3. So instead of a normal objective lens, we are using lenses that is from optical pickup units. The advantage of using OPU is that it is already on a voice point. So by applying a current, you can move the lens. So you can get multiple field of use. Plus you can also apply a current and focus also. So you don't need a separate focusing mechanism. So your device becomes very compact. And it looks something like this. So it looks something like this. So you have your laser. So this is a 50 centimeter laser. And you have a sharing plate. And you have an optical pickup unit here. So the lens is on with optical pickup unit. And then you have cells, you have power sources for your laser as well as here, optical pickup unit. Of course you can convert a normal clinical microscope also into a 3D one. So just we add a module that can be directly, you just remove the top portion and insert that things. That will be congruentos. It's what I was talking to you about. Convert that into a, you don't have to do anything. Just put it, plug it in so it will work as a 3D microscope. Okay, now the classification part. So as a tool, we get multiple sample features. Now we have to use these sample features. So just extract the sample features is not enough. So this is in the case of a, in the case of healthy as well as, and sickle cell positive sense. So we had, we had collected blood from sickle cell positive tested positive patients as well as healthy patients. And these are the distributions. Let's not look at the distributions of course they look different. That means, and we did some statistical analysis and found that the distributions are fine from two different classes. So of course that can be used for classification. So this is a basic idea. And basically some machine learning algorithms and we were able to get almost, this is for sickle cell disease. We were able to get almost like 98% accuracy so far. Of course. And let me tell you, this is with only six or seven samples assets because getting the samples is also difficult. Even in India getting the samples is difficult. So we are still collecting the samples and recording the holograms and trying to improve the results. And again with malaria the same thing. We got around 96% accuracy with malaria. And then one of our students in fact he designed a small app for browser based apps. So basically this can be connected to this microscope I showed you. So these holograms can be uploaded and the whole process takes place in an off-site piece and the result is sent back to the user. Okay this is the tomography but I will not go much into this thing. So it's the same setup can be used to have a tomography of the slicing of the cells also. I think we are working now basically on integrating an optical trap with a holographic microscope. So that optical trap is again basically using an optical pickup unit from a lens. Need not be from optical pickup unit but we use an optical pickup unit the lens and the same laser so it can trap a blood cell easily. Then we integrated a holographic microscope into that one. So it's a compact device and it can give multiple features. This video is not working at all. The trap that's working of the trap. We did some again some classifications including the Brownian motion of the sample plus the face images of the sample. So this is the optical trap the work of the face images of the optical face reconstruction from the optical trap. That's a blood cell. The one on the bottom is a blood cell and on top is like a 6 micrometer microsphere. 6 micrometer diameter microsphere. And then we combined we are getting like 90% accuracy. This is nothing 90% accuracy. I need at least 99 to be sure about that. But this is what we are getting present as such. So we applied it. Of course it's not only for the biological samples we are applying it to. So we can use it let's say for example semiconductor inspection of semiconductor wave first the high profile of the semiconductor wave first etc. So this is one of the devices in fact we designed and the company in Korea basically is manufacturing this thing. Okay. Then I told about the lensless thing. So I'll wind it up after this one. So lensless thing. It's not necessary that you should have a lens holographic because you have the what you can see. You have numerical focusing. So the basic thing is that so you have two beams here. So there's a sample here there is no lens. So you have holograms on the sensor. Now what you do is that so once you have the holograms what you can do is that you can numerically focus back on to the best focus plane. Of course you can use auto focusing algorithms also. We use auto focusing algorithms and then expect the face and get the 3D product. So that one and here is that your field of view your field of view is decided by your lens in the case of a lens. For example, if you are using a lens of 40x magnification your field of view is approximately 250 by 250 microns. But here if you look you are getting a field of view up to almost 5 millimeter by 5 millimeter. So you have larger field of view. Only issue is that your size of the object that you can image is limited by the size of the pixel. Of course you can do a sub pixel scanning in that case to convert your pixels into small sizes that you can do. But this is one of the things in fact we would like to do in fact later on. Other issue is that in your lensless imaging you need to propagate. So propagation means loss in resolution. You are usually losing as when you propagate you are losing higher special frequency. So there is a loss in resolution. So only issue with lensless case is a loss in resolution. Of course people have done with the object very close to the sensor. So you are getting approximately numerical apertures of approximately 0.6. So we are getting numerical aperture approximately 0.2 point not more than that. So that means resolution is around 0.2 2 microns. Otherwise you get I am done. So done. So this is one of the things we are pursuing to convert that into a compact device. So what I will do is that I will write it up here. So these are the things you would like to do. Especially the thermal lensing. So we would like to apply so that is what he is doing now. Whether we can use a laser for photo thermal excitation and whether we can slice it or not just by single beam whether you can do it. Then we would like to do it for biosamples. Basica idea was to use this thermal loading for biosamples such as for example skin can we just apply maybe two or three can been changed and find what is below or not. That's one of the things. And for DHM we basically are now trying to put some external stimulus maybe an electric field maybe even a in fact I want to show that result I couldn't find it. For example, thermal lensing. So we basically shine a focus laser beam the cell the blood cell expands in fact we have seen that whether we can use it for accurate accurate classification of the cells and of course at the end is like a low cost deployable DHM so that we already have but we now basically have to train it for multiple diseases so that requires a lot of work to collect samples to record holograms and as well as to basically train the algorithm to classify the cells so that's the end ok so of course this is not the work of a single group a lot of other groups also involved so of course without acknowledging them it is I should not wind anything up so these are the my collaborators and of course now thanks in fact for inviting me Maria of course for inviting me so you could really good do some good work and I hope to continue that and thank you for this what you can say they are warm welcome and all the support you gave me during the visit and with that of course I will wind it up and I can have questions but I tried to put in as much as possible I would like to acknowledge them into the FLAB because they yeah of course FLAB yeah they gave us a lot of samples and what in fact whichever way we want it absolutely absolutely Calo, Fonda, Riki we would like to ok we have time for questions now let's restart with audience here and then we have online also questions for online questions you can open your microphone and directly as I will give you a question I know something like that when you trap blood cells you know they can be affected by the laser beam yeah this is an important issue yeah which kind of laser how do you manage or the power the way frame not to damage the yes the one we are using is 650 nanometers it's from the UBI unit of course it can be absorbed a lot but what we did is that we trapped it and the time we tried to see how the profile changes there wasn't much change in the profile as such and the power was like 40 milliwatts in the last we used was like 40 milliwatts not much the way frame yeah 650 nanometers 40 milliwatts it worked but I'm still not satisfied with the results why so a clean liquid yeah yeah yeah yeah yeah yeah yeah it can be done so we were bringing something in the similar line like for example suppose it's equivalent to measuring the concentration ultimately so the contamination changes something, some parameter so we were bringing like illuminating the liquid with the laser and excitation laser y luego el problazor reconegará los programas. Y son muy interesantes. Una de las cosas que no mencioné, porque yo pensé que, en realidad, me dijeron que mencioné, pero no mencioné. Así que pudimos measure muy, muy pequeñas consensualidades. Así que eso puede ser usado para discutir la potencialidad. Porque es muy, hoy, muy profesional. Porque podemos ir ahora en el maestro de absorción, cuando comparte con el maestro, podemos ver los programas, podemos mencionar. Hay algo que vamos a hacer con el maestro aquí. Hay un papel que va a aplicarse en este tema. No lo siento, pero... Sí, lo podemos definir. Sí, sí, sí, sí. En realidad, una de las cosas que vamos a hacer es también, como por ejemplo, si estamos en Niko Layers también. Si estamos pensando en, como, vamos a eliminar con diferentes posiciones y si podemos distribuir entre Niko Layers o cambiar las consensualidades. Sí, creo en beber agua. Sí, sí, sí. Es muy importante. Sí, sí, sí. Podría ser. Y puede ser hecho, por ejemplo, también tenemos una forma de hidrofluidicación, y luego, se mantiene soltamente ahí. O algo así. ¿Qué es lo que es lo que es? Sí. Bueno, mencioné el digital de la fotografía. Así que lo necesito, lo que es el sistema de la fotografía. Entonces, lo que es lo que es el sistema de la fotografía. Y lo que es lo que es lo que es lo que es lo que es. Por ejemplo, supongo que tienes una sensación sencilla suficiente para detectar fotos por fotos. Gracias por construir la holografía, por activar la foto individual. Si tu objeto está aquí, debería ser. Hemos hecho algo sobre la holografía en la luz de la luz. Pero no sé si es el objetivo o la dinamica. No sé si es posible, porque el objeto está cambiando un poco en dos exposiciones. Pero gracias por la foto individual. Sí, es lo mismo, por activar la foto individual. Y la coherencia. Sí, por supuesto que es importante. Como dije, lo utilizamos en la luz. La primera es la solución de la coherencia. Especialmente, digamos que utilizas una LED. El problema es que tu área en la que tienes las interferencias. Así que si tienes dos interferencias, básicamente. Sino que hasta la región en la que tienes las diferencias del parque, menos que la coherencia, tienes las interferencias. O sea, no. Entonces, es importante. Por supuesto, lo que puedes hacer es reducir el ángel. Pero reducir el ángel, la reconstrucción, como dije en este caso. En este caso, por supuesto, puedes ir para tal vez, tal vez, el camino de problemas y todo eso. Para hacer eso. Pero son, básicamente, literatura, no determinación. Las reconstrucciones en la fase de aquí utilizan determinación. Así que eso es una unidad. ¿Quién es de literatura literaria? Es una solución. Puede ser la solución final. Entonces, por supuesto que trabajemos en la set-up en línea con una retrocedencia de reconstrucción. Eso también funciona. No lo digo. No funciona. Pero si utilizas una lucha de la coherencia, y si el ángel es muy pequeño, la densidad de las interferencias es muy lucha. En nuestro caso, no funciona. Porque lo ponemos, lo hacemos, lo tomamos, lo transformamos, lo ponemos en un filtro, y lo ponemos en el filtro, si las secuencias no están separadas. Entonces, eso se hace. Por supuesto, lo hablamos con la lucha de coherencia. Lo que hicimos es que, en vez de tener un único volumen, en el mismo sensor, básicamente hicimos múltiples programas de diferentes puntos del volumen. Entonces, básicamente hicimos el volumen aquí, en el que aparecen. Entonces, la condición de coherencia es metida. Entonces, de diferentes puntos, lo intentamos. Entonces, multiplicamos los programas y lo intentamos aumentar el filtro. La advertencia de usar la lucha de coherencia es que la lucha es casi 1,4. Estoy diciendo la lucha especial. Es 1,4 de tu lucha de coherencia. No hay luchos espectáculos. No hay luchos parasitéticos en referencia. Entonces, la lucha es muy lucha. Más preguntas. Una pregunta online. Tenemos un volumen aquí. Muchísimas gracias. Muchas gracias por el interés en la conversión. Pero, no hay preguntas. Más preguntas. Me gustaría agradecer a vosotros por la presentación y a todos vosotros por el volumen. Oh, gracias a todos por venir. Incluso que no fue de vosotros, por supuesto, gracias por venir. Gracias.