 Je vous propose aujourd'hui de présenter un petit peu le radar digital, parce que l'image du radar a beaucoup évolué depuis la dernière guerre. Et puis un petit peu justement les structures géométriques qui sont liées aux mesures de nom d'électromagnétiques qui sont faites par ces nouvelles antennes complètement digitales et qui changent un petit peu la donne dans l'analyse de ces signaux. Donc vous montrez les résultats de travaux qu'on a fait en collaboration avec beaucoup de chercheurs, donc Marc Carnedon qui est un peu un spécialiste dans le domaine des probabilités sur les variétés. Améliarsté de Bordeaux, Michèle Warniatowski, Améliarsté Périmarek-Levi au laboratoire statistique, Réseau Saint-Goulot à l'École des mines de Paris, Sylvain Bonabelle également à l'École des mines de Paris, et puis différents tésards qu'on a eu soit à l'aise soit en collaboration. Donc l'améliarsté de Bordeaux, Michèle Warniatowski, Améliarsté de Bordeaux, et puis des remerciements qu'on a eu sur le sujet que l'on a très été, donc le professeur Kozoul, ce que vous en parlez aujourd'hui, le professeur Balyan aussi, je vous parlez de ces travaux et les liens avec ce qu'on fait, le professeur Marl qui est ici, qui on a un peu collaboré sur certains sujets dont vous en parlez. je vais vous parler, professeur Bojom, géré de FACSE et Côte-Vallée et le professeur Frank Kelsom de l'École Polytechnique. Je vais vous parler un petit peu des liens qu'on a fait avec ces quatre travaux des mathématiciens français, donc Jean-Luc Cousoul qui a travaillé sur des choses assez profondes en géométrie, en particulier, il a fait beaucoup de choses, mais on s'intéresse à ce qu'il a fait sur les structures haïtiennes qui sont utiles dans ce qu'on appelle la géométrie d'information. On parle des fonctions caractéristiques de Cozou-Villembert par exemple, de forme de Cozoul. Les travaux de Ballian qui a aussi développé le contexte de la géométrie de l'information mais dans le même quantique. Il a aussi introduit une métrique de ficheur quantique, j'essaierai de lire ce que ça recouvre, et puis des travaux aussi moins connus de l'enmarie sourio qui correspondent au chapitre 4 de son livre. Je pense que peu de personnes ont vu, alors beaucoup de gens se sont intéressés à tous les autres chapitres du Nile, ce sont ici, qui est sur des modèles de géométrie simpleactique mais appliqués à la mécanique statistique et qui nous intéresse aussi dans le contexte de la géométrie de l'information et puis le dernier Maurice Préchec, qui a travaillé, qui a introduit les espaces métriques et essayait d'étendre les probabilités statistiques dans ces espaces métriques. Je n'aurais pas un apport par rapport à leurs travaux, je suis pas un élève, mais un lecteur qui essaye de comprendre ce qu'ils ont fait dans ces travaux-là pour essayer de les appliquer dans le domaine radar. Je commencerai un petit peu par l'histoire, une histoire, même une préhistoire du radar, vous montrez un petit peu au XXIème siècle les applications du radar, qui sont comme les récrets nombreuses, je vous parlerai un petit peu les principes, les principes du radar, la digitalisation de l'ondes électromagnétiques et puis un chapitre ensuite un peu plus mathématique, avec des concepts géométriques qui sont assez intuitifs, où on essaiera de voir comment utiliser les outils de géométrie qui combinent géométrie, probabilité et théorie de l'information pour essayer de traiter ces signaux électromagnétiques. Donc le radar, là j'ai repris un diagramme qui a été présenté par la lardérie pour les 350 ans de l'académie des sciences, où il a parlé du tétraèdre entre matière énergie honde et information et algorithmes, et le radar est un petit peu l'appareil de l'information et algorithmes, énergie et honde. Donc on va digitaliser l'ondes électromagnétiques pour s'en développer des systèmes à très fortes puissances pour effectuer l'objet lointain et de développer une façon intensive les algorithmes et les calculs disponibles accueillement. Donc la préhistoire du radar, donc la maîtrise des ondes, elle a d'abord commencé par la maîtrise des ondes acoustiques, on voit ici les procédés développés par le professeur Jean Perrin pendant la première guerre mondiale qui était des procédés acoustiques en particulier pour la DCA, qui servait à détecter les mouvements dirigeables des avions. Donc on voit ici les opérateurs avec des systèmes acoustiques dans les oreilles qui sont en train d'essayer de positionner les antennes avec des systèmes à l'époque qui avaient été inventés par Perrin, donc les noms s'appellent Télésimètre, citémètre de Perrin et on voit ici des illustrations. Donc ensuite il y a eu avant le radar en fait qui a eu l'invention du sonar Parpolle-Langevin en 1917, donc on va fêter cette année le 100e anniversaire d'invention du sonar Parpolle-Langevin qui a donné aussi l'application de même médical, que les oncographes sont basés sur les principes sonars. Donc Langevin travaillait avec les frères Curie, il a développé des systèmes piezoélectriques justement pour digitaliser l'ombre acoustique pour la transformer en un signal électrique et la guerre arrivant, il a travaillé avec le fissier Ferrier, la sous-tétalesse de l'époque qui s'appelait Thompson, où ils ont développé en moins de trois ans le premier sonar, donc si vous allez à le SPCI, à l'école sphégique chimie de Paris, vous allez voir toujours l'évier, l'évier de Polle-Langevin où il a fait ses premiers essais de transduceur dans l'évier, ensuite ils ont fait des essais dans la scène et ils sont allés ensuite au large de Biscarros pour faire sur un navire cabillier des essais de détection jusqu'à quatre kilomètres avec un sonar et déjà des brevets, donc déjà à l'époque Polle-Langevin avait déposé des brevets qui avaient été étendus en 1923 aux États-Unis, donc les anglo-saxons avaient essayé de revendiquer l'invention du sonar mais ils ont quand même reconnu que c'était Polle-Langevin qui avait inventé le sonar. Ensuite entre les deux guerres, les communications par fil ont inventé le sonar, ou ici un système thermoracoustique mais qui va mesurer des temps d'arrivée différents entre différents récepteurs, donc il y avait des systèmes par téléphone qui reliaient les différents récepteurs et ça servait à localiser les batteries en fait à l'Monde, ici on avait un ruban de papier qui mesurait en fait les différents échos qui inscrivaient les différents échos mesurés par les systèmes apathiques et par triangularisation, on arrivait à positionner la batterie allemande. Donc le sonar, le radar, on voit le plus je sais effectivement le radar, c'était inventé en 1904 par l'Allemand Wiesmeyer, ensuite en 1917 le sonar et plus récemment le lidar basé sur le développement du laser. La propriété de ces trois sensors c'est d'utiliser les effets d'eau plaire, on va pouvoir faire des mesures de vitesse grâce à l'effet d'eau plaire, donc le lidar se développe beaucoup actuellement pour les mesures de champs de vent sur le marché de l'éolien par exemple, le lidar mondial est une petite société française qui s'appelle l'éosphère qui a été fourné par deux frères et qui vend ses lidars pour l'éolien pour le transport aérien. Donc le radar a été inventé en 1904, on voit ici le brevet allemand de Christian Wiesmeyer donc les idées étaient les équations électromagnétiques qui étaient déjà inventées en 1704 par Maxwell, il y avait eu des vérifications expérimentales par Hertz mais les premiers développements l'euro 1904, ensuite la seconde guerre mondiale arrivant donc il y a eu des travaux en France toujours avec le général Ferrier, avec le laboratoire national de radioélectricité des premiers brevets de la société CSF, qui était en salle de pannef sur les radars 1 et 2 GHz et surtout l'invention des premiers magnétrons qui permettait des maîtres de forte puissance et puis jusqu'en 1940 avec les radars métriques du LMT sur l'île de Porte-Cro, les LEP avec l'équipe de Montréal-Sponte et comme les Allemands arrivent en France, en fait les Français ont transféré cette technologie côté britannique. Ici on voit les certains essais français, ici c'était les premiers essais sur le navire Normandie, il y avait eu les incidents avec le Titanic donc il y a eu pas mal de financement pour développer les radars sur les navires de croisière pour pouvoir détecter les icebergs et puis d'autres radars centimétriques ont été développés en période, voilà, encore d'autres images d'époque, les radars des symétriques, les radars des essais sur l'île de Porte-Cro en 1937 et Maurice Pont qui était un normalien qui était aussi membre de la technique des sciences et qui travaillait dans ce laboratoire. Également à noter les travaux de Léon-Briouin qui a travaillé sur l'analyzation du magnétron, on faisait des émetteurs, on comprenait pas forcément le fonctionnement de ces émetteurs et donc Léon-Briouin était professeur au collège de France et en 1939, ici on voit un extrait d'articles sur la théorie du magnétron, alors il reste en France jusqu'en 1941 en fait mais il retarde quand même les essais de brouillage de la BBC par les Allemands et puis il part aux États-Unis avec l'opération Rapkine avec Addamar et Perrin et il l'aide à la recherche pour la défense avec la France-Libre et en 1942 il travaille au MIT toujours sur le radar du magnétron et il abordera aussi en 1956 les travaux sur la théorie de l'information d'abord publié en anglais et puis publié en français. Au côté anglais ce qui est plus connu, souvent on pense que ce sont les anglais qui ont un peu développé le radar, avec le soeur Watson-Watt qui a développé les premiers brevets en 35 et puis les premières installations en 1937 donc on voit ces grandes, ces grandes antennes qui étaient au bord de la côte anglaise donc c'est des radars basse fréquence, avec une bombe de 11 mètres et qui étaient disposées toute la côte anglaise donc on l'appelait la chaîne home, il y a des chercheurs du MIT qui disent que ce n'est pas la bombe atomique qui a gagné la bombe mondiale mais c'est les radars, je ne sais pas si c'est vrai, donc là on voit les allemands, on fait des allemands, il était très en avance aussi sur les radars, ici on voit les radars de 50 cm, donc il y avait la société GEMA, la société Würzberg, si la société Brandt, une société électronique peut-être une télé Brandt, donc ici on voit leurs grands radars et puis ici les radars de Cambie de Métir pour la DCA allemande et ce qui est moins connu c'est qu'il y a des radars passifs, les allemands ont inventé les radars passifs, alors qu'est ce que c'est un radars passif, comme son indique, ça ne fait qu'exécuter et ça utilise les émissions des radars adverses, donc en fait vous avez l'antenne émission, donc là ça va être l'antenne des anglais, l'antenne réception qui allemande et en fait j'avais une distance bistatique, vous mesurez le chemin direct de l'onde et le chemin réfléchit sur l'avion et donc si on trace avec une corde de dimension fixe avec deux foyers ici il va y avoir une ellipse et donc si vous avez plusieurs émetteurs ou plusieurs récepteurs, vous pouvez calculer l'interception de ces émetteurs et calculer la position des avions, donc ici on voit la position des radars anglais, ici il y avait un seul récepteur allemand mais qui fonctionnait en passifs, donc là j'ai un collègue anglais Yocliphith qui est un peu l'expert de ces domaines, donc il passe ses vacances en France et en Belgique pour essayer de retrouver des étranges des radars passifs et à retrouver un document déclassifié anglais, top secret, j'y ai dit j'ai été attendu pour utiliser la radiation d'une seule station pour plodrer l'air crash sur la main de l'air, c'est l'évidence de la various sources et j'ai revu d'un petit peu de comptes mesures à considérer, donc dès la libération en fait les américains et les anglais ont un peu classifié ces radars passifs allemands, pour essayer de comprendre cette technologie, donc 50 ans plus tard en fait à l'est à développer aussi ces systèmes là, donc ici on voit une antenne qui fonctionne sur les émetteurs FM, donc vous pouvez utiliser en région parisienne on utilise des émetteurs de rembouillets et ceux de la Tour Eiffel et donc vous pouvez aussi faire de la détection que en passif, donc le principe je vous l'ai expliqué tout à l'heure, on a un émetteur en récepteur, on a un avion, donc il y a le chemin direct de l'angle électromagnétique et puis le chemin réfléchi, alors la différence de puissance entre le trajet direct et le trajet réfléchi est très importante, donc il y a des problèmes de filtrage justement du trajet direct et puis le filtrage d'eau plaire aussi des éco-parasites mais il y avait donc la position, l'objet est forcément sur cette courbe et ensuite alors que vous avez plusieurs émetteurs avec un seul récepteur, vous pouvez localiser l'avion, donc là c'est un exemple en région parisienne, la ligne du mur qui est ici, paris et au centre, ici le palaiso et on voit les différentes pistes des avions qui sont détectées en utilisant les émetteurs de radio FM de la région parisienne. Dans le domaine de la théorie de la formation, donc la société Thales aussi avait fait des choses à l'époque, donc c'est un personnage qui n'est pas très connu, en fait actuellement le centième anniversaire de la naissance de Claude Shannon et une autre personne qui s'appelait Jacques Laplume qui était ingénieur Thompson Houston, donc c'était aussi un ancêtre de Thales qui a travaillé au département radar hyper fréquence et qui publie en 1948, quatre mois avant Claude Shannon en fait un article au compte rendu de l'académie des sciences, on voit ici une copie et où on a la formule de Shannon en fait de capacité d'un canal et donc vous pouvez trouver un article sur le site de l'académie des sciences qui a été écrit par Patrick Flandrin, Néli Rihoul, qui s'appelle La Plume sous le masque, où il décrive un petit peu l'histoire d'invention, de la découverte par Jacques Laplume de cette formule de capacité d'un canal, alors il faut expliquer qu'à l'époque c'était l'après-guerre, tout était un petit peu classifié donc tout le monde s'est mis un petit peu à publier en même temps sur ce sujet qui est un petit peu sensible, mais bon il faut reconnaître que Jacques Laplume a publier quatre mois avant Claude Shannon, alors s'il est plus intéressé par l'histoire du radar il y a un livre d'Ives Lanchard sur le radar qui est un ancien ingénieur Thales, il y a aussi un livre intéressant sur les embryoins, sur ses travaux, on particuait sur ce qu'il a fait sur les magnétrons, puis un livre sur les radars bistatiques passifs qui est écrit par Hugh Griffiths, un collègue de l'Université Collège de Flandrin, et si je vous invite aussi à envoyer aux enfants, aux petits-enfants à voir le musée du radar qui a la délivrande en Normandy, à l'ouvre la délivrande, il y a une association des amis du musée, ils vous invitent à aller voir ce musée qui est très intéressant, alors c'est surtout des radars allemands qui ont pu récupérer de l'époque. Alors 20e siècle, vous avez plein d'applications ici, on va commencer par les applications plus classiques, donc la surveillance maritime, vous avez des petits radars de navigation sur tous les navires de plaisance maintenant, ils sont obligés d'avoir ces radars de navigation, les radars de contrôle du trafic aérien, les radars météorologiques, les radars de surveillance de cadélisation, donc les radars très largement peuvent sonder le sol, ici les radars de trajectographie, les radars ici de l'oméra de surveillance des satellites, ici les radars d'observation de l'espace, aussi sur satellites des radars d'observation de planètes comme Vénus qui empêchent d'utiliser des systèmes optiques, les radars altimétriques également pour les applications scénographiques, et puis ici on voit des applications pour la détection mine, et puis aussi les radars, les technologies de radars d'étection dans le sol sont utilisées par le GIGN ou les polices spéciales pour faire des détections à travers les muls, alors ce qui se développe aussi écoutément d'allusion, on va entendre parler de la voiture autonome, la voiture connectée, c'est ce qui différencie une forteté d'une BNW haute gamme, toujours avec toujours quatre pneus, un volant, des freins, ça ça ne change pas par contre, ce qui se développe c'est que maintenant les voitures sont bardées de sensors et principalement des sensors radars, ici on voit des sensors radars à 24 GHz, c'est puis des systèmes LIDAR avec différentes fonctions, l'assistance à la conduite, pour aller à terme vert aussi la conduite autonome, c'est ce qu'on voit chez Google, la Google car, la voiture autonome qui a un intérêt parce que peut-être dire même aux aveugles, ils peuvent se déplacer avec cette voiture, vous avez un système de sensors laser, radars et caméras qui permet à la voiture d'être complètement tenue par rapport à l'environnement, aussi une application récente aussi de Google qui est la détection automatique de gestes sans contact en utilisant un radar, ici on voit une petite antenne radar de 60 GHz qui fait 1,2 cm et qu'on peut mettre sur la Google Watch ou sur votre tablette ou sur un système audio dans votre voiture et qui va reconnaître les gestes en l'analysant en fait les signatures tant fréquences que vous générez en faisant votre geste, ici on voit différentes signatures, ici vous avez l'axe Doppler, l'axe Temporal, ici on voit en fait 5 personnes qui font 4 gestes différents, on voit que ces signatures tant fréquences sont très discriminantes pour pouvoir reconnaître différents gestes, vous n'aurez plus à appuyer sur votre, vous pourrez allumer votre téléphone en genre de geste, ce geste-là où le volume s'en couche, ça sont plus prosaïques, vous avez aussi les radars oscénographiques, ici vous avez un point en point de Bretagne, ici une installation qui a été fait par une PM-Broton, vous avez des systèmes de ce qu'on appelle radars ondes de surface, donc on suit la surface de la mer, elle permet d'avoir une portée au-delà de l'horizon étro-amagnétique classique et permet de faire des mesures oscénographiques comme la hauteur significative des vagues, les courants, ça peut être utilisé par exemple au calcul des dérives, quand vous avez des pollutions, des gazages en mer ou un incident de marénoir, vous pouvez estimer grâce à la mesure des courants la dérise de ces polluants. Donc la même chose sur laquelle j'ai travaillé plus personnellement qui est sur les turbulences de sillage, vous devez connaître la 380 d'Airbus, donc la meilleure façon, le gros problème incluant sur les aéroports, c'est l'engorgement des aéroports, donc la meilleure façon de désengorger, c'est de faire un avion à deux étages, comme vous allez, un RR à deux étages aussi sur certains normes, alors le seul problème c'est que lorsque vous faites un gros avion, vous générez, tous les avions génèrent des tourbillons de sillage, mais plus l'avion est gros, en fait la force, ce qu'on appelle la circulation du tourbillon, dépend de sa masse, proportionnelle de sa masse, c'est un variant, un verre, un sement professionnel à sa vitesse et à son invariant, donc l'Airbus génère de forts tourbillons de sillage qui conditionnent en fait les séparations entre avions, ici il y avait une vidéo de la NASA, alors c'est pas sur un Airbus à 380, l'avion vient de passer, on voit avec les fumigènes, ici la formation des tourbillons de sillage, ça fait 10-15 mètres de diamètre, si l'air n'est pas turbulant, ici il n'y a pas de vent de travers, c'est assez stable, c'est un peu comme une toupie, donc il y a des perditions d'énergie, donc on va même remonter ici, donc l'objetice de l'étude qui était sur ce sujet, c'était de cartographier et de comprendre l'évolution de ces tourbillons de sillage insitu sur les aéroports, dans le cas du programme César, et pour le déploiement des séparations Ricat 1, 2 et 3, donc depuis l'avril, vous vous attérissez à Charles de Gaulle avec la nouvelle procédure Ricat 1, ils ont réduit les séparations entre l'avion, à partir de la campagne de mesure, qui n'ont pas été fait en radar, mais en lidar, la catégorie 2 sera entre 100 paires d'avion, donc on aura des séparations un peu plus simples, et la catégorie 3, ça sera pour prendre en compte les phénomènes météo comme les vents de travers ou les turbulence de l'autocere. C'est un vieux problème, les tourbillons de sillage, mathiquement très compliqué, donc il y a beaucoup de laboratoires en Europe et dans le monde qui travaille sur la modélisation des tourbillons de sillage, c'est un des problèmes du prix clé sur les équations de la vieille stocke, l'historique en fait, c'est pour les tourbillons de sillage modernes, en fait, il y a gardé des morts dans un, il était, c'était des étoiles, il faisait des essais sur un chasseur russe, et il a rencontré un tourbillon de sillage d'un S815, il s'est écrasé, donc son pro de mécanique des fluides, Sergei Belobserskowski a créé un laboratoire et a développé le premier modèle de tourbillon de sillage sur la mécanique des fluides, et donc son fils, j'ai croisé son fils justement sur ces études-là parce qu'il a repris la suite en Russie, et ils ont, les Russes sont assez en avance sur la modélisation des tourbillons de sillage des avions, et puis dans le contexte de César, ce qu'il y avait aussi en parallèle, c'était la première certification d'un avion qui passait la certification de tourbillons de sillage et qui était la 380, donc ici on voit les installations qui ont été faites sur l'aéroport Charles de Gaulle pour mesurer ces tourbillons de sillage, donc ici on voit les premiers essais, mais je vais passer à voir mieux, donc là on a fait nos essais avec un premier petit radar qui essaie de scanner les tourbillons de sillage à l'atterrissage, on avait un commune de modifié de radar pour scanner par le dessous en fait les tourbillons de sillage, et ici on voit d'autres essais, le ressent qui d'être de 12-12 où on a réussi à faire une cartographie 3D les tourbillons de sillage, donc ici on voit les différentes mesures, et puis on voit ici la modulation d'auplaire, et donc l'avion ici c'est l'axe de descendre de l'avion, donc l'avion vient de passer, les couleurs ici indiquent le sens de la vitesse, au niveau de la vitesse d'auplaire, et donc en fait chaque tourbillon en rouge, on a un tourbillon et en bleu un autre tourbillon, et donc on voit l'évolution temporelle, il ne situe des deux tourbillons de sillage créés par chaque avion, et on a même une cartographie 4D, puisqu'on voit ici toutes les mises rondes, donc là l'avion vient de passer, et puis on voit au cours du temps que les deux tourbillons de sillage s'écartent au fur et à mesure à cause du vent de travers, donc ce qui est intéressé à les gens sur le programme justement c'est la qualification des distances de séparation entre avions, pour savoir si les nouvelles distances de sécurité assurent la sécurité entre les avions, et puis d'autres essais encore plus récents, ici on voit une mesure sur un A380, donc ici on a l'axe d'auplaire, et puis ici l'axe de distance, et le radar ici transverse aux pistes, et donc on voit passer la tourbillon de sillage avec une signature d'auplaire caractéristique, ça c'est la charme des drones, on voit ici un terme qui tourne, et puis qui se termine à 20°C, donc plus récemment on a un tourbillon de sillage tous les avions qui volent, créent des tourbillons de sillage, ici on voit sur les avions militaires, sur les hélicoptères, même les aoliennes créent des tourbillons de sillage qui doivent être gênants entre aoliennes, et les laboratoires de mescline des flux qui travaillent sur ces sujets, d'ailleurs travaillent indifféremment pour l'aviation ou pour les aoliennes, et enfin un dernier travail plus récent qui est une étude européenne, pour comprendre la turbulence cette fois-ci classique de l'atmosphère à basse à couche, en dessous de 500 mètres, donc on a travaillé à différents laboratoires, l'OMERRA, le DLR, l'université catholique de Bousin, et on a installé différents matériels, dont des LIDAR, ici on voit les LIDAR ici, les radars, poissiers de l'université Pierre et Marie Curie, qui avait installé un petit radar bandix pour essayer de comprendre de comprendre la turbulence de l'atmosphère à basse à couche, en dessous de 500 mètres, donc ici on voit le radar, et ici on voit le LIDAR qui se calme également à basse à couche, donc ça c'est un doux de l'intérêt, c'est-à-dire que quand l'air est turbulent, il casse les tourbillons de sillage, donc en fait plus l'air est turbulent, plus vous êtes en sécurité, c'est pas indisable, ça ressemble effectivement si les turbulence sont très fortes, par exemple, lorsqu'il y a du brouillard et clé à très calme, les tourbillons de sillage vont rester très longtemps, donc on a étudié, on a monitoré ces phénomènes à basse altitude, un cas-phénomène de recherche, donc on était en contact avec Météophones aussi pour utiliser leurs modèles, mais qui ne sont pas précis sur les basses couches, en couche limite, en dessous de 500 mètres, donc les modèles de Dauphan sont plutôt en dessous de 500 mètres pour des prédictions à plusieurs jours. C'est quel avantage c'est le LIDAR ? Tous les Gdaniak, donc ici on va aller, pour terminer sur l'introduction radar, ici on va aller des radars militaires, donc il y a des radars, ça c'est les radars russes américains qui se regardent mutuellement de chaque côté du Pôle Nord, donc ça fait 10 à 15 étages de haut, et le dernier version américaine qui est sur une plateforme of shore, on m'a dit que la plateforme of shore a été de construction russe, mais c'est pas... Ici on va aller à Transorison, qui sont utilisés beaucoup par les australiens, par exemple, eux qui vont utiliser la réflexion sur la couche de Séric pour voir la très longue portée, donc c'est un peu le principe des ans de courte, s'il y avait des passionnés dans le cours dans la salle, on pouvait faire des mesures très longue portée, c'est un peu le même principe ici, mais il faut maîtriser un peu les rebonds sur le serre, ici des radars de convite de tir, des radars navals sur les frégates, des radars sur la tête des missiles aussi, des radars sur les aéros de chasse, les centres prédactifs ici, des radars de contrebatterie qui sont utilisés au Liban, qui détectent les tirs d'artilleries, de roquettes, de mortiers, bon, la WAX aussi qui est un radar américain de surveillance mais aéroportée, côté Thales, on vient de développer un nouveau radar ici de patrouille maritime, donc pour faire de la surveillance maritime en fait, maintenant sur les drones, bien sûr, il y a aussi les radars, les systèmes radars, et puis les systèmes défense aériennes, ici on voit des images de radars aéroportées, donc on peut utiliser aussi des radars en mode SAR, un synthétique imperture radar, donc on va utiliser le mouvement du radar, soit aéroporté, soit satellite, pour créer une antenne synthétique et créer une autre résolution distance, qui va permettre de faire de l'imagerie, ici on voit des objets qui commencent à ressembler à des écolterres ou à des avions, alors l'intérêt du radar, c'est que par rapport ici à une image optique, si un ciel voilait, on va continuer à pouvoir faire de l'imagerie, vous avez aussi l'utilisation de ce qu'on appelle l'ISAR, qui permet d'utiliser cette fois-ci les mouvements de la plateforme pour faire l'imagerie 3D, donc en fait l'information d'au plaire va être transformée pour ici faire de l'imagerie, donc ici on voit l'imagerie de la station spatiale russe-mire ou de la navette américaine, ici l'utilisation, ici vous avez un navire, donc il va avoir du roulit engage par rapport à ce centre de gravité, donc l'information d'au plaire va nous donner des informations sur l'infrastructure, l'hyperstructure d'un avis, il y a beaucoup d'évolution actuellement, on revient vers les radars basses fréquences, on revient vers le multistatisme, on peut utiliser plusieurs émecteurs, plusieurs récepteurs, on peut être ultra large bande, travailler sur les antennes déployables, déformables, les mains intégrées, les radars multifonctions et intelligents, et puis surtout les antennes tout numériques, ici on voit un radar MIMO, multiple in, multiple out, des techniques utilisées aussi en télécom, donc la l'idée c'est d'avoir n émetteurs, n récepteurs, chaque émetteur est bandé 3, donc il les met sur 10 kHz, et les récepteurs sont largements, sur 250 kHz, ce qui permet de coder l'espace, en fait, puisque chaque récepteur qui est largement, va recevoir les réflexions émises par chacun des émetteurs qui sont bandés 3, ce qu'on appelle une colorisation de l'espace, on va coder, chaque position de l'espace va être codée par un retard et une fréquence, par traitement, on peut détecter les avions en très longue distance, ici on voit un développement à l'ONERA et puis aussi une expérimentation à TALES sur ce type de système qui avait été inventé par Gèluret, qui est un chercheur de l'ONERA, donc maintenant on regarde différents techniques justement de coloration de l'espace, maintenant que les antennes sont tout numériques, chaque émetteur peut émettre sa propre forme d'onde, alors que avant l'antenne émettait une seule forme d'onde, ici on va avoir plusieurs formes d'onde, donc ici on voit des développements plus récents, des antennes tout numériques, avec les antennes qui sont plus rotatives, mais fixes sur les plateformes, et puis avec la capacité par balayage électronique de faire plusieurs fonctions en même temps, donc on va faire de la veille ou de la poursuite d'objets, donc là on retrouve d'autres problèmes mathématiques, qui sont au point d'ordre de lancement des tâches du radar, en fonction des missions qui lui font allure. Dans le principe du radar, le problème, on est obligé de faire un traitement statistique, parce qu'on est dans un monde en 1 sur R4, c'est à dire que en radar on a le trajet allé et le trajet retour, donc il y a une inténuation en 1 sur R2, R c'est la distance, et puis sur le trajet retour encore en 1 sur R2, alors que dans le monde des télécoms on est en 1 sur R2, il y a un émetteur, un récepteur qui se cause, donc le signal est moins bruité, donc vous avez différentes bandes de fréquences, alors plus la base fréquence, en fait vous allez avoir des antennes plus grandes, puisque les émetteurs sont séparés en moyenne, en 1 sur 2, la demi longueur d'ondes, donc la base fréquence a des grandes antennes, si vous voulez les mettre sur un avion ou sur un navire, vous allez plutôt aller vers des bandes plus hautes, mais ces bandes plus hautes ont aussi des problèmes d'atténuation, donc sur les très hautes fréquences, dès qu'il va se mettre à peu voir la portée et beaucoup d'unité. Donc on voit le principe du radar, donc un générateur de signal qui émet une onde, et puis un récepteur qui va traiter cette onde-là et essayer d'exprimer un signal. Alors vous avez des problèmes de propagation, l'atmosphère c'est pas une chose simple, vous avez des problèmes de conduit de propagation qui sont du à des gradients de température de l'atmosphère, donc l'onde va être piégée en fait dans un conduit, et ça c'est difficile à prédire et à mesurer, vous avez aussi les rèdes d'absorption en fait, donc les radars météo vont plutôt essayer de choisir leurs fréquences pour faire les mesures dans les différentes bandes, vous avez les multitragés aussi qui posent des problèmes, et puis vous avez les effets de diffraction qui jouent également, donc le fait même de propagation est enfin le même compliqué. Donc le principe du radar, en fait on va émettre une onde, et puis on va mesurer le temps de retour de l'écho, ce qui va nous donner la distance, le réaltation de l'antenne va nous donner la direction, et puis surtout le plus important c'est que l'effet d'auplaire va nous donner la vitesse radio par rapport à l'axe de visée de l'objet, donc en fait si j'envoie une onde, je vais avoir une onde qui va revenir décaler d'une fréquence d'auplaire, de deux fois la vitesse radio divisé par la longueur de l'onde. Alors lorsqu'on a voulu émettre des impulsions électromagnétiques, le plus simple c'était d'envoyer un simple créneau, mais le problème avec un créneau c'est que la théorie de la détection optimale, vous dit que le filtre optimal consiste à convoluer ce créneau avec sa réplique inversée temporellement, donc si vous convolez un créneau avec un autre créneau, vous obtenez un triangle comme ça, qui a pour base deux fois la durée du créneau qui va être ensuite. Donc si vous voulez émettre un créneau très petit, une impulsion très petite, si vous voulez avoir de la résolution, il faut émettre une impulsion très petite et émettre beaucoup d'énergie sur un temps très court, c'est pas possible. Donc ce qui a été inventé c'est des modulations, soit des modulations de phase, modulations de fréquence, donc si je n'aimais pas un pulse à fréquence fixe, mais j'ai mis un pulse dans lequel je fais une modulation de fréquence, par exemple l'INER, si je fais une auto-convolution, j'obtiens ici un sinus cardinal qui a pour largeur en fait, qui a une largeur inversement proportionnelle à largeur de fréquence. Donc en regardant la radar, plus vous êtes large aux bandes, plus vous avez une grande résolution. Donc ça, ça fait toute une littérature, et pour mesurer les qualités des formes nones, vous utilisez une fonction qui est la fonction d'ambiguïté, qui est aussi au travaux sur la fonction vide-merville, et qui vous donne en fait la précision en vitesse et en distance de votre forme d'onde, et dans la formule est donnée, ici vous avez le signal ulété, et puis le signal est convulné, donc c'est le convivier complexe, et puis vous calculez cette transformée là, et qui vous donne l'ambiguïté, distance et l'opère. Donc ici on voit, alors qu'est-ce qu'il y a comme propriété, cette fonction, c'est que son volume est constant, elle est symétrique, et ce qu'on aimerait bien avoir, c'est une fonction d'ambiguïté un peu punaise, qui me permettrait d'avoir la résolution de distance et d'opère, mais c'est pas facile. Donc ici on voit différentes fonctions d'ambiguïté, donc on retrouve la rampe, qui donne ici, on retrouve notre triangle sur l'axe distance, et puis sur l'axe d'opère, ici on a une ambiguïté d'opère. Donc dès qu'on utilise une modulation, là on voit que ça s'améliore, donc on voit ici qu'on a une très bonne résolution de distance, par contre on a une moindre résistance d'opère ici, donc on voit que ça s'étale un peu plus ici, sur cet axelard, et puis on peut tester d'autres modulations, donc les radaristes se sont amusés, donc ici vous avez des codes de phase, donc avec les 0 et les pi, donc votre émetteur est à puissance maximale, mais il commute sa phase entre 0 et pi, et le jeu s'est trouvé le code le plus long, tel que son autocorrelation, nous donne un px maximum, et puis des 1 pour le reste, donc là il y a un petit concours pour les mathématiciens, le code le plus long qu'on connaît actuellement est le nombreur 13, donc si vous autoconvoluez ce code avec lui-même, vous avez trouvé un pic de valeur 13, et puis ensuite des lobes secondaires, de valeur 1, donc après il y a eu des recherches un peu partout dans le monde, les États-Unis, en Israël, sur des codes plus compliqués, ici des codes de fréquences, plutôt que faire une modulation de fréquences linéaires, vous pouvez vous abuser à faire des sources de fréquences, et là c'est toujours pareil, il faut trouver l'autoconvolution optimale pour trouver la fonction d'ambilité la plus adaptée, donc on peut aussi faire du polyphase, donc pas forcément du zéropie, mais plus de saut de phase en fait, entre zéropie on échangera un petit peu plus, donc ça s'appelle les codes de froncs, et puis il y a la fonction d'ambilité alors multistatique, comme pouvoir d'art passif, qui elle est, dépend géométriquement de là où est la cible, donc c'est encore plus compliqué, donc les choses souris je sais que Cédric Bilanier a fait un exposé sur les formes des choses souris, donc les choses souris utilisent des différents types de modulation, en particulier des modulations hyperboliques parce qu'elles sont plus résistantes au Doppler, donc là il y a un type des choses souris, donc si on enregistre un peu les signaux, donc on voit ici les rendes de fréquences transmises par les choses souris, et ici on voit, c'est une séquence des choses souris d'un insecte, donc au début, en fait, on voit qu'elle module sa modulation de fréquence en fonction de la phase d'interception, parce qu'au départ, elle n'a pas besoin de précision de distance pour intercepter l'insecte, elle a plutôt besoin de précision d'opère pour détecter les objets qui bougent, et puis ensuite elle va changer sa modulation pour gagner en résolution distance et pouvoir intercepter l'insecte, donc on voit ici l'évolution au cours du temps, en fonction des phases de vol. Alors, sur des objets un peu plus compliqués, nos radars en fait réhémentent de l'énergie, mais elles ne rémettent pas de façon isotrope, donc ça fluctue en fonction de la position des points brillants qui sont positionnés sur l'objet, donc ce qu'on appelle des marguerites, on voit ici, dans quelle direction sont redirigées l'énergie, et puis il y a plein des coparasites qui viennent des noages du sol, de la mer. Ici on voit par exemple des noages de pluie, ici ou ici des noages de chaff. Donc l'effet principal en radar, c'est d'utiliser l'effet d'eau plaire. Vous connaissez tous l'effet d'eau plaire. Donc en fait, lorsque l'objet va se rapprocher, on va voir l'effet de compression de l'onde, et puis quand il fait un effet inverse, donc ici si je me mets ici sur un objet mobile, et je fais une mesure d'onde électromagnétique, on va avoir ce type d'effet, donc un effet de contraction ou un effet inverse suivant la vitesse du mobile par rapport à l'onde électromagnétique. Donc on a cette relation en fait d'un décalage en fréquence de 2 fois la vitesse radiale utilisée par la longueur d'onde pour un avion qui vole à 900 kmh pour un radar en bandes 3 GHz sa fréquence 3 GHz le décalage n'est que de 5 kHz donc c'est vraiment très faible donc les problèmes ont eu lieu lorsqu'on a pu avoir une grande stabilité de phase sur les récepteurs pour faire ces mesures. Au niveau des antennes, donc on va vers les antennes tout numérique donc en fait on voit les différents types d'antennes, donc les antennes classiques un peu de la seconde gare d'ongale avec un emmetteur et puis ici une grille qui sert à émettre et à former le faisceau électromagnétique ensuite il y a eu les ondes les antennes lentilles, on utilise des défaseurs pour former le faisceau à partir des phases on a des défaseurs en ferrite donc là c'est un peu comme de optique on va défaser l'onde électromagnétique ici vous avez une antenne réseau passive donc là on va jouer sur les phases ou sur des rangs de phase pour faire l'effet de balayage électronique du faisceau ou alors on peut utiliser simplement des antennes à fente on utilise des guide-dons dans lesquels il y a des fentes on va avoir un effet de dispersivité du faisceau en fonction des fréquences choisis et on va donc vers les antennes tout numériques cette fois-ci on va mesurer chaque et puis les phases de l'onde qui est reçue sur l'émetteur et donc là la différence de temps d'arrivée sur les émetteurs va nous indiquer une information sur l'angle d'arrivée de l'onde électromagnétique donc on voit ici les différents types d'antennes classiques antennes lentilles avec des défaseurs antennes miroirs cette fois-ci on émet les éclairs des défaseurs des antennes à fente ou des émetteurs qui alimentent des rampes ou alors des antennes plus numériques donc la digitalisation spatiale temporelle donc on a des récepteurs ici qu'on voit ici et on va digitaliser l'onde électromagnétique à la fois spatialement et puis temporellement donc temporellement on va pouvoir faire des mesures d'eau plaire et spatialement des mesures spatiales et puis les récepteurs peuvent être polarisés donc on va faire aussi des mesures polarimétriques et donc on a une digitalisation spatiale temporelle et polarimétrique de l'onde électromagnétique et l'objectif c'est de travailler dans cet espace spatiale temporelle parce que les échos qui nous gèlent en fait peuvent être mieux discriminés à la fois en eau plaire et spatialement que si on travaille de façon indépendante sur chaque axe donc on commence par émettre l'onde de l'eau magnétique de la diriger en modifiant les phases pardon et donc on va recevoir une onde complètement digitalisée donc mathématiquement qu'est ce qu'on a en fait on a une mesure, ici on a un grand vecteur de signaux complexes mais l'information n'est pas sur ce signau complexe, il est sur la matrice de co-variance l'espérance de ce vecteur et de ce vecteur transconjugué qui nous permet de calculer une matrice de co-variance de ce signau et c'est ce signau qui porte l'information soit spatiale, si c'est de la correlation spatiale soit d'eau plaire, si c'est de la correlation temporelle et puis on a la même chose aussi au niveau polarimétrique donc là une idée intéressante qui avait été introduite par point carré, c'était de penser déjà aux espaces métriques c'est-à-dire de dire qu'on peut décrire en fait un étape polarimétrique de l'onde par un point sur une sphère donc vous avez les deux composantes du champ étromagnétique x y ici et en fait le champ étromagnétique va tourner sur son axe et va décrire une ellipse qui va avoir une certaine inclinaison et puis une certaine elongation donc point carré avait remarqué qu'on pouvait décrire les deux ans qui interviennent par l'angle d'inclinaison et puis l'élangation qui va être l'arc-tangente entre le petit axe disait par le grand axe qui nous permet d'avoir le second angle donc ça on va pouvoir on va pouvoir représenter un étape polarimétrique de l'onde par un point sur la sphère unité en fait sur la demi sphère mais comme le champ étromagnétique peut tourner dans un sens ou dans l'autre en fait chaque étape polarimétrique qui est représentée par un point sur la sphère l'étape polarimétrique circulaire en rotation directe il est au pôle nord en rotation directe au pôle sud sur l'équateur il y avait toutes les polarisations linéaires pour différents angles de polarisation voilà donc ça c'est une idée de point carré on va représenter un état du champ étromagnétique par un point sur la sphère et donc si on veut caractériser statistiquement la mesure étromagnétique on va être amené à regarder les statistiques de point sur la sphère donc on voit ici des antennes polarimétriques simples ici deux antennes qui vont mesurer le champ dans les deux axes de polarisation ici on a reprojeté comme on fait une projection chirographique pour l'adaptement une projection chirographique ici c'est les mesures polarimétriques qu'on a reprojeté de la sphère de point carré sur un plan et qu'est-ce qu'on peut observer par exemple que l'appui est très polarisé on va envoyer un nom avec une certaine polarisation et elle revient à la même polarisation par contre tout ce qui effaillage tout ça va dépolariser l'onde électrométique donc l'objetif ici c'est de calculer un peu la statistique de ces mesures polarimétriques sur la sphère de point carré donc le lien avec les espaces métriques c'est justement c'est cette idée de caractériser l'onde électromagnétique par un point dans un espace métrique le problème c'est qu'il faut trouver la bonne distance la bonne métrique pour décrire ces mesures donc l'idée déjà c'est d'étendre les probabilités et les statistiques dans l'espace métrique donc ça c'est une idée de Maurice Frechel qui avait un produit d'espace métrique et qui après avoir un produit d'espace métrique a écrit un papier en 1948 les éléments aléatoires de nature quelconque dans un espace distancié donc il essaye d'étendre les probabilités et statistiques dans les espaces métriques car c'est pas un un tasard de de Dalamar donc on voit j'ai extrait des choses de son article donc qu'est-ce qu'il dit là c'est une formidable extension du calcul des probabilités qui résulte de la simple introduction de la notion distance de deux éléments aléatoires donc il essaye de faire des statistiques et des probabilités sur des éléments aléatoires qui ne sont ni des noms ni des séries, des vecteurs, ni des fonctions donc il donne des exemples la forme d'un fil jeté au hasard sur une table, la forme d'un oeuf pris au hasard dans un panier, une courbe aléatoire une surface aléatoire les transformations aléatoires de courbes en courbes la forme d'une ville pris au hasard alors sur quoi il travaillait à l'époque il travaillait par exemple sur la forme d'écran ethnographique l'évolution de la forme des crânes où il avait un accord avec la société de chapéerie alors à l'époque on faisait des chapeaux sur mesure donc il y avait toutes les mesures de crâne des clients de la chapéerie et le soule voilà et donc par exemple ça s'en extrait d'une thèse récente de l'école des milles le sujet auquel il pensait à l'époque la forme des villes c'est un sujet de recherche qui s'évolue beaucoup et on essaye de comprendre l'expansion des méga-cités comme Mexico ou Pékin donc on fait des mesures satélites de la forme de ces villes on essaye de déduire des statistiques et je suis allé aux archives de l'académie des sciences et j'ai escalé, ça c'était des papiers que j'ai retrouvé dans les archives de Frechet où on voit qu'il essaye déjà de faire, c'est un peu l'ancêtre de la biométrie il essaye de faire des statistiques sur ses profils de visage donc alors ce qu'il faisait il prenait les coefficients de fourriers de ses fonctions de profils de visage pour faire des statistiques de jeu alors à l'époque on peut penser de l'étienne de silhouette ou à l'anthropologie métrique d'Alphonse Bertillon donc l'idée de Frechet voilà, donc l'idée l'exemple le plus simple de l'époque qui avait été donnée par Cournot vous prenez des triangles rectangle et vous avez un triangle rectangle et vous les calculez le triangle rectangle moyen alors évidemment si vous faites la moyenne sur chacun des côtés, vous n'avez aucune chance que le triangle résultant vérifie Pythagore donc le triangle moyen que vous allez trouver, il ne sera pas rectangle donc l'idée de Frechet en fait c'est de dire que la contrainte de Pythagore h2 égale a2 plus b2 en fait ça vous définit un conne convex ici et donc un triangle c'est un point sur cette surface n triangle c'est un point et le triangle moyen c'est un barricentre de c'est un point un barricentre géonésique sur cette surface et comme il est sur la surface il est forcément rectangle je vais retrouver l'extrait du livre sur les probabilités d'Antoine Augustin Cournot justement il prenait cet exemple voilà, lorsqu'on applique la détermination des moyennes aux diverses parties d'un système compliqué, il faut bien prendre garde que ces valeurs moyennes peuvent ne pas convenir en sorte que l'état du système dans lequel tous les éléments prendraient la fois les valeurs moyennes les terminer séparément pour chacun d'eux serait un état impossible et donc il prend l'exemple du triangle rectangle et Bertrand à l'épreuve prenait aussi le cas d'un individu, parce qu'il disputait beaucoup à l'époque de l'homme moyen donc c'était le poids d'un individu et grosso modo proportionnel son volume il varie comme le cube de la taille à la moyenne des cubes, évidemment pas le cube de la moyenne vous retrouvez ça dans les mensurations quand vous achetez des chemises en fait les gens font des statistiques pour comprendre la mensuration en moyenne à tout le monde on voit ici les mensurations des différents pays les français, les volandais et ici ils ont fait ça avec un imprimant de 3D ils ont pris l'américaine moyenne en barbie comparé à la mensuration de la vraie barbie la différence entre le fantasme et la réalité plus sérieusement cette science est devenue maintenant important donc à l'Indria en particulier où on fait de l'anatomie compétitionnelle et on va regarder par exemple on va essayer de faire un atlas du cerveau regarder une évolution temporelle de forme pour comprendre si l'organe va vers une pathologie ou si il a un développement normal donc vous venez les chercheurs un petit peu entroites là-dessus Xavier Pénec à l'Indria et Satézard Lina Mualane et puis Stadenet Jorneman à l'institut du cerveau de Damoy Lépinière et elle a trouvé un escachant donc c'est basé sur ces mêmes techniques de définir des distances de passer dans un espace métrique sur des cerveaux vous avez fait 100 IRM de patients il n'y en a aucun avec les quantiques et donc si vous voulez faire un atlas il faut déjà pouvoir définir ce qu'est un cerveau moyen et puis ensuite ils font des analyses anatomiques d'organes à 3 mois, à 3 ans, à 6 ans et ils regardent l'évolution pour voir si on peut détecter une pathologie dans le développement des organes ça c'était une petite citation pour dire que finalement on ne fait pas grand chose par rapport à ce qu'il y aurait à faire ce qu'on parle beaucoup d'intelligence artificielle à ce moment c'est une citation de Borgès qui dit les animaux se divisent en appartenant à l'empereur en données à prévoiser qu'aux chamblets, sirènes, fabuleux chiants en liberté inclus dans la présence de classification qui s'agit comme des fous innombrables dessinés avec un passeau très fin et empoids de chameau et etc qui viennent de casser la cruche qui de loin sortent des mouches en fait c'est une citation qui a reprise Michel Foucault dans les mots et les choses et il dit la monstrosité que Borgès s'est circulée dans ces normes d'immigration consiste en ceci que l'espace commun les rencontre s'y trouvent ruinés ce qui est impossible, ce n'est pas le voisinage des sources c'est le site lui-même où elle pourrait voisiner les choses qui sont couchées posées disposées dans des sites à ce point différents qu'il est possible de trouver pour eux un espace d'accueil au-dessous les uns et les autres un lieu commun c'est un peu la problématique qu'on a donc on arrive actuellement à faire des choses lorsque les formes sont un peu proches entre elles et qu'on sait faire des statistiques entre une chaise et une table et définir des distances entre des objets plus compliquées on n'est pas encore arrivé comment maîtriser, comment trouver en fait si on utilise les idées de fraîchers on a gagné on peut faire des probabilités des espaces mystiques mais le problème c'est de trouver la bonne distance il y en a des centaines de distances donc il y a Michel Desac qui avait fait une encyclopédie des distances il y a un isle chez Springer de 1000 pages on a trouvé plein de distances donc la l'idée c'est de trouver des distances entre des mesures probabilistes donc ici on a un vecteur de mesures z1 zn en radar et ce qu'on voudrait pouvoir définir c'est la distance entre ces mesures et en fait l'idée qu'on va utiliser qui vient de la géométrie de la formation c'est de ne pas définir une distance entre ces mesures mais une distance dans l'espace des paramètres des densités qui sont associées à ces mesures donc penser à des gaussiennes une gaussienne de moyenne m1 des quart types sigma1 et l'autre gaussienne m2 des quart types sigma2 vous voulez calculer une distance entre les deux gaussiennes alors certains branches des mathématiques regardent le transfert optimal pour calculer des distances entre sélecteurs aléatoires mais ici l'idée c'est de travailler dans l'espace des paramètres des densités et pour utiliser la bonne métrique en fait on trouve que c'est la métrique de Fischer en fait alors qu'est-ce que c'est cette métrique de Fischer elle vous dit en fait que à chaque fois vous construisez un estimateur statistique donc tête à chapeau ici sa matrice de covariance est bornée inférieurement dans l'espace de cette matrice qu'on appelle la matrice d'information de Fischer donc elle vous dit que vous pourrez jamais trouver un estimateur qui a une variance en dessous de cette borne donc en fait cette métrique va vous donner une métrique dans l'espace des paramètres une métrique crimanienne dans l'espace des paramètres vous allez pouvoir calculer une distance alors qu'est-ce qu'elle a comme propriété un changement de paramétrisation donc c'est pas parce que vous changez de paramétrisation que vous changez de distance entre ça donc en fait cette idée est beaucoup plus ancienne donc on s'est intéressé à ça à Thales en fait l'idée c'est lié au genre de la terminéanique je mets un peu d'équation là mais donc en fait il y a deux objets qui sont liés à cette géométrie le premier qui est l'intention un petit peu d'intégrale de la place ici donc vous prenez le rythme et si vous prenez la transformée de la jambes je vais vous expliquer ce que c'est un peu la transformée de la jambes vous allez trouver une nouvelle fonction qui est une entropie donc l'entropie de Shannon en plus elle a la forme d'entropie de Shannon moins p, moins intégrale de p, moins p donc vous avez deux fonctions duales ici qui est l'ordre de la transformée de la place ici le log de ce qu'on appelle la fonction de partition et puis si vous prenez la transformée de la jambes vous trouvez une entropie donc vous avez deux fonctions duales données par deux systèmes de coordonnées du haut et le hétien donc vous avez une très jolie formule qui vous dit que l'entropie c'est la transformée de la jambes du moins le gardien de la transformée de la place et donc la géométrie de l'information c'est simplement de dire que le hétien donc la dérivée seconde d'une de ces fonctions potentielles pour ce système de coordonnées ou de cette fonction potentielle pour ce système de coordonnées vous donne une métrique dans l'espace des parallèles mettre un variant pas changeant par utilisation alors si vous remarquez que la transformée de jambes c'est aussi une transformée de fourrier en algèbre min plus il n'y a plus que du fourrier c'est l'entropie qu'il y a le fourrier min plus le moins log de fourrier plus multiple donc cette idée de transformer de la jambes de transformer la fonction caractéristique a été utilisée par Kozou qui va en parler mais a été découvert par François Vassieux qui était un ingénieur du corps des mines et qui a introduit en 1896 la fonction caractéristique en terminé amique donc vous pouvez trouver sur le site de l'académie des sciences un article de Roger Balliant sur François Vassieux et les potentielles terminé amiques donc en 1869 il découvre la fonction caractéristique on la voit construit donc c'est l'entropie et la transformée de la jambes de cette fonction fi qui est la fonction ce que Vassieux appelle la fonction caractéristique il dit que je m'en rends en ce mémoire que toutes les propriétés d'un corps se déturent d'une fonction unique que j'appelle la fonction caractéristique de ce corps donc c'est ce qu'il voulait en fait on peut déduire toutes les caractéristiques donc ça a été ensuite redécouvert par Poincaré qui a donné son cours de thermodynamique et qu'il a introduit en probabilité alors il y a un loc qui relie les deux et puis ça a été découvert par Roger Balliant aussi utilisé où là il a à la place de l'entropie de Chadon il a utilisé l'entropie de Von Neumann mais il a introduit ceci en physique quantique ce qui s'est passé c'est qu'il y a une erreur parce qu'il y a un conseil malheureux de Bertrand qui a proposé de remplacer la variable insurtée par la variapté donc il a fallu attendre une planque pour revenir à la bonne variable qui était la variable insurtée parce que sinon on perdait un petit peu cette structure liée à la transformée de nos jambes ça a été généralisé par Duel aussi avec les potentiels thermodynamiques et par Gibbs donc j'avante un petit peu voilà donc ça a été introduit par point carré en probabilité si on prend le cours de probabilité de point carré c'est bien une transformée de la place qui n'utilise pas une transformée de fourrier donc ensuite Paul Levy a utilisé systématiquement la transformée de fourrier maintenant dans les cours il utilise la transformée de fourrier pour introduire la fonction caractéristique en probabilité mais en fait le bon moyen de faire c'est d'utiliser la transformée de la place ça je ne peux pas donc juste voilà donc l'idée l'idée ici c'est que lorsque vous avez une courbe qu'est-ce que c'est la transformée de jambes soit vous pouvez décrire votre courbe par des points ou alors vous pouvez décrire votre courbe de la géométrique plus claire qui est la courbe qui est définie par l'enveloppe des tangentes en fait donc c'est cette relation qui intervient qui avait été introduit par le jambes en 1787 pour résoudre dans un problème sur face minimale de monge qui a été aussi mis en relation avec la poléaristique propre par rapport à Boloï donc ça s'est utilisé par Dabou et Chagre et Adamard en calcul des variations mais surtout ça avait été trouvé par Frechet donc il y a un article de 1943 mais il parle d'un cours de 1939 à l'IHT donc c'est Frechet qui a trouvé la borne de Cramor à haut la borne dont on parlait tout à l'heure en 1939 et dans ce article de 1943 il avait aussi trouvé cette transformée de le gendre en fait il était un peu un précursor de la géométrie d'information donc ça a été redécouvert ça a été utilisé dans d'autres domaines par Jean-Luc Ozoul dont lui s'occupait plutôt de modèles mathématiques et donc les liens récents qui ont lieu entre les travaux de Jean-Luc Ozoul et la géométrie de l'information était faite par le chercheur Irko Shima qui avait pu être en contact avec Jean-Luc Ozoul à l'époque et puis Jean-Luc Ozoul introduit la même chose mais il utilise des choses plus générales donc je n'ai pas le temps de parler aujourd'hui mais il y a des théorènes de Ozoul très généraux qu'on utilise actuellement et qui peuvent généraliser la métrique de Fischer donc Ozoul a fait sa thèse avec Henri Carton mais il a travaillé surtout sur la continuation sur les domaines symétriques homogènes et c'est dans son cadre dans le cadre de l'étude des espaces symétriques qui l'a développé sa théorie que l'on utilise actuellement et puis la dernière la dernière chose qui a été trouvée c'est Sourio qui a encore plus généralisé ça Sourio a fait une remarque toute bête il a remarqué que la termonomie classique l'équipe de Gibbs n'était pas co-variant par rapport au groupe de la physique donc le groupe de Galilé rotation, translation, boost translation temporelle ou par le groupe de Poingaré donc il a cherché une formulation co-variante de la terminonomie et ce qu'on appelle la terminonomie de Galilé donc là aussi je ne vais pas vous dire mais on retrouve ces transformés de le gendre et la chose fantastique qui a trouvé Sourio c'est que la température c'est un élément de la gel de Lye du groupe qui agit sur le système donc il y avait un système terminonomique qui avait un groupe qui agit et en fait la température c'est un élément de la gel de Lye du groupe qui agit la température c'est un élément de la gel de Lye vous avez une transformée de le gendre et vous avez conservé la co-variance sur l'équilibre de Dips et vous avez ces deux fonctions potentielles et miracle celle-ci elle est invariante si on l'en prend le Sien et puis celle-ci comme elle est linère par rapport à la température de plant ici le Sien va être aussi invariant juste pour vous dire qu'il y a une formule générale de Sourio qui est dit actuellement et qui est vraiment une généralisation de toute cette théorie et juste pour... donc il y a sur les travaux de Sourio je vous invite à dire le livre de Charles Michel Marne qui a fait le plaisir de venir aujourd'hui qui est écrit avec P. Lieberman sur la géométrie symplectique où on comprend mieux en fait les travaux de Sourio parce que c'est vrai que le livre de Sourio est un petit peu difficile à trouver et le professeur Kozoole m'a envoyé récemment il a donné un cours en Chine qui a été édité par les Chinois sur la géométrie symplectique où il parle des travaux de Sourio ça fait 3-4 ans que j'ai essayé de trouver les liens entre Kozoole et Souriole en fait on voit dans ce livre-là malheureusement il est en Chinois donc j'ai essayé de convaincre je comprends les formules donc il y a des actions pour voir si on peut pas traduire l'ouvrage de Kozoole en français on retrouve ces formules de Kozoole de Souriole et la citation du livre de Souriole alors je n'ai pas le temps de donner plus de détails sur la géométrie de l'information donc juste juste pour vous dire comment on l'utilise en radar je terminerai là-dessus en fait ce qu'on arrive à faire c'est à calculer des barissantes dans des espaces sur des variétés rimaniennes ici on est dans le disque de Poincaré donc on arrive à calculer des barissantes moyens des barissantes médias à l'intérieur du disque de Poincaré et on montre que nos matrices de covariance sont paramétrables à l'intérieur de ces espaces-là donc en fait on calcule les barissants dans ces espaces qui nous permettent de calculer des matrices moyennes dans ces espaces qui permettent de moyener des spectres c'est un peu la même idée que tout à l'heure on voulait moyener des crâles on voulait moyener des chapeaux ici on veut moyener des spectres et on le fait grâce à ces outils-là la dernière planche que je voulais faire passer alors ce qu'on peut montrer c'était de reprendre l'idée de Poincaré donc l'idée de Poincaré c'est de dire un état polarimétrique c'est un point sur la sphère et en fait ici ce qu'on peut montrer c'est un état spatio-temporel qui correspond à l'électromagnétique c'est un point dans cet espace produit dans lequel on a ici une valeur réelle qui correspond à la puissance du signal on a M moins 1 coefficient dans le disque de Poincaré donc V c'est le disque de Poincaré et ça qui correspond à l'information d'au plaire en fait à la forme du spectre et puis on a M M-1 matrix qui sont à l'intérieur du disque de Z-Gull je n'ai pas eu le temps de vous expliquer les liens avec la géométrie s'applétique le disque de Z-Gull c'est une extension assez naturelle du disque de Poincaré mais on a remplacé les valeurs complexes par des matrices complexes voilà donc en fait c'est toujours la même idée c'est que notre on électromagnétique on va pouvoir la décrire son état par un point dans un espace métrique et grâce aux outils de Frechet on va pouvoir calculer des probabilités des statistiques dans ces espaces métriques pour décrire les statistiques de l'on voilà pour merci c'est juste en propos de la moyennisation le tout premier exemple que vous avez donné sur plusieurs triangles rectangles et celui qui a la moyenne je n'ai pas compris comment il a été fini c'était l'exemple de cours d'autre d'époque c'est le prenez ça comme exemple en fait voilà c'est ça c'est la définition de Frechet en fait Frechet dit le barissant ici vous avez N triangle celui qui minimise la somme des distances je vous dis la somme des distances je vous dis il minimise la somme des distances la somme des distances j'ai dit qu'à l'ordre P ça va dépendre de choix de P alors si vous prenez P égale 2 vous avez le barissantre moyen et si vous prenez P égale 1 vous avez le barissantre médian alors j'ai une planche pour expliquer la différence donc en fait le barissant médian jeunisique de Frechet c'est l'extension quand vous avez des valeurs réelles si vous calculez le médian en fait vous les ordenez et puis vous prenez la valeur qui est à 50% en fait quand on fait un barissant jeunisique la propriété qu'il a c'est que la somme des vecteurs tangents au jeunisique normalisé est égal à 0 et ça ça veut dire quoi comme les vecteurs tangents sont normalisés des points n'importe peu donc en fait ce qui va se passer lorsqu'on va calculer le barissant de jeunisique on va se mettre au milieu du moche de points pour que les points soient répartis de façon le plus isopropé mais en fait on a déjà cette propriété pour l'accès réel puisqu'on voit que lorsqu'on ici on a la valeur 1, 5, 11, 13, 17 quand je suis ici j'ai bien 2 vecteurs qui descendent et 2 vecteurs qui montent donc ici j'ai bien 2 vecteurs qui vont vers là donc la somme des vecteurs on va être égal à 0 ça c'est le cas P é égal 1 en fait on a fait une thèse parce qu'avec Marc Armonon de l'université de Bordeaux il était pas à Bordeaux à l'époque mais pour montrer que l'algorithme qu'on appelle l'algorithme de Karcher qui est l'algorithme qui calcule le flow pour converger à ce point là on a donné des versions pour revenir au triangle rectangle en fait si si vous avez quelque chose à retenir c'est ça ça doit servir de conversation en fin de dîner mais tu sais comment on calcule la moyenne de triangle rectangle je reviens sur un petit triangle rectangle en fait qu'est ce qu'il faut comprendre c'est que la relation de Pythagore A2 plus B2 égale H2 en fait dans l'espace des paramètres elle va déployer une variété différentielle donc ici c'est le convex qu'on voit ici si je fais H égale racine carré de A2 plus B2 donc si vous prenez un point dehors de cette surface ça va être un triangle rectangle par contre tous les points qui sont sur cette surface correspondent à une valeur de A de B de H qui correspond à un triangle rectangle ça va être celui qui minimise la somme des distances violésiques à l'ensemble de ces de ces choses-là et on ne sait calculer que depuis 1977 grâce à Hermann Karcher voilà si Élicarton avait montré que lorsqu'on est à courbure négative ce barissante existait unique on ne savait pas le calculer donc celui qui a donné l'algorithme pour le calculer je vais le retrouver voilà c'est Hermann Karcher en fait c'est tout bête vous avez 3 points vous pouvez calculer le barissante géolésique vous pouvez calculer les vecteurs tangents au géolésique la somme des vecteurs tangents et après vous appliquez ce qu'on appelle le pare-acteur exponentiel qui vous permet d'aller dans la direction sur la surface, sur la variété vous avez un autre point de vous itérer donc à courbure négative on peut montrer l'existence et l'unicité du barissante d'ailleurs Karcher disait c'est très drôle parce que tout le monde parle du barissante de Karcher il dit non non il faut pas dire le barissante de Karcher il veut dire le barissante de Karcher dis name after noise Karcher means a close view relative construction name after Hermann Karcher il dit c'est juste après si je vous l'ai compris vous avez parlé de défier la distance entre... je sais pas pourquoi vous ne prenez pas la distance de la search time vous avez même parlé de transport optimal ça fait très populaire oui c'est très populaire alors non on a testé ça marche pas sur le données mais peut-être d'autres cas où ça marche justement j'avais un exemple pour le cas le plus simple le cas le plus simple c'est prendre des gaussiennes si vous faites le calcul dans le cas des gaussiennes la latrice de fichier c'est ça c'est 1 sur sigma2, 2 sur sigma2 donc quand on applique la formule de la géométrie d'information on trouve que la métrique c'est dm² sur sigma2 plus 2 des sigma2 sur sigma2 en fait si on fait la géométrie on voit tout de suite que c'est la métrique du demi-plan point carré et c'est assez normal c'est-à-dire que la moyenne c'est une valeur réelle alors que les quarties c'est une valeur positive et en fait la propriété d'invariance par changement de parentisation de la métrique de fichier est liée au travaux de cause ou de cartons qui eux cherchaient une métrique invariant par les automorphismes de cet espace comment point carré a trouvé sa métrique il a cherché les automorphismes de cet espace et il a cherché une métrique qui rendait invariant qui était invariant par ses automorphismes et donc ici on arrive à une chose assez jolie c'était en fait une gaussienne c'est un point dans 10 de point carré en fait on passe du demi-plan point carré au disque de point carré par la transformation une gaussienne c'est un point dans ici c'est un point ici notre gaussienne c'est un rectouin et donc la moyenne entre les deux gaussiennes ça va être le baris-centre géodésique dans 10 de point carré vous pouvez l'étendre au cas du clivarié gaussien et des choses comme ça c'est ça que Souriot a décompré aussi et qu'il a étendu dans le domaine de la physique statistique pour la mécanique statistique où il a défini une thermodynamie qui est à une invariance encore plus générale dans le système thermodynamique mais grâce à Souriot on peut j'ai un dernier plan je le dis ce dont il faut se rappeler on sait vous de me rappeler quelque chose il y a une citation que j'aime bien de Charcot qui vient devant une bonne choucroute au jambon ils ont lié à l'étudier une graisse de foc par siolomirtie donc il faut se rappeler quoi on passe dans les espaces abstraits grâce au travers de l'expéché donc on passe dans les espaces métriques pour faire des probabilités statistiques sur des mesures d'expérience la bonne métrique c'est la métrique de Fischer qui est un variant de parchantement de parantrisation et elle est égale de la fonction caractéristique ou écien de l'entropie la notion de noix gaussienne on peut l'étendre si on s'étend ce qu'on appelle la densité à maximum de l'entropie c'est une densité à maximum de l'entropie on cherche une densité qui maximise l'entropie sous contrainte de connaître les premiers moments de trouver la gaussienne mais ça ne marche pas en termes de diamix il y a un groupe qui agit et c'est là où le sourio a généralisé on trouve une densité à maximum d'entropie lorsqu'il y a un groupe qui agit de façon aux gènes sur la variété il a même créé une science qui agit et puis enfin on peut aussi étendre j'ai pas le temps de vous présenter on fait des travaux avec l'école des mines pour étendre aussi et cimer les densités non paramétriques avec des méthodes à noyaux assez classiques et là on l'utilisait des formules de brunot-pentier qui travaillaient à Reine et qui a donné des formules générales dans le cas de Charlemagne La première fois que j'ai entendu parler du radar plat en 1960 malgré moi je servais dans la marine je dis il y a mal qu'elle m'a et c'était automatisé les idées de brioins et l'idée était de contrôler le passage entre la Sicile et la Tunisie au moyen de sonnards à immerger mais qui était justement écran plat avec justement la modulation dans les principes de brioins Les sonaristes, mes collègues ont toujours été en avance parce que l'onde acoustique va beaucoup moins vite que l'onde électromagnétique ils ont toujours eu des puissances de calcul qui leur permettaient de faire des calculs plus rapidement que nous par rapport à la vitesse de propagation de l'ordre Je ne sais pas si ce qui aurait été mis effectivement en oeuf c'était à moitié à moitié de son cas mais j'ai entendu parler c'est-à-dire