 Bonjour à tous pour cette seconde session de l'après-midi donc on a le plaisir d'accueillir Jean-Luc Stark qui travaille lui aussi au CEA donc commerciale, énergie atomique et aux énergies alternatives. Il travaille dans une équipe autour de la cosmologie dans un laboratoire qui s'appelait le Cosmostat et pour dire que c'était dessiné à faire ça, je cherchais tout à l'heure pour quelques éléments de la biographie en particulier le nom de son labo et donc j'ai commencé à taper Jean-Luc Stark et le premier truc sur lequel on tombe c'est Jean-Luc Star Trek je pense que c'est un si donc Jean-Luc va nous parler de frayonnements cosmiques et de parcimoniques je vous remercie, c'est un vrai plaisir d'être là parce que je suis vraiment un de ceux qui utilise beaucoup les outils statistiques et les idées qui ont été développées il y a quelques années par Emmanuel Candès, David Dono et toute cette équipe-là, Stéphane Malin aussi et donc j'ai participé un peu à l'évolution de ces idées et j'ai utilisé les applications en astronomie et donc je vais essayer de vous montrer un peu ça et donc c'est aussi un plaisir d'être à la journée statistique pour vous montrer un peu des résultats, des idées un peu récentes dans des applications concrètes avec des données, de satellites etc donc j'ai juste fait une petite introduction à la cosmologie, alors on a un modèle qui est assez paradoxal parce que ce modèle cosmologique qu'on appelle le modèle standard, il explique vraiment bien toutes les observables et les observables sont nombreuses, c'est ce fondifu cosmologique dont je vais vous reparler mais c'est aussi des supernovés, c'est aussi la distribution des galaxies dans l'univers c'est l'émission du gaz qu'on voit à travers l'émission X avec les satellites en X et aussi l'effet de distorsion gravitationnelle qui lui permet d'avoir des mesures différentes donc l'ensemble de ces mesures tout ensemble combinées a amené à ce modèle cosmologique sur lequel on peut estimer les paramètres et on arrive à un bilan énergétique de l'univers qui est très très particulier dans le sens où, j'imagine tout le monde c'est ça ici ce modèle nous dit que la composante énergie de l'univers c'est 70% d'énergie sombre donc on n'est pas vraiment la nature, 25% de matière noire donc c'est pas ce que c'est et finalement tout ce qu'on voit c'est que 4% de l'énergie donc l'univers est invisible pour les yeux c'est vraiment le cas donc voilà un peu ce modèle paradoxal, d'un côté il marche super bien le côté des questions vraiment fondamentales qui ne sont pas résolues donc ce modèle fondamental c'est le modèle du Big Bang c'est ce qu'on appelle le modèle standard et le Big Bang n'est pas inobservable, le Big Bang c'est un modèle donc il faut bien avoir ça en tête et un des principales arguments pour croire en ce Big Bang c'était clairement été la détection et l'observation pour la première fois de cette radiation qu'on appelle le fondifu cosmologique cosmic microwave background donc chaque fois vous voyez CMB dans mes slides ça veut dire cette composante et donc ce modèle pense que cette lumière est émise l'univers devient transparent seulement 300 000 ans après le Big Bang c'est que à ce moment là que les photons peuvent s'échapper et parvenir jusqu'à nous donc il faut bien voir ça c'est 300 000 ans après le Big Bang on a la première observable donc on a cette observable là et à partir des petites fluctuations qui sont liées donc dans le fondifu cosmologique la gravitation fait son effet et la matière peut commencer à se créer et les amas les galaxies etc se former et pour qu'on soit là 13 milliards d'années plus tard donc voilà un peu le schéma et le modèle standard cosmologique alors qu'est ce qui nous fait croire que ce qu'on voit cette émission là qu'on voit c'est vraiment lié au Big Bang alors là il y a toute une histoire j'ai une slide pour ça pour vous décrire cette histoire c'est que donc quand Hubble observe ces galaxies avec le premier télescope au mont Wilson il voit que toutes les galaxies s'éloignent de nous et plus elles sont loin plus elles vont vite donc cette explication pour cette observable ça a été que l'univers est en expansion c'était quelque chose très difficilement accessible pour les chercheurs y compris les plus brillants et les plus intelligents comme Einstein qui ne croyait pas au départ à ce modèle là et c'est un AB le maître qui a proposé ce concept d'univers en expansion et c'est aussi une des raisons pour lesquelles je ne lui croyais pas parce qu'effectivement quelqu'un qui vient de l'église c'est le début, la fin, Adam et Eve etc donc c'était quelque chose que les scientifiques n'étaient pas vraiment prêts à accepter le mot Big Bang était proposé par Fred Oil non pas pour donner un mot à quelque chose mais pour le dénigrer en disant il y a une expansion de l'univers ça veut dire qu'il y aurait un Big Bang au début voilà un peu comment ce mot est arrivé dans une émission radio et il est resté ça fait aussi peut-être le succès la théorie plus tard mais c'est un peu l'indose de l'histoire et la vraie théorie qui arrive c'est en 1948 c'est Gamov qui propose vraiment une physique de l'univers primordial et il fait une prédiction et cette prédiction c'est qu'on devrait être baigné dans une radiation à 3 degrés Kelvin donc Gamov étant quelqu'un d'original qui a beaucoup d'humour qui se baladait en cadillacro etc sa théorie n'a pas vraiment eu de considération et on peut dire que au niveau des années 60 elle était quasiment dans l'oubli d'accord donc on ne pensait pas un Big Bang à ce moment-là ce qui a vraiment changé les choses c'est deux ingénieurs qui mettent une antenne radio pour récupérer des données d'un satellite ils ont cette antenne radio et la position est n'importe où sur le ciel il y a une espèce de bruit parasite qui est là donc ils frottent ils croient que c'est les crottes de pigeons, la chambre de pigeons donc ils vont nettoyer etc et à la fin quand ils sont persuadés que ce n'est pas un bruit instrumental ils disent bon ben on pointe partout dans le ciel ça y est on va voir un astronome donc ils vont voir un astronome et il se fout que cet astronome connaissait les travaux de Gamov et ils ont fait le lien tout de suite avec cette théorie-là donc ils ont eu deux papiers à ce moment-là un papier qui montre la découverte de la fameuse radiation à T.K. et un papier qui explique ce que c'est et c'est évidemment le papier qui a fait juste la découverte qui a eu le prix Nobel ils ont été chanceux Ni Gamov qui avait fait la prédiction ni ceux qui ont expliqué ce que c'était que l'observable n'a eu le prix Nobel donc à ce moment-là le modèle d'un hiver en expansion avec un big bang clairement reprend de la vigueur et ce modèle commence à se confirmer comme un modèle standard à partir du premier satellite d'observation de ce fondu cosmologique qui est Kobe et cette radiation qui est extrêmement uniforme on devait voir des petites fluctuations de l'ordre de 10 moins 5 et c'est ce que Kobe a montré et donc à partir de là, on a tout un champ de la cosmologie qui s'est créé autour de l'observation et de l'analyse du fondu cosmologique donc il y a eu beaucoup d'observables avec des ballons mais aussi plusieurs satellites donc il y a eu Kobe le premier puis WMap et enfin Planck qui a délivré ses résultats en 2013 donc juste l'an passé et qui fera une deuxième release de résultats cette année en juin donc voilà à quoi ressemble un fondu cosmologique donc pour les statisticiens, la théorie dit que c'est un changotien aléatoire donc comme on peut schématiser ça, en gros il y a les propriétés statistiques qui est qu'on peut décrire, juste avec un spectre de puissance on peut décrire le comportement de ce type d'objet donc il faut voir que ces fluctuations sont lors de 10-5 et ces fluctuations contiennent énormément d'informations pour la cosmologie alors pourquoi ? en particulier il y a ce qu'on appelle les pics acoustiques qui sont liés dans l'univers primordial, il y avait 2 forces qui se combattaient un petit peu la pression qui repoussait la matière et la gravitation qui attirait la matière donc il y a eu des ondes acoustiques qui sont créées et qui devaient laisser une trace dans cette émission-là et c'est ce qu'on peut observer ces traces-là avec le spectre de puissance donc le spectre de puissance c'est un outil statistique qu'on va appliquer à la carte on peut voir ça comme ça donc c'est à cette forme-là et donc pour ceux qui connaissent Fourier c'est un peu les grandes fréquences sur les très très grandes échelles correspondent aux informations qui sont là et plus on va dans cette direction-là, plus on a de l'information sur les petites structures ou les très grandes fréquences donc voilà ce que c'est qu'un spectacle puissant et là on voit ces fameux pics acoustiques qui étaient prédits et aussi qui ont été observés donc c'est encore un deuxième argument pour bien accepter ce modèle cosmologique alors une fois qu'on a la carte on peut faire vraiment beaucoup de choses en fait donc à partir du spectre on peut donc dériver des paramètres cosmologiques mais il y a aussi pas mal de choses qui va se passer donc cette lumière qui a été émise 300 000 ans après le ping-bong elle va mettre plus de 13 milliards d'années pour venir jusqu'à nous et il va se passer des choses dans ces 13 milliards d'années en particulier cette lumière va traverser tout le champ de matière et donc elle va être légèrement perturbée par la matière donc il va y avoir une trace de ce qu'on appelle de non-gaussianité sur ce champ là qui est supposé être complètement gaussien donc il y a la théorie qui nous dit que initialement le champ était gaussien et puis il va y avoir ce qui va se passer par la suite qui va créer ce qu'on appelle des non-gaussianités donc des choses qui fait que c'est pas complètement parfait en termes statistiques gaussiennes d'autres choses qui vont se passer c'est que les très grandes échelles de l'univers vont être liées à la topologie de l'univers donc on peut imaginer que l'univers est un petit peu comme la Terre c'est à dire si vous partez dans une direction et au bout d'un moment vous revenez au même point la topologie n'est pas forcément plate et donc il y a des gens qui ont beaucoup travaillé sur les topologies de l'univers donc les grandes échelles de cette carte vont nous informer sur ça d'autres choses encore il y a certains modèles de l'inflation qui prédisent des choses un peu particulières on va dire des signatures exotiques qu'on doit aussi trouver des travaux sur cette carte donc tous les théoriciens physiciens qui travaillent sur l'inflation peuvent prédire des choses qu'on pourrait voir par exemple sur cette carte donc voilà la quantité de choses important la dernière chose dont je vais parler un peu aussi par la suite c'est ce qu'on appelle l'IASW Integrated Size W Effect ça c'est un effet qui est lié au fait que l'univers est en expansion donc quand un photon passe dans un pile potentiel il prend l'énergie et quand il ressort il en perd mais si le potentiel gravitationnel a évolué il va pas prendre, il va pas perdre la même énergie et donc il y a une petite trace encore qui va que laisser dans le fond de vie cosmologique donc cette carte est extrêmement riche d'un point de vue cosmologique et le satellite Planck qui a été envoyé en 2009 avait pour objectif de cartographier cette fameuse carte CMB donc à un moment donné le satellite il n'observe qu'un seul point donc en gros c'est des séries temporelles et on a fait tout le ciel, on l'observait tout le ciel 5 fois de suite et donc c'est des cartes c'est des cartes qui sont sphériques qui font toute la voûte céleste voilà ce qu'on voit donc c'était dans 9 longueurs d'ondes avec deux instruments et donc avec une bien meilleure résolution que le satellite précédent donc ça c'est un exemple de carte et donc juste pour vous montrer la différence de résolution ça c'était le premier satellite COBE, le deuxième WMAP et le troisième Planck donc pour vous montrer qu'on a beaucoup plus de détails sur la carte alors évidemment cette série temporelle je vous ai dit que le satellite Planck ne voyait qu'un point à un moment donné en gros, voilà ce qu'on va voir dans le temps c'est des séries temporelles et ces petits pics là que vous voyez c'est des rayons cosmiques qui ont tapé le détecteur donc ce n'est pas des choses qui sont intéressantes donc il va falloir corriger ça c'est des bruits basses fréquences donc je ne peux pas en parler non plus donc il faut corriger tous ces effets cette série temporelle je ne vais pas en parler le nombre de mesures qui ont été faites en tout c'est de l'ordre de 10 puissance 11 donc un gros volume de données qu'il a fallu traiter corriger de tous ces effets et à la fin on moyenne toute l'information à une position du ciel et on obtient des cartes de tout le ciel et dans 9 longueurs d'ondes donc voilà les données qui ont été fournies et qui sont disponibles sur le web par le consortium Planck donc c'est 9 cartes donc on reconnaît un peu le fondi fucosmologique dont je vous ai parlé tout à l'heure mais on voit qu'il y a aussi beaucoup d'autres choses et ces autres choses, ce sont toutes les émissions qui nous ont été envoyées par notre propre galaxie les amas de galaxie, enfin tout ce qui est dans l'univers qui nous envoie aussi de l'information donc évidemment le problème maintenant c'est d'enlever toutes ces choses-là pour qu'on retrouve ce fondi fucosmologique alors pour nous tout ça c'est ce qu'on veut enlever pour les physiciens de la galaxie au contraire c'est ça qui ne les intéresse pas et c'est ça qui les intéresse donc suivant le domaine de l'astrophysique on va s'intéresser à une ou une autre composante mais toutes sont intéressantes d'un point de vue physique donc le problème c'est qu'on a toutes ces cartes et il va falloir retrouver ce fondi fucosmologique on peut voir ça comme un problème on cherche l'information sur ce qui se passe dans le monde et on va scanner toutes les fréquences et on va glanner un peu d'information partout et on va essayer de retrouver donc l'information du fondi fucosmologique alors un peu plus mathématiquement maintenant donc c'est une sorte de combinaison linéaire donc les choses se mélangent chaque composante du ciel se mélange pour nous donner une carte dans une longue ordonde et donc c'est un problème qu'on dit malposé en mathématiques on a des observables y ils matrisent le mélange A qu'on ne connaît pas en fait on ne connaît qu'une colonne en fait en pratique c'est la colonne du fondi fucosmologique et les sources du ciel qu'on ne connaît pas donc il y a une équation et deux inconnues d'accord donc a priori c'est difficile et donc pour ça en général quand il n'y a pas de solution unique il faut rajouter des contraintes et donc il va falloir rajouter de l'information quelque part d'une certaine manière pour qu'on arrive à trouver une solution sinon il n'y a pas d'issue alors le consortium Planck a beaucoup travaillé ils ont proposé des très jolies solutions je vous montrerai les cartes tout à l'heure et donc ils ont intégré des concepts alors la première c'est de utiliser toute la physique qu'on connaît la physique de la poussière, la physique des amas etc et avec un modèle complètement baïsien avec des chaînes de Markov, de MCMC comme à parler ce matin Emmanuel un petit peu on peut arriver à modéliser complètement l'univers mais alors évidemment il faut que ces modèles soient correctes c'est toujours le problème des méthodes un peu baïsiennes c'est si les modèles sont parfaits c'est très très bien si les modèles sont imparfaits il y a toujours la possibilité d'avoir une erreur liée au modèle et c'est difficilement quantifiable donc il y a d'autres méthodes qui sont basées sur ce qu'on appelle template fitting par contre on a des observations de la poussière et bien on va essayer d'enlever à partir de l'observation qu'on a par ailleurs on va essayer d'enlever la poussière aux cartes qu'on observe donc on enlève des templates, on fit des templates aux données et on les soustrait et d'autres méthodes qu'on appelle des méthodes ILC internal linear combination où là on va dire que le fondifu cosmologiques c'est un vecteur qu'on connaît qui est lié à la colonne de la matrice A du fondifu cosmologique donc l'observable X c'est lié à une colonne qu'on connaît et le fondifu cosmologique plus un bruit qui contient et le bruit instrumentale et toutes les autres composantes qui ne sont pas du fondifu cosmologique et si on fait l'hypothèse qui est fausse mais on peut toujours la faire que c'est gaussien on a une solution et qui marche quand même relativement bien et on obtient une belle solution en statistique c'est bien connu ça s'appelle blue linear un biased estimator donc voilà les cartes donc elles sont voilées ces cartes sont dans un effort de plusieurs années d'équipe entière de plusieurs pays et on voit que ça marcherait très bien un peu à l'exception un peu du plan galactique qui est contaminé par des émissions qui nous viennent donc voilà un petit peu l'état de l'art donc maintenant qu'est-ce qu'on peut faire avec la parsimony pour ceux qui ne savent pas ce que c'est que la parsimony la parsimony c'est l'idée que beaucoup de signaux peuvent se représenter dans un dictionnaire de forme de manière très efficace donc pour ceux qui connaissent fourrier si on observe une synzoïde dans l'espace de fourrier ça fait que deux pics donc on représente de manière très efficace toute l'information de la synzoïde avec seulement en fait une valeur donc c'est symétrique donc l'idée de la parsimony c'est on va chercher à représenter des données S sur ce qu'on appelle un dictionnaire de forme et on obtient des coefficients alpha et ces coefficients alpha si on les trie, si on les classe du plus grand ou plus petit par ordre de grandeur en valeur absolue ça va nous donner ce genre de courbes si leur formation est parsimogneuse il va y avoir quelques coefficients qui vont être très très grands et la plupart vont être très petits en d'autres termes, en termes de vision si vous arrivez à représenter votre information sur peu de choses, sur peu de valeurs alors vous avez compris comment le contenu de vos données si vous avez compris comment mettre toute votre information sur quelques bits vous allez pouvoir les transférer à un autre endroit vous allez pouvoir mieux les comprendre, mieux analyser vous allez avoir un meilleur rapport sénatiaux bruit donc il y a tout un jeu de données qui est extrêmement important et il va falloir donc projeter ces données dans l'espace associé qui est le plus adéquat à vos données donc là il y a toute la communauté ondelette en particulier il y a beaucoup travaillé sur ces espaces d'orientation et on a beaucoup de dictionnaires qui existent qui permettent de calculer très rapidement des coefficients alpha à partir des données donc n log n typiquement et donc à partir de là on va avoir une distribution qui va avoir une forme laplacienne qui est comprise dans la queue de la distribution d'accord ? donc si on veut utiliser maintenant si on maintenant fait l'hypothèse que le signal est parsimonul dans un dictionnaire donné alors on va avoir un problème y est hx typiquement h c'est un opérateur comprenait et on va mettre le contraint de parsimonul sur la solution et c'est cette contrainte là qui va nous permettre de trouver une solution uniquestable donc voilà une manière de faire vous comprenez un peu la parsimonie pour ceux qui ne connaissent pas imaginons que vous avez une image vous regardez l'histogramme des pixels donc c'est juste les valeurs des pixels donc vous voyez que c'est ce type d'orientation vous transformer cette image vous perdez rien c'est juste une transformation des données dans un autre espace et vous faites l'histogramme voilà ce que vous avez c'est juste une transformation vous voyez les données de manière différente donc à partir de là vous transformez cette image vous prenez c'est 1% des coefficients les plus fortes voilà ce que vous avez et vous voyez que ça représente à peu près 8% de l'énergie d'accord en prenant simplement les 1% de coefficients les plus fortes de l'image si vous allez dans l'espace onglet vous transformer cette image vous allez dans l'onglet vous prenez 1% des coefficients les plus fortes alors cette fois-ci vous reconstruisez à partir de c'est seulement 1% vous avez jeté 80% de l'information vous gardez 1% vous reconstruisez l'image et vous voyez que vous avez récupéré 99% de l'énergie donc voilà la puissance de ce rebond dans son parcimonieux c'est que vous compactez l'information dans peu de coefficients et vous analysez que ces petits coefficients donc ça revient tout à fait aussi au talk d'Emmanuel ce matin avec ces concepts de réduction dimension mais là c'est un peu la même chose vous mettez l'information dans peu de choses et c'est complètement lié aussi aux ces concepts d'information dont on a parlé cette règle ce matin vous mettez l'information sur très très peu de choses donc voilà un peu ces idées de parcimonieux alors maintenant une première petite application avant d'attaquer vraiment le problème de Planck on va faire un peu simple on a une image et on a 2 inconnues on est dans un cas extrêmement simple et on va dire que maintenant ces 2 inconnues sont différentes elles ont une morphologie différente par exemple l'une peut être représentée des lignes et l'autre des gaussiennes par exemple et donc la parcimonieux va nous permettre d'utiliser un concept qui s'appelle la diversité morphologique et donc on va avoir ce problème à résoudre il faut trouver x1 et x2 mais on va mettre des contraintes sur x1 et des contraintes sur x2 donc on va prendre un dictionnaire phi1 pour x1 et un dictionnaire phi2 sur x2 et on va avoir des outils de minimisation qui vont permettre de faire ça alors pour vous donner un exemple on peut partir à cette image là en minimisant on va lancer en usant 3 dictionnaires on va séparer l'information de manière aveugle entre cette image en 3 sous images ça c'est une image infrarouge qui avait été observée par le télescope Gmini et toutes ces lignes sont liées à des problèmes instrumentaux du détecteur et en minimisant cette équation on va séparer une image ici en 3 morceaux qui sont les lignes dans un espace curblette dans un espace rigelette et dans un espace ondelette donc on est capable de récupérer l'information liée à une galaxie alors qu'il y a plein de choses qui contaminent cette image et on peut corriger donc l'image de départ des effets instrumentaux et voici l'image corrugée alors une application très forte de cette diversité morphologique c'était un problème lié à l'observation de satellite Herschel qui voulait étudier la formation des étoiles et en particulier est-ce que les étoiles se forment dans l'univers le long des filaments dans le milieu interstellaire donc ça c'est l'image Herschel donc ça contient plein de structures et on a appliqué cette diversité morphologique et on a séparé on a séparé deux dictionnaires un dictionnaire curblette pour inventer des filaments un dictionnaire ondelette pour inventer les étoiles et on a séparé donc cette image en deux sous-images et donc mon collègue Philippe André a pu ensuite compter le nombre de filaments dans la carte filamentaire et regarder comment les étoiles se formaient le long des filaments et faire toute une théorie autour de ça donc voilà comment ces idées de parsimonie se forment dans leur planque donc c'est vraiment quelque chose assez remarquable et clairement un retour extrêmement fort de tout cet effort qui a été fait dans la communauté statistique de développer ces concepts de parsimonie et les alourides dominations et les remontations parsimonieuses donc juste pour vous monter que ça marche aussi en trois dimensions ici on sépare un cube de données qui contient des gaussiennes trilimensionnelles et des coquille d'oeufs alors une deuxième application intéressante pour l'astronomie c'est ce qu'on appelle in-painting maintenant vous avez des observables mais il vous en manque vous avez pas toutes les observables donc encore une fois vous avez un problème à résoudre qui est mal posé et vous allez mettre comme contrainte que votre solution est parsimonieuse donc ça va être le même genre de choses et donc je vais vous montrer les résultats c'est assez amusant donc ça c'est une image où il manque 80% de pixels manquants et en in-painting voilà ce qu'on retrouve d'accord donc on a dû mettre les codes publics Emmanuel a parlé de recherche reproductible c'était absolument fondamental pour que les gens croient qu'on ne triche pas parce que sinon ce n'était pas possible donc maintenant on a vu un peu quelques principes de parsimonie que c'est une contrainte extrêmement forte pour régulariser des problèmes inverses et la question c'est est-ce qu'on peut les appliquer pour Planck alors on peut faire la même chose on peut prendre donc les différentes composantes qu'on connaît, simuler etc et on peut regarder comment elles se comportent dans l'espaceon de lettre par exemple donc ça c'est l'histogramme des pixels d'une carte de poussière et on regarde dans le lit on retrouve cette forme la platienne alors là il va se passer quelque chose assez fondamental c'est que ce concept de parsimonie pour l'analyse du fond du flux cosmologique est extrêmement difficilement acceptable pour la communauté du fond du flux cosmologique alors la raison et je suis gentil en disant ces mots là c'est une opposition c'est une opposition c'est une opposition c'est une opposition c'est une opposition un peu rigoureuse on va dire et et l'argument qui est derrière c'est que le fond du flux cosmologique est issu dans la théorie de la réaction d'un changotien aléatoire et donc un modèle lié à de la parsimonie qui est type pour ceux qui connaissent c'est des normes L1 etc si on se replace dans un modèle dans un cadre baïsien ça revient à voir une sorte de modélisation la platienne qui n'est pas le modèle de départ entre avoir une vision baïsienne d'un processus stochastique ou au contraire de regarder les données telles qu'elles sont et de dire mes données elles ont cette distribution là et je ne fais aucune hypothèse sur la distribution a priori ou même que ce soit une distribution je dis juste mes données quand je les regarde dans un espace comme les ondolettes ou les harmoniques sphériques elles ont une distribution en la platienne d'accord mais qu'un coefficient en ondolettes ou en harmonies sphériques soit issu d'un processus stochastique ou pas il n'y en a aucune hypothèse de cette sorte donc si on reste sur un concept parsimonie il n'y a aucune il n'y a aucun obstacle à part un dogme baïsien à l'utilisation de la parsimonie pour l'exploitation des données du CMB alors maintenant comment on peut étendre ces idées à des données je vous ai montré donc c'est bien plus compliqué des données mutilonguernonde à un dictionnaire espacial et spectral donc on va voir un dictionnaire comme un produit tensoriel d'un dictionnaire espacial et spectral et on va voir un nouveau dictionnaire dans lequel on va devoir chercher la solution on a mis un algo en place je passe sur le détail qui donne de jolies résultats mais qui était un peu limité quand même on était un peu déçu par les premiers résultats et donc là ce que je vous montre c'est quand même un travail de 10 ans donc les choses entre une idée de départ et quelque chose à l'arrivée des fois ça peut être très long mais apparemment je sais que je ne suis pas le seul dans ce cas là dans d'autres domaines c'est pareil donc toujours est-il que l'autre modèle était trop limitatif dans le sens où la matrice qui mélange les choses était unique pour tout le ciel et en pratique ce n'est pas vrai et une autre chose qu'on n'avait pas pris en compte c'est qu'il y a une force instrumentale de l'instrument dépend avec la longueur bande et cet effet aussi là il faut le prendre en compte si on veut proprement tenir compte de tous les effets donc ça nous a amené à une deuxième génération de séparation de composantes où cette fois il fallait adapter la séparation d'une part à la bande de fréquence et d'autre part à la localisation spatiale de l'information donc pour s'adapter à la bande de fréquence et la localisation spatiale tous les experts en statistiques vous direont tout de suite la résolution fréquentielle et spatiale et c'est ce qu'on a fait on a développé des ondolettes sur la sphère et donc à partir d'un monysphérique donc vous n'avez pas besoin de comprendre les équations seulement sachez qu'on décompose une image en une série d'images chacune correspond à des structures de différentes tailles et toute l'information est là et maintenant on va pouvoir s'adapter pour chacune de ces images à la raison spatiale et à la localisation de l'information donc ça va nous donner une nouvelle méthode on va faire une échelle en ondolettes du cartes par exemple et ça va nous donner une différente méthode ou cette fois-ci on va d'abord décomposer chaque carte en ondolettes donc les neuf canaux on va le décomposer en ondolettes et sur chaque canot on va extraire une petite zone et on va appliquer la méthode précédente donc pour ceux qui connaissent un peu les travaux de nos hauts ça a beaucoup une flèvore de wavelettes-vaguettes des compositions sauf que c'est en multicanal et avec une matrice qu'on recherche c'est vraiment une adaptation de ces idées de diversité morphologique avec du spectral pour extraire l'information donc ça c'était le résultat sur les données WMAP donc on voit ça fait des très très belles cartes ça marche beaucoup mieux que la méthode au départ il y a encore des problèmes sur le plan galactique et à partir de là on va quand même essayer d'analyser cette carte donc à partir de là on va essayer d'exploiter cette carte pour essayer d'en dire quelque chose alors une des curiosités de l'analyse du fondateur cosmologique c'est que comme elle est supposée être gaussienne les gens ont développé des statistiques un peu toutes sortes pour essayer de voir si cette hypothèse de gaussanité tient d'accord est-ce que c'est vraiment gaussien et dans les dix dernières années il y a eu tout un ensemble de papiers qui ont détecté des choses qui sont on va dire pas normales donc ces choses pas normales c'est pas dix sigmas c'est plutôt de l'ordre de deux trois sigmas des fois il y a un qui prétend un peu plus mais les statistiques des fois sont aussi discutables donc la question c'est on essaie de revoir un peu les mêmes choses et en particulier on sait que ce que je vous ai dit au départ c'est que ce qu'on observe nous on sait que ça ne va pas être complètement gaussien il y a comme des choses qui sont passées entre les photons qui sont arrivés à nous et en particulier cet effet dont je vous parlais l'effet ISW qui est lié à l'expansion de l'univers donc ces gens quand ils avaient fait ces études ils avaient pas tenu en compte cet aspect-là donc ce qu'on a regardé c'est si maintenant on tient en compte de cet effet-là est-ce que ça fait est-ce que ça change ces niveaux de statistiques des choses qu'on a trouvées anormales et donc pour voir un effet pour essayer de mesurer une carte de l'effet ISW pour ça on a besoin d'un trasseur de la matière alors un trasseur de la matière je vous ai dit que d'ailleurs c'est essentiel la matière les noirs et on sait pas ce que c'est alors là on va faire une première approximation c'est qu'on va dire que les galaxies qu'on observe sont un trasseur pas trop mauvais de la matière et que quelque part peut-être la matière noire et au même endroit que la matière visible donc on va prendre une carte de galaxie et à partir de la théorie on peut en dériver une carte de l'ISW maintenant on peut soustraire cette carte à la carte CMB et regarder si ça change la fluctuation statistique de ces anomalies qui ont été détectées donc voilà ce qu'on a fait on a montré que sur le plan galactique c'est pas terrible donc il faut masquer cette zone-là et ici encore une fois il faut masquer cette zone-là pour les galaxies c'est pareil parce que là il y a notre galaxie qui envoie beaucoup de lumière et on n'arrive pas à avoir cette information-là donc on se retrouve encore avec un problème de nez manquante et on va c'est dire bon on avait vu une painting c'était magnifique pour Barbara peut-être que c'est magnifique pour les galaxies aussi et le fondu plus cosmologique donc on a appliqué le même genre de méthode donc c'est un masque qu'on utilise et vous pouvez voir que l'algorithme c'est ce qu'il va faire c'est qu'il va remplir la zone avec quelque chose qui grosse au dos aura les mêmes propriétés statistiques et donc une fois qu'on a ça on peut après l'appliquer aux données et regarder comment ça se passe sur les statistiques donc on reconstruit les grandes échelles donc ça c'est une simulation donc on voit les grandes échelles de la carte CMB en masque et voilà ce qu'on reconstruit quand le masque il fait 87 % on a 87 % du ciel ou quand on a 77 % du ciel donc ça reconstruit quand même relativement bien on peut être un peu plus quantitatif et regarder le pourcentage d'erreur et on voit que quand le masque il est de l'ordre inférieur quand le masque on a quand même plus de 80 % du ciel on a quand même une très belle reconstruction des grandes échelles de l'univers donc à partir de là on peut y aller on prend les données on in paint on prend les galaxies on in paint parce que c'est encore mieux et on arrive à faire les statistiques et ce qu'on a vu c'est qu'effectivement il y a plusieurs anomalies dont la significativité décroit à partir du moment on a tenu en compte de ces effets-là donc on n'est pas obligé d'aller invoquer des phénomènes un peu exotiques dans la cosmologie ou dans l'inflation on peut tout à fait dans un modèle standard de BingBong complètement comprendre c'est en tout cas la plupart de ces anomalies donc ça c'est un résultat qu'on a fait donc maintenant je vais revenir un petit peu à Planck pour finir donc là je ne peux encore plus faire ces analyses sur Planck mais on le fera donc je reviens aux quatre cartes qui ont été publiées par le consortium donc maintenant qu'est-ce qu'on peut faire sur Planck donc maintenant tous les données sont publiques donc les données Planck sont publiques mais on a aussi les données WMap donc pourquoi pas aussi utiliser les deux donc ce qu'on a fait c'est qu'une reconstruction donc c'est 14 cartes qu'on a au départ et pas neuf et on a fait ça et cette fois-ci voilà ce qu'on reconstruit et ce qui est joli dans tout ça c'est que maintenant même dans le plan galactique on voit qu'on a une estimation du fond du Cosmic qui est assez jolie donc ça c'est des choses complètement nouvelles papiers ne même pas encore acceptés donc c'est tout à fait frais donc vraiment l'appartimonier ici permet d'avoir quelque chose d'extrêmement joli donc pour vous montrer maintenant ce qui se passe sur le plan galactique d'accord voilà une autre méthode une troisième méthode et voilà avec l'appartimonier donc vraiment le plan galactique est clairement mieux restauré alors pour les paramètres cosmologiques ça n'a pas une importance fondamentale parce que de toute manière on peut masquer cette zone-là et les estimer correctement pour les analyses des grandes échelles c'est différent on voit que plus que le masque est grand plus ça dégrade l'analyse donc d'avoir des masques petits ou éventuellement pas de masques donc pour les paramètres cosmologiques ça n'a pas forcément un impact pour les analyses statistiques de longue haussianité ça peut avoir son importance alors une autre manière de voir la qualité des cartes c'est qu'il y a une des composantes du ciel qui est très particulière ce sont les Amalgalaxies les Amalgalaxies ont la particularité qu'à 217 GHz ils n'ont aucune émission dans le fond du flux cosmologique donc on peut prendre la carte à 217 GHz qui est observée et soustraire ce qu'on a estimé du fond du flux cosmologique et en pratique on ne devrait pas avoir d'Amas si on voit des Amas c'est quelque part la carte du flux cosmologique est contaminée donc on fait la différence entre la carte à 217 GHz et la carte du flux cosmologique estimée et on peut voir la différence on voit que les trois cartes sont contaminées mais pas la nôtre donc encore une fois on a été un peu plus fin d'analyse et on n'a pas cette contamination de la carte sur des données vraies c'est toujours très très dur d'avoir une sorte de critère qualitatif mais on peut quand même essayer d'y arriver alors une manière de faire c'est-à-dire on connaît on a une estimation du spectre de puissance théorique du flux cosmologique donc on peut estimer la puissance locale attendue à une échelle donnée à une position donnée dans le ciel à une échelle donnée donc ce qu'on va faire c'est qu'on va calculer la puissance locale des données à une échelle anglaise donnée à une position donnée et on va en soustrer à la puissance locale du bruit donc ce terme là si tout va bien il devrait proche de 1 et si D devient grand parce qu'il y a de la contamination ça va tendre vers 0 d'accord donc on va prendre un moins ça et on va prendre le max et on va prendre le max et on va prendre une carte de qualité et on peut voir comme ça la qualité pour les 3 cartes 3 des cartes du consorption de Planck et notre carte à nous donc on voit encore une fois que c'est clairement sur le plan galactique on a un gain significatif donc donc pour résumer mon sentiment donc là c'est un sentiment personnel mais je pense qu'il est partagé par pas mal de gens dans la communauté statistique et très mal du signal c'est que le début des années 2000 ont vu un changement de paradigme complet sur la manière d'appréhender le signal que ce soit à travers les travaux des chantillonnages en particulier grâce au fantastique travaux d'Emmanuel Candès et David De Naud sur la théorie du complexe sensing et des signaux parsimonieux avec tous ces dictionnaires qui ont été développés par la suite et enfin avec les méthodes d'optimisation qui ont été développées dans les... c'est vraiment un domaine extrêmement actif c'est tous les algorithmes pour trouver la solution une fois qu'on a mis les contraintes qui sont maintenant extrêmement efficaces et qui ont fait le lien entre des algorithmes un peu empiriques qu'on avait depuis le début des années 2000 et des travaux de l'optimisation plus profonds qui ont été développés dans les années 60 ce domaine qui est extrêmement actif qui a abouti à une nouvelle vision d'appréhender les problèmes inverses et de les réseaux d'autres donc pour conclure mon exposé je vais dire que on a vu que la parsimonie c'est assez amusant pour ces choses comme in-painting d'accord donc ça aussi c'est un concept pour l'astronome qui était absolument fou on n'invente pas des données mais le théorie du complexe sensing n'est pas vraiment... peut expliquer un petit peu pourquoi ça marche si bien ensuite on a vu que pour la séparation de composantes c'est bien alors ce qui est intéressant c'est que ces techniques on a développé comme dans un cas de purement astrophysique elles ont aussi trouvé des applications industrielles on a été contacté par une entreprise pour transférer cette technologie ou par d'autres départements du CEA pour des choses en bio médicale par exemple un autre aspect que j'ai rajouté en mon exposé tout à l'heure après le talk d'Emmanuel c'est... il a parlé de... le phénomène de recherche reproducible c'est quelque chose extrêmement délicat en cosmologie on est personnellement incapable de reproduire la plupart des résultats qui sont publiés donc... notre groupe à un autre niveau on essaie de pousser ce concept-là et sur nos codes sur nos résultats il y a les codes qui vont avec et les scripts qui produisent les résultats donc on est complètement dans un esprit de recherche reproducible et je considère que c'est extrêmement important pour le futur de la cosmologie pour la discussion le roi d'avoir des bugs dans les agroïdes c'est pas grave l'important c'est qu'on puisse se corriger que tout soit transparent donc l'erreur n'est pas grave mais ne pas vouloir ou tricher ou pas vouloir reconnaître les erreurs ou pas forcément tricher mais quelque part essayer de ne pas donner ces secrets appartement il y a des enjeux importants la cosmologie c'est pas aussi important que la climatologie à ce niveau-là mais quand même c'est quand même extrêmement utile que tout soit sur la table qu'on puisse reproduire les résultats les choses deviennent tellement compliquées aussi entre la science de maintenant c'est pas la science de hier et les algorithmes sont compliquées les données sont compliquées la manière de juste lire les données et de rejeter par exemple certaines galaxies parce qu'elles n'ont pas de bonne qualité il faut que ce soit c'est pas écrit dans les papiers donc il faut que tout soit reproduitif donc c'est pour ça que c'est pas seulement les algorithmes c'est aussi les scripts c'est aussi la mise à disposition des codes et si vous allez voir sur cette page-là vous allez voir qu'on met vraiment beaucoup de choses disponibles les perspectives donc les données planques la première relise c'est en 2013 la deuxième sera en 2014 donc il y a énormément de choses encore à faire pour les années qui viennent le prochain satellite important en cosmologie sera Euclides pour l'étude de la matière noire et aussi la parsimonie peut avoir un impact pour le design de nouveaux instruments qui ont été en ce moment au COA le projet TALC qui est un télescope spatial de 20 mètres donc évidemment vous n'allez pas mettre un télescope de 20 mètres dans une dans une fusée par contre si vous avez un télescope annulaire on peut montrer qu'on peut avoir un mécanisme extrêmement simple d'empilement des morceaux de miroir et que dans l'espace on peut déployer un semi-roir pour faire comme une route vélo et avoir une structure extrêmement rigide dans l'espace donc on travaille sur ce genre de concept alors évidemment on n'a pas tout le domaine observable il nous manque une grande partie du télescope mais on a fait des études et on peut voir qu'encore une fois avec de la parsimonie comme contrainte on peut vraiment récupérer la résolution sous-jacente à des images observées comme si on avait un télescope plein on peut perdre en résolution on perd en sensibilité mais on garde la résolution et par contre ça implique encore une fois d'utiliser des méthodes de parsimonie pour retrouver la solution et pas simplement des moindres carrés des choses comme ça voilà je vous remercie si vous avez des questions merci Jean-Luc on a le temps pour quelques questions merci pour ce magnifique exposé vous avez évoqué l'historique de la découverte du bruit de fonds de l'univers je crois que dans la maison de point carré il est utile de signaler ce chercheur de l'équipe du professeur Rockard le père du premier ministre qui à partir des radars allemands pris à la suite de la guerre dans les années 50 a fait la première mesure du fonds de l'univers a publié seulement en français malheureusement une communication à l'académie des sciences et donc vous pouviez citer le nom de ce chercheur et l'année je trouve que ça mérite d'être fait ici envoyez-moi la référence moi j'ai une question très simple enfin j'avais plusieurs de très simples j'ai pas bien compris déjà pourquoi la représentation c'est une ellipse et deuxièmement ce que signifie les couleurs jaunes, le et puis j'ai pas bien compris ce qu'on avait en entrée comme données physiques c'est à dire les observables et ce qu'on avait comme j'allais dire comme constante physique qu'on avait identifié bon, excusez-moi moi et en plus je dirais j'ai encore une autre question c'est le choix des ondolettes pourquoi vous avez pris je sais pas celle de art ou autre chose enfin je veux dire il y a quand même pas mal de liaisons que j'ai pas pu fait bon en gros vous dites que j'ai fait exposer nul non donc je vais essayer de c'est extrêmement délicat de faire un sujet qui touche à astrophysique aux méthodes parsimonieuses et montrer des images et résultats donc effectivement j'ai pas été peut-être assez clair sur la somme de choses ce que j'ai essayé d'expliquer c'est que c'est une fluctuation statistique donc il y a des points chauds, des points froids c'est une fluctuation autour d'une la la distribution est extrêmement uniforme et une fluctuation de l'ordre de 10-5 et là ce qu'on voit là c'est la fluctuation autour de cette constante d'accord c'est toutes les directions et ça c'est une carte de la voûte céleste c'est juste une représentation de la voûte céleste ça dépend à quel niveau vous mettez vos questions si c'est juste pour les paramètres cosmologiques on a aussi d'autres observats qu'on utilise pour dériver les paramètres c'est pas quelque chose qui est indépendant ce qui s'est passé par ailleurs dans les 50 ans si c'est si c'est pour les études de longue haussanité on travaille que sur cette carte là donc ça va dépendre un peu de l'objectif scientifique qu'on va faire derrière oui moi j'ai beaucoup apprécié votre exposé quelques questions d'abord je suis toujours surpris qu'on arrive à calculer le contenu en énergie de tout l'univers alors que ce soit en énergie ou en matière en noir en particulier mais c'est intéressant de savoir comment ça se fait et d'autre part vous avez mentionné les algorithmes d'optimisation non différenciables qui sont utilisés pour minimiser les contraintes fictions normellins donc j'apprécie d'abord vous avez rappelé qu'il y avait eu beaucoup de travaux avant les derniers travaux de Candace et Compagnie mais particulièrement chez vous quel type d'algorithme vous avez utilisé alors donc moi j'avais dans les années 2000 développé un algorithme j'appelais MCA Morphogial Compagnonazis qui était une sorte de soyage itératif et c'est avec ça que j'avais obtenu tous les résultats que je vous ai montré d'une painting ou de séparation de composantes d'une image en deux parties grâce au travaux de combats en 2005 le lien a été fait c'était un peu en pyrite de mon côté que j'avais fait et les travaux plus profonds de moraux, d'optimisation etc qui montraient que c'était ce qu'on appelle un forward-backward et qu'à partir de là du coup il y avait des preuves de convergences qui existaient donc magnifiques et depuis 2005 toute une communauté qui s'est mise à travailler sur ça et effectivement on sait maintenant si on fait un soyage en ondeletres ou en curvelettes donc maintenant nous on utilise plein de l'algorithme on n'utilise plus un seul donc en particulier Emmanuel Grandness a travaillé sur le writing L1 donc on utilise beaucoup de nos côtés mais on utilise aussi du Glash Rashford donc on n'utilise pas un seul ça dépend un peu des applications Comment calculer l'énergie ? Alors l'énergie c'est un modèle cosmologique qui est mis en place et qui va fiter les observables et en fonction du fit on dérive les paramètres sur la question pourquoi les ondeletres donc on tendra une carte de ce style-là a à peu près 50 millions de pixels donc c'est comme ayant un œuf plus tout le traitement qu'on va faire derrière donc c'est un volume de nez qui est assez sérieux quand même c'est pas négligeable donc il va falloir quand même indictionnaire où on puisse calculer les coefficients en un temps raisonnable très fortement le nombre de dictionnaires disponibles donc nous on a développé plusieurs dictionnaires donc les harmonies sphériques c'était le plus classique parce que c'était quelque chose qui est développé qui est connu depuis longtemps donc nous on a développé des ondeletres sur la sphère et on a développé des curvelettes sur la sphère donc maintenant pour ces applications-là suivant le type de données certains dictionnaires sont mieux que d'autres on se restreint à ces dictionnaires-là parce que c'est ce qu'on a donc les ondeletres sont... les harmonies sphériques sont le mieux pour le fond des ondeletres cosmologiques mais les ondeletres sont mieux pour les autres composantes la poussière, le synchrotron toutes les émissions des amas de galaxies etc qui sont très localisées tout ça on sait très bien depuis très longtemps que les ondeletres c'est parfait pour ça donc pour la séparation de composantes où on essaie d'extraire toutes ces autres composantes il a fallu faire un choix on a pris des ondeletres pour l'in-painting du fond du fond du fond du fond cosmologique on a pris des harmonies sphériques en Europe non directionnelles parce que c'est ça qui semble le plus approprié à ce type de données Bon, s'il n'y a pas d'autres questions on va encore remercier Jean-Luc et on se retrouve après la pause