 Bonsoir. Donc j'aimerais parler de la motivation et du contexte théorique de la mission Microscope. Comme introduction, avant que vous ayez beaucoup plus de détails. Ce dont on parle, c'est donc un satellite qui a été envoyé le 25 avril 2016, qui a tourné longtemps autour de nos têtes, qui tourne encore. Et le but scientifique est une version moderne de l'expérience de la tour de pise. C'est-à-dire de vérifier si tous les corps tombent dans un champ gravitationnel de la même façon. Et on va voir très rapidement quel est le principe pour que vous sachiez avant de parler de pourquoi c'est intéressant théoriquement de tester ça. Donc l'idée de base c'est que Microscope c'est une tour de pise de 7000 km de haut. 7000 km, c'est parce que c'est la distance par rapport au centre de la Terre. Newton a été le premier, vous savez, à comprendre que la Lune tombait en permanence vers la Terre. Même si elle ne tombe pas verticalement, elle tombe en rond. Elle dévie d'une trajectoire qui devrait être droite. Donc c'est ça la chute. Et l'idée essentielle de Microscope, c'est à l'intérieur de cette élite, et avec toute la technologie et les protections dont on va en entendre parler, d'avoir deux corps, en fait deux fois deux corps, mais enfin en particulier une paire avec des compositions différentes, platines et titanes. Et d'utiliser une technologie de sensibilité extrême pour mesurer la différence d'accélération entre les deux masses. Puisque si les deux corps tombent de la même façon autour de la Terre, il ne devrait pas y avoir d'accélération relative d'un corps par rapport à l'autre. Et donc l'expérience Microscope mesure et en particulier le long d'un axe sensible, ici comme ça. Et on entendra parler de tous les autres aspects, d'imposer des rotations pour arriver à changer la fréquence où on étudie le signal, de pouvoir mesurer si les deux corps tombent de la même façon. Plus précisément, les corps ce sont des cylindres, ni l'un dans l'autre, et la technologie c'est d'utiliser des capacités électriques, d'utiliser ce qui est la grande technologie mise au point par l'ONERA. Là vous avez quelques courbes qui indiquent à quel niveau de précision vous pouvez vérifier que les deux corps, l'un par rapport à l'autre, ont la même accélération ou pas. Donc le but de Microscope est, si possible, de tester l'universalité de la chute libre, le fait que tous les corps tombent de la même façon, avec une précision 10.15, donc comme Pierre Touboul et Manuel M. a dit, 10.15 pour donner une idée, c'est la masse relative d'un moustique par rapport à un super-tanker, à 15e décimale. Donc voilà les personnes qui ont joué un rôle principal dans le succès de cette mission, et bien sûr 300 autres personnes autour dont la contribution a été essentielle. Maintenant venons-en à la motivation théorique. Donc qu'est-ce que c'est que l'universalité de la chute libre ? C'est quelque chose qui a été découvert d'ailleurs même avant Galilé par Benedetti, mais on pense en général à Galilé, l'expérience mythique qui n'a jamais été faite par Galilé et de la tour de pise, mais qui permet tout de même de savoir de quoi on part. De corps tombant de la tour de pise, contrairement à ce que certains écrits d'Aristote tendaient à faire croire, arrive à peu près en même temps. Et Galilé a compris très tôt qu'il y avait quelque chose d'important là-dedans, mais la personne qui a le premier compris que c'était très profond, c'était Newton, et on va voir dans la transparente suivante pourquoi Newton a compris qu'il y avait quelque chose de profond avant Einstein, tellement profond qu'après cette découverte, les gens ont voulu tester cette propriété. C'était rendu compte qu'il y a quelque chose de particulier dans le fait que tous les courtes ont de même façon. Donc à la fin du XIXe siècle, à la fin du XIXe siècle, le baron Laurent von Otwosch avait obtenu des tests de l'universalité de la chute libre. Donc Otwosch avait testé ça au niveau du XIXe, d'ailleurs la place en utilisant un mécanique céleste avait aussi démontré que les corps célest tombaient vers le soleil avec une précision relative de 10.8 et petit à petit, dans les années 1960, à Princeton et à Moscou, des tests au niveau du XIXe ont été obtenus et les derniers tests avant microscope étaient au niveau 10.13 et microscope est en train d'aller encore plus loin. Il a le but d'atteindre 10.15, il a obtenu 10.14 avec juste 7% des données. Donc on va voir à la fin de l'analyse de l'émission quel va être le chiffre final. Et donc le principe d'équivalence. Donc cette idée que tous les corps tombent de la même façon s'appelle principe d'équivalence. On va voir pourquoi ça s'appelle principe d'équivalence. D'abord j'aimerais rappeler quelque chose qui avait été compris par Benedetti et Galilé, que ce qui est surprenant, ce n'est pas qu'un corps très lourd tombe de la même façon qu'un corps léger. Parce que si vous prenez une énorme masse de 100 kilos ou 10 kilos et que vous la décomposez en 100 morceaux d'un kilo et que vous faites un petit paquet cadeau autour des 100 masses d'un kilo, et bien cette masse de 100 fois un kilo va tomber bien sûr comme un kilo, mais donc ça veut dire que 100 kilos, si c'est du même matériau comme du plomb, va tomber comme un kilo. Donc ce n'est pas surprenant qu'un corps énorme tombe comme un corps beaucoup plus léger. Ce qui est surprenant c'est qu'un kilo de plomb tombe comme un kilo d'aluminium, ce qui pour le grand public est beaucoup moins surprenant de se dire que du moment que c'est un kilo, évidemment, ça va tomber de la même façon. Non, pour un scientifique, la chose surprenante c'est qu'un kilo de plomb tombe comme un kilo d'aluminium ou de titane. Pourquoi ? Parce que Newton avait compris qu'il y a deux aspects de la notion de masse, effectivement expliquons ça de base. La masse mesure l'inercie d'un corps, c'est à dire la résistance à être accélérée. Donc si j'ai un corps qui est soumis à une force extérieure, il va acquérir une accélération qui est la force divisée par sa masse, d'inercie, sa masse de résistance à être mise en mouvement. En revanche, il y a un autre aspect de la masse qui est ce que Newton appelait le poids. C'est le fait, le coefficient qui fait qu'un corps dans un champ gravitationnel est plus ou moins lourd. Dans la vie de tous les jours, on a l'impression que c'est exactement le même, mais non justement, Newton avait compris qu'a priori, cette masse grave, ce coefficient de couplage au champ gravitationnel n'a aucune raison d'être exactement le même que la masse d'inercie qui mesure une autre propriété. Donc Newton avait remarqué que c'était étonnant, mais il avait fait des expériences au niveau 10.3, et donc il en avait conclu qu'il fallait inclure ça dans les lois de la physique. Et après lui, en fait, la plupart des gens ont oublié que c'était remarquable. Jusqu'à ce que Einstein, en 1907, un jour où il travaillait dans son bureau à l'office des brevets, et qui l'a lu dans un journal qu'un ouvrier qui travaillait sur les toits de Berne était tombé en réparant les toits de Berne, et il a eu l'idée que si un ouvrier qui tombe avec tous ses outils, ses marteaux, etc., il a vu l'ouvrier tomber avec tous ses marteaux, tous ses outils, et tout d'un coup il s'est dit, mais du moment que tout le monde tombe de la même façon, tout se passe comme s'il n'y avait plus de gravitation. Et du coup il a compris qu'il y avait un lien profond entre inercie et gravitation, et qu'il a caractérisé avec ce qu'il a appelé le principe d'équivalence, ou l'hypothèse de l'équivalence entre inercie et gravitation, qui consiste à dire que si vous êtes dans une fusée en absence de champs gravitationnel mais qui est accéléré, à l'intérieur de cette fusée tout se passe comme si vous étiez dans une fusée au repos mais posée sur terre, où c'est la force gravitationnelle qui crée les mêmes effets que les forces d'inercie liées à l'accélération. Et donc cette simple pensée lui a permis de construire en quelques années une nouvelle théorie de la gravitation qui est condensée dans ces équations-là, qui a complètement changé notre concept de l'espace et du temps. Donc vous voyez qu'une idée simple, inercie et gravitation, a conduit à un des piliers de la physique du 20e siècle, qui aujourd'hui sert à la fois dans la vie de tous les jours pour que le GPS marche, en tout autre, pour faire de la géodésie de haute précision, mais aussi pour expliquer les données des pulsards binaires, les observations de trous noirs, certains, ce qui se passe au centre de noyaux actifs de galaxie et l'anti-gravitationnel. Les ondes gravitationnelles sont la théorie de la relativité générale et un des piliers essentiels de la physique du 20e siècle. Et pourquoi veut-on encore tester la relativité générale, parce que ici je ne vais pas rentrer dans les détails, mais par exemple il existe beaucoup de tests dans le système solaire de la gravitation et aussi dans les pulsards binaires et maintenant avec les ondes gravitationnelles. Tous les tests expérimentaux qu'on a de la gravitation relativiste sont en accord complet avec la théorie d'Einstein. Pourquoi donc y aurait-il motivation, alors que les tests avant que microscope existe et soit décidé du principe d'équivalence avait déjà atteint le niveau 10-13, quelle est la motivation vraiment pour penser que quelque chose qui est vrai à la 13e décimale pourrait devenir faux en dessous, parce que pour la plupart du monde si on se dit quelque chose est vrai jusqu'à la 13e décimale, par récurrence, ça va être vrai en dessous. Et bien non, pour deux raisons essentielles. C'est d'abord que le mot principe d'équivalence est trompeur, en ce sens qu'on dit principe d'équivalence, on a l'impression que c'est comme le principe de la conservation de l'énergie, le principe de moindre action, c'est-à-dire un des principes fondamentaux de la physique qui définit le cadre de la physique. Non, le principe d'équivalence n'est pas un principe de base de la physique, c'est une hypothèse heuristique. Ganstein a utilisé en généralisant un fait expérimental, le fait expérimental c'est que tous les cohorts ont de la même façon et il a construit à partir de là une nouvelle théorie de la gravitation et dans cette théorie de la gravitation, le principe d'équivalence est inclus, mais c'est parce qu'il a été inclus dès le départ. Donc là, on tourne en rond, c'est-à-dire c'est pas parce qu'on a construit une théorie qui réussit de la gravitation à partir de ce principe que ça prouve que ce principe est vrai. Surtout qu'en fait, la relativité générale a été construite en 1915, mais tout de suite après la construction de la relativité générale des scientifiques, en particulier Theodor Kalutsa, suivi bientôt par Oscar Klein, ont eu l'idée qu'il était très naturel de généraliser la théorie d'Einstein, par exemple en supposant qu'il y avait un espace temps non pas à quatre dimensions mais à cinq dimensions, la cinquième dimension étant compactifiée, c'est-à-dire étant des dimensions tellement petites et se referment sur elle-même, sur des distances de l'ordre de 10,33 cm qu'on ne le voit pas dans la vie tous les jours, mais ça a des conséquences immédiates qui a été discuté par Oscar Klein, qui sont des violations du principe d'équivalence. Et cette idée de Kalutsa Klein qui est donc très vieille, qui date de 1919, c'est pas une idée qui est née une fois et qui est après a disparu, c'est une idée qui est restée à travers tous les développements de la physique du 20e siècle et en particulier à partir 1968, ce jeune homme que vous voyez, qui est Gabriel Lévenet-Ziano, a créé pour nous un nouveau cadre théorique, qui s'appelle la théorie des cordes, qui est toujours en construction mais qui contient un message central que je veux discuter dans la transparence suivante. Et avant ça, parlons de la masse justement. Si il y a identité entre la masse d'inertie et la masse gravitationnelle, regardons d'abord ce qu'est la masse d'inertie parce que dans un manuel de physique, on a l'impression que c'est la masse, c'est juste un nombre qui mesure l'inertie d'un corps. Mais on sait aujourd'hui que la masse est quelque chose d'extrêmement complexe quand vous pensez à ce qui se passe à l'intérieur d'un solide et que vous rentrez après dans les atomes et puis vous rentrez dans le noyau. Tout d'après Einstein, E égale MC2 ou M, c'est la masse d'inertie en fait. La masse d'inertie, c'est l'énergie totale du corps, c'est-à-dire toutes les formes d'énergie de liaison, toutes les interactions qui contribuent à ce que cet objet tienne sur lui et qu'il y a des forces internes et une certaine structure comme à l'intérieur du proton, à l'intérieur des noyaux, tout ça contribue à l'énergie et donc à la masse. Et donc, regardons même ça plus précisément, la masse d'un atome par exemple est égale à la somme des masses de ses constituants plus l'énergie de liaison. L'énergie de liaison, elle va contenir en particulier beaucoup d'effets liés aux interactions fortes, forces nucléaires, disons, aux interactions électromagnétiques, à la présence de particules élémentaires autant qu'on sache, les quarks up and down, à l'électron lui-même. Et qu'est-ce que toutes ces interactions qui contribuent donc à cette énergie de liaison elles-mêmes sont déterminées par des constantes de couplage. Par exemple, l'énergie de liaison ou plutôt négative de répulsion coulombienne à l'intérieur d'un noyau est donnée par la constante de structure fine, c'est-à-dire le caractère de la charge de l'électron divisé par la permittivité de l'espace qui donnait une unité vaut aux quatre pays. Et la constante de structure fine qui mesure donc le couplage d'électromagnétisme est donnée par ce nombre, 1 sur 137, 0, 35, 9, 9, 9, 9, 9, 0, 8, 4. Et pourquoi ? Qu'est-ce qui détermine dans la nature cette constante de couplage ? Est-ce qu'il est naturel que, et vous avez des constants de couplage plus subtils pour les interactions fortes, qu'on va discuter dans la transparence suivante, quelle est la racine fondamentale, l'origine de ces constants de couplage qui détermine du coup la masse des corps ? Et bien personne n'en sait rien. Pourquoi il y a ces nombres pures qui apparaissent comme ça en physique ? Mais c'est là où en fait une idée que je trouve profonde et qui pour moi est la motivation essentielle d'une type d'expérience que fait Microscope, c'est qu'il s'est passé quelque chose de très important avec la relativité générale qui a créé un mouvement qui a été généralisé après la relativité générale, parce qu'avant Einstein, on considérait que l'espace et le temps étaient des cadres rigides, données une fois pour toutes, et avec des structures mathématiques pures et déterminées par les grecs qu'il y a longtemps, par exemple la somme des angles d'un triangle vaut 180 degrés, le théorème de Pythagore est vrai exactement, donc la géométrie est quelque chose qui est donné indépendamment de la physique et indépendamment de la présence de matière ou de choses comme ça. Einstein nous a dit non, c'est faux, en fait l'espace-temps est une structure élastique, les mesures d'espace et de temps sont modifiées par la présence de matière. Par exemple vous savez que si vous mesuriez vraiment le rapport entre la circonférence et le diamètre d'un cercle autour de nous, eh bien dans cette pièce, si on enlève tout le monde dans cette pièce, le rapport vaudra à 3, 14, 159, 2, 6, 5, 3, 5, etc. Mais avec beaucoup de masses ici Einstein nous dit que le rapport n'est plus égal à Py, qu'il en diffère à la 14e décimale d'une autre masse, à la 9e décimale autour de la Terre, etc. Donc c'est ça l'idée essentielle d'Einstein, c'est qu'il n'y a plus de structure absolue, il n'y a plus un espace que l'il y a à donner une fois pour toute, tout ça est souple, tout ça est élastique. Et c'est cette idée essentielle qui a été généralisée par Kaloudza Klein et par la théorie des cordes qui dit que c'est pas seulement les lois fondamentales de la géométrie qui sont devenues souples, flexibles, mais ce sont toutes les constantes de la physique locale, justement avant je citais la constante de structure fine, eh bien dans la théorie de Kaloudza Klein et en théorie des cordes, en fait ce nombre là, ça n'est pas un nombre donné, un nombre pur comme un zéro d'une fonction de Bessel qui sera déterminé un jour, c'est la valeur d'un champ qui a eu une évolution cosmologique et dynamique et qui a pris une certaine valeur qui donne ça. Mais si la valeur des constantes est liée à, ne sont pas des vraies constantes de la nature, mais sont des quantités dynamiques, des choses flexibles, comme la géométrie d'espace, eh bien ça prédit immédiatement, ça c'est une petite représentation symbolique de la théorie des cordes qui nous dit que l'espace lui-même est fait de cordes qui fluctuent derrière la théorie d'Einstein, eh bien comme il a été compris dès les années en fait 60, si vous avez un champ qu'on appelle en général du type dilaton, alors qu'est-ce que c'est qu'un dilaton, c'est très simple, vous connaissez tous par exemple les équations de Maxwell qui dérivent dans la grand génie, c'est-à-dire un principe de moindre action, l'action du champ électronétique c'est E carré moins B carré, qui en notation relativiste écrit F minu, F minu, et si devant ce terme là vous avez un coefficient qui n'est pas juste la constante de structure fine, un nombre pur, mais quelque chose qui varie, un champ fi, donc ici vous avez un champ fi qui se coupe au champ électronétique, et ça c'était ce que Kalozaklany avait prévu en 1919, puis après ça qui peut se coupler au champ, les champs de George qui déterminent les interactions fortes, QCD les interactions fortes, les interactions faibles, la théorie des cordes et au mass, en théorie des cordes en fait comme il n'y a rien de fixé une fois pour toutes, vous avez ces champs, le dilaton en particulier, qui apparaissent devant tous ces couplages et qui donc peut moduler a priori ces couplages, et après par un raisonnement sur lequel je ne vais pas entrer, mais qui utilise le fait que la masse d'un corps contient toutes ces énergies de liaison et que les énergies de liaison dépendent de ces constants de couplage, ces constants de couplage ne sont pas des nombres, mais un champ qui varie, quand vous prenez le potentiel d'interaction ou la force, l'accélération de chute libre d'un corps qui contient le gradient de la masse, le gradient de l'énergie, parce que c'est la loi fondamentale de la dynamique, et bien vous trouvez des contributions qui finalement violent le principe d'équivalence, simplement parce qu'effectivement, il n'y aura pas la même quantité d'énergie coulombienne, par exemple dans le titanium et dans le plomb, etc. Donc ce raisonnement très simple, qui est donc la généralisation de l'idée d'Einstein, qu'il y a une flexibilité complète des structures de la physique, et c'est un des grands messages de la physique du 20e siècle, nous invite à penser qu'il doit y avoir à un certain niveau, possiblement, une violation au principe d'équivalence. Bon, cela dit, comme on savait avant microscope que c'était tout de même pas violé au niveau 10-13, il fallait avoir certaines raisons de croire que ça soit naturel, parce qu'en général, on pourrait s'attendre, soit c'est violé tout de suite, à un niveau 10% ou 10-5, peut-être, il y a un petit paramètre, si c'est violé extrêmement peu, pourquoi ? Mais en fait, il y a des mécanismes, il y a des mécanismes d'évolution cosmologique, par exemple, on peut démontrer que, sous certaines hypothèses d'évolution cosmologique, peut pratiquement annuler les violations du principe d'équivalence au cours de l'évolution cosmologique, et que quand vous mettez des nombres là-dedans, vous trouvez assez naturellement que les violations résiduelles qu'on pourrait voir aujourd'hui peuvent être en dessous de 10-11 ou de 10-15, dans certains modèles que j'avais développé avec Sacha Poliakov de 10-18. Donc, vous voyez, il n'y a pas de prédiction ferme du niveau de violation principale d'équivalence, mais une idée générale, ce n'est pas parce que c'est vrai à 10-13 que ça devrait être vrai tout le temps. Surtout qu'il reste des mystères dans notre compréhension de l'univers cosmologique. L'énergie noire, c'est-à-dire, l'idée que chaque centimètre cube de l'univers contient une énergie de 10-29 g par centimètre cube, c'est-à-dire en unité fondamentale 10-123 la masse de Planck à la quatrième puissance, ce qui est tout un tout petit chiffre, 10-123, mais ça n'est pas nul. Et donc pourquoi est-ce que l'énergie du vide est si petite, mais pas exactement nul ? En fait, personne ne sait, soit c'est une coïncidence absolue, soit une idée, c'est qu'en fait, il sait aussi un champ qui s'appellerait la quintessence qui a une énergie du vide comme tout champ, mais qui va tendre vers zéro, mais pour le moment, ce champ est encore en train d'évoluer et sa densité d'énergie, qu'on laissera évoluer dans l'avenir, deviendra encore plus petite, voilà. Ça, c'est une possibilité. Et si il y a un tel champ de type quintessence, il doit violer immédiatement le principe d'équivalence. Il y a aussi un principe général dit anthropique, c'est que comme j'ai dit au début que le principe d'équivalence n'est pas une loi fondamentale de la physique, on s'attend à ce que tout ce qui n'est pas une nécessité absolue, en fait, ait une valeur non nulle. Par exemple, une des explications de la consensus cosmologique, c'est de dire la consensus cosmologique à la plus grande valeur possible qui permet à la vie d'exister et pas plus, je veux dire, pas moins. Et d'eux-mêmes, le principe d'équivalence pourrait être pour avoir une limite qui serait liée à notre existence. Ça, certaines personnes n'aiment pas le principe d'équivalence, peu importe. Donc quel est le résultat actuel, le principe, je veux dire, d'entropique, le résultat actuel de l'analyse de 7% des données de microscopes, c'est correct. Donc de 120 orbites a donné ce nombre qui veut dire essentiellement 10.14, bon, le but ultime de microscope en analysant plus de données, toutes les données, c'est de descendre d'aller vers 10.15, on verra jusqu'où il pourra aller. Déjà, aujourd'hui, ce résultat est cité dans des manuels et dans des articles de revue comme un des résultats essentiels sur notre connaissance de la gravitation et il a donné lieu à des études donnant des contraintes sur les modèles de type dilaton, contraintes qui n'exclut pas mais qui mettent contraintes encore plus fortes qu'avant. Et juste pour finir, je voudrais dire que le take-home message c'est que la mission microscope est une fenêtre extrêmement transparente sur la physique au-delà de la physique telle que l'on a connait aujourd'hui. C'est donc spéculatif, on sonde la gravitation au-delà de tout ce que l'on connait. C'est un espèce de pari de Pascal, la probabilité de trouver quelque chose est totalement inconnue, peut-être très faible, mais si microscope trouve une nouvelle violation, c'est une découverte majeure de la physique. Merci.